詩歌、散文甚至書籍——還有什麼是開放人工智能平臺 ChatGPT 無法處理的嗎?這些新的人工智能發展啓發了代爾夫特理工大學和瑞士洛桑聯邦理工大學的研究人員進行更深入的挖掘:例如,ChatGPT 也能設計機器人嗎?這對設計過程來說是好事,還是有風險?研究人員在《自然機器智能》雜誌上發表了他們的研究成果。

人類未來面臨的最大挑戰是什麼?這是代爾夫特理工大學助理教授 Cosimo Della Santina 和博士生 Francesco Stella 以及洛桑聯邦理工學院 Josie Hughes 向 ChatGPT 提出的第一個問題。“我們希望 ChatGPT 設計的不僅僅是一個機器人,而是一個真正有用的機器人,”Della Santina 說。最終,他們選擇了食物供應作爲挑戰,在與 ChatGPT 聊天時,他們想出了製造一個番茄採摘機器人的想法。

有用的建議

研究人員遵循了 ChatGPT 的所有設計決策。Stella 表示,這些意見在概念階段特別有價值。“ChatGPT 將設計師的知識擴展到其他專業領域。例如,聊天機器人教會了我們哪種作物自動化最具經濟價值。”但 ChatGPT 在實施階段也提出了有用的建議:“用硅膠或橡膠製作夾持器,以避免壓碎西紅柿”和“Dynamixel 電機是驅動機器人的最佳方式。”人類與人工智能之間的這種合作的結果是可以收穫西紅柿的機械臂。

ChatGPT 研究員

研究人員發現,協作設計過程是積極而豐富的。“然而,我們確實發現,我們作爲工程師的角色轉向執行更多技術任務,”Stella 說。在《自然機器智能》中,研究人員探索了人類與大型語言模型 (LLM) 之間的不同程度的合作,ChatGPT 就是其中之一。在最極端的情況下,人工智能爲機器人設計提供了所有輸入,而人類則盲目地遵循它。在這種情況下,LLM 充當研究員和工程師,而人類充當經理,負責指定設計目標。

錯誤信息的風險

如今的法學碩士還不可能出現這種極端情況。問題在於這是否可取。“事實上,如果法學碩士的輸出沒有經過覈實或驗證,可能會產生誤導。人工智能機器人旨在生成問題的‘最可能’答案,因此在機器人領域存在錯誤信息和偏見的風險,”Della Santina 說。法學碩士的工作還引發了其他重要問題,例如剽竊、可追溯性和知識產權。

Della Santina、Stella 和 Hughes 將繼續在機器人研究中使用番茄採摘機器人。他們還將繼續攻讀法學碩士學位,以設計新型機器人。具體來說,他們正在研究人工智能在設計自身身體方面的自主性。“最終,我們領域未來的一個懸而未決的問題是,如何利用法學碩士學位協助機器人開發人員,而不會限制機器人應對 21 世紀挑戰所需的創造力和創新,”Stella 總結道。

#GOATMoments #robots #science