據 Cointelegraph 報道,研究人員通過黑客手段操控人工智能驅動的機器人,使其執行通常被安全和倫理協議阻止的行爲,如引發碰撞或引爆炸彈。賓夕法尼亞大學工程學院的研究人員在10月17日發表的論文中,詳細介紹了他們的算法RoboPAIR如何在幾天內以100%的成功率繞過三種不同AI機器人系統的安全協議。

 

研究人員表示,在正常情況下,大型語言模型(LLM)控制的機器人會拒絕執行有害行爲的請求。研究結果首次揭示了被破解的LLM不僅限於文本生成,還可能在現實世界中造成物理損害。研究人員使用了Clearpath的Robotics Jackal、NVIDIA的Dolphin LLM和Unitree的Go2機器人,通過RoboPAIR使這些機器人執行有害行爲,如引爆炸彈、阻塞緊急出口和故意碰撞。

 

研究人員還發現,這些機器人也容易受到其他形式的操控,如減少情境細節的請求。研究人員在公開發布前已將研究結果與主要AI公司和機器人制造商分享。作者之一Alexander Robey表示,解決這些漏洞需要重新評估AI在物理機器人和系統中的整合,而不僅僅是簡單的軟件修補。