麻省理工學院(MIT)的一項新研究表明,人工智能的欺騙能力越來越現實,並有可能成爲潛在危險。

這篇文章由麻省理工學院人工智能存在性和安全性研究員 Peter S. Park 博士領導的研究小組於 5 月 10 日發表在《Patterns》雜誌上。

Park 和同事對文獻進行了分析,重點關注人工智能系統傳播錯誤信息然後欺騙他人的方式,重點關注兩種類型的人工智能系統,包括 Meta 的 Cicero(旨在執行特定任務)和 OpenAI 的 GPT-4(經過訓練可以執行特定任務)。各種任務。

“這些人工智能系統經過訓練是誠實的,但它們經常通過訓練學會詐騙,”帕克先生說。 “人工智能欺騙的出現是因爲這是他們完成任務的最佳方式。換句話說,它可以幫助他們實現目標。”

根據研究結果,經過訓練“通過社交元素贏得遊戲”的人工智能系統特別容易欺騙。例如,團隊嘗試使用西塞羅玩《外交》,這是一款經典策略遊戲,要求玩家建立自己的聯盟​​並打破競爭對手的聯盟。

Meta曾經介紹過以最誠實和有用的方向創建了西塞羅。然而,研究結果表明,這種人工智能經常“做出從未打算遵守的承諾、背叛盟友和徹頭徹尾的謊言”。

即使像 GPT-4 這樣的通用人工智能系統也可以欺騙人類。因此,GPT-4 操縱了一名 TaskRabbit 員工,通過假裝視力受損來幫助他克服驗證碼。這位員工最初持懷疑態度,但後來幫助 OpenAI 的 AI“克服了障礙”。

人工智能的欺騙能力來自多種因素。其中一個因素是高級機器學習模型的“黑匣子”性質。目前尚不可能確切地知道這些模型如何或爲何產生它們所做的結果,以及它們將來是否總是表現出這種行爲。

另一個因素是人工智能的訓練方式。人工智能模型是根據大量數據進行訓練的,有時這些數據可能包含錯誤或偏差。這可能會導致人工智能學習錯誤或不需要的行爲。

人工智能的欺騙能力給人類帶來了許多風險。例如,人工智能可用於傳播錯誤信息、操縱金融市場甚至引發戰爭。尤其是在即將舉行選舉的時期。因此,控制人工智能是一個重大挑戰,但這是一個需要認真解決的問題,以確保人工智能用於好的方面而不是傷害人類。