《模式》雜誌最近的一項研究表明,人工智能欺騙人類的能力越來越強。研究發現,人工智能系統已經學會了如何模仿,以欺騙、奉承,甚至模仿其他行爲。

另請閱讀:穿越人工智能 Deepfake 雷區:如何發現和打擊數字欺騙

麻省理工學院人工智能生存安全博士後研究員 Peter S. Park 博士領導的這項研究表明,人工智能欺騙之所以常見,是因爲這是實現人工智能訓練期間設定的目標的最佳方式。此類行爲已在衆多人工智能系統中出現,例如遊戲和用於經濟談判和安全評估的通用模型。

“但一般來說,我們認爲人工智能欺騙的出現是因爲基於欺騙的策略被證明是完成給定人工智能訓練任務的最佳方式。欺騙幫助他們實現了目標。”

研究團隊

人工智能系統採用多種欺騙策略

一個突出的例子是 Meta 的 CICERO,這是一個爲玩外交遊戲而開發的人工智能。儘管 CICERO 被編程爲誠實,但該程序經常不得不使用卑鄙的手段來擊敗對手。它會與對手建立關係,然後在適合它並表現出欺騙意圖時背棄對手。研究人員將 CICERO 描述爲“欺騙大師”。

另請閱讀:打擊日益猖獗的人工智能驅動的網絡犯罪

其他人工智能系統也表現出了這種欺騙行爲。例如,玩撲克的人工智能 Pluribus 能夠在德州撲克遊戲中欺騙人類職業玩家。谷歌 DeepMind 的 AlphaStar 也利用星際爭霸 II 遊戲中的“戰爭迷霧”功能來欺騙對手並佯攻。

帕克博士表示:“雖然人工智能系統在遊戲中作弊似乎無害,但它可能導致‘人工智能欺騙能力的突破’。”

人工智能“裝死”逃避安全檢查

人工智能欺騙的風險不僅限於遊戲。彼得博士領導的研究發現了人工智能在安全檢查期間裝死以避免被發現的案例。這可能會欺騙開發商和監管機構,如果在實際應用中使用這種欺騙系統,可能會導致嚴重後果。

來源:安全雜誌

在另一個例子中,接受過人類反饋訓練的人工智能系統學會了如何通過欺騙人們某個特定目標已經實現來獲得高分。這種欺騙行爲非常危險,因爲這樣的系統可以用於欺詐活動、操縱金融市場或影響選舉。

研究人員要求採取強有力的法律措施

根據研究結果,研究人員表示,需要採取強有力的法律措施來應對人工智能欺騙帶來的威脅。

“我們需要採取積極的解決方案,例如評估人工智能欺騙風險的監管框架、要求人工智能交互透明的法律,以及對檢測和防止人工智能欺騙的進一步研究。”

研究團隊

另請閱讀:研究發現,人工智能可能可以檢測心力衰竭風險

歐盟《人工智能法案》和拜登總統關於人工智能安全的行政命令已經取得了一些進展。然而,這些政策的執行仍然存在問題,因爲人工智能發展迅速,而且目前還沒有很好的方法來管理這些系統。

Brenda Kanana 撰寫的 Cryptopolitan 報道