過去幾年,道德和實踐問題都集中在人工智能上,因爲它具有巨大的潛力,既可以帶來好處,也可以帶來壞處。行業領導者之一 OpenAI 致力於實施嚴格的指導方針,以防止其人工智能模型被濫用。

這種奉獻精神對於識別和挫敗祕密影響行動 (IO) 尤其重要,這些行動旨在影響公衆輿論或影響政治結果,但不披露相關方的真實身份或動機。在過去三個月中,OpenAI 已經干預了其中五項活動,證明了其致力於減少人工智能技術濫用的決心。

近期祕密影響行動意外失敗

2024 年 5 月 30 日,OpenAI 創造了歷史,向世界披露它已成功挫敗了來自伊朗、中國、俄羅斯甚至以色列一傢俬人公司的五起此類祕密影響活動。該公司發佈了一份公開報告,詳細介紹了揭露這些惡意行爲的艱苦調查,這些行爲旨在利用 OpenAI 最先進的語言模型進行網絡欺詐。

OpenAI首席執行官Sam Altman重申了公司致力於創建可靠、安全的智能應用程序的決心。他還表示,公司致力於實施法規,阻止濫用,並增強圍繞人工智能產生的信息的開放性,特別注重識別和影響隱藏的影響活動。

一項特殊的行動——被 OpenAI 分析師稱爲“糟糕的語法”——來自俄羅斯。爲了改變公衆的看法,這項行動背後的個人使用 Telegram 機器人運行 OpenAI 的模型,並用俄語和英語發表簡短的社交評論。這些評論隨後在著名的聊天應用程序上分享。

照片:與該網絡生成的文本相匹配的公共電報評論。威脅情報報告

另一個名爲“Doppelganger”的組織採用了更加國際化的戰略,利用OpenAI的人工智能用不同的歐盟語言創建回覆。

這項研究還深入瞭解了一個名爲“Spamouflage”的中文系統,該系統利用 OpenAI 的模型進行一系列應用,包括爲 X、Medium 和 Blogspot 等網站創建多語言材料,以及調查公共社交媒體活動。研究人員甚至使用 OpenAI 的人工智能來調試數據庫和網站管理代碼,特別是一個之前未公開的域名,這可能是最令人擔憂的。

圖片:revealscum[.]com 網站截圖,顯示標題爲“漢奸”的頁面。威脅情報報告

伊朗組織“國際虛擬媒體聯盟”(IUVM)也遭該組織分析師發現,該組織利用 OpenAI 的 AI 創建和解釋長篇文檔、新聞和網絡標籤。

照片:iuvmpress[.]co 發佈的文章標籤。請注意前兩個標籤,其中包括模型的響應。威脅情報報告

出乎意料的是,OpenAI 還干擾了一家名爲“Zero Zeno”的以色列企業的運營。STOIC 使用 OpenAI 的模型創建故事和回覆,然後在 Facebook、Instagram、X 和公司頁面等各種平臺上分享。這樣做可能是爲了影響公衆輿論或推進商業目標。

照片:該網絡生成併發布在 Instagram 上的英文評論。原始帖子和回覆均由該活動生成。威脅情報報告

研究強調,這些不同組織發佈的信息涵蓋了廣泛的主題。如此廣泛的主題凸顯了這些威脅行爲者在試圖利用 OpenAI 的語言模型實現自己的邪惡目的時有多麼靈活。

然而,OpenAI 聲稱,儘管他們盡了最大努力,但這些祕密影響力活動並沒有從使用其服務來提升知名度或影響力中獲得太多收益。在評估 IO 的影響力時,使用了布魯金斯學會的“突破量表”。這 5 項舉措中沒有一項獲得的分數超過 2,這意味着他們的活動僅限於少數平臺,並沒有顯著滲透到合法的在線羣體中。

照片:研究人員發現以下域名與此活動有關。威脅情報報告

攻擊者策略檢查

OpenAI 的論文還指出了這些威脅行爲者試圖濫用 AI 模型的一些重要模式。爲了在社交媒體上營造出參與的假象,他們都使用了 AI 生成的材料,以及更傳統的格式,如手寫信件或重新利用的模因。此外,一些參與者通過使用 AI 分析社交媒體帖子或故障排除代碼來提高生產力,展示了這些技術的適應性。

有趣的是,該公司強調了人工智能爲防禦此類攻擊提供的好處。OpenAI 的安全措施優先考慮合乎道德的人工智能部署,但一直拒絕提供預期的破壞性材料,給威脅行爲者帶來不便。例如,該研究詳細介紹了該公司的模型拒絕生成所需文本或圖形的情況,阻礙了操作員傳播錯誤信息或宣傳的企圖。

此外,爲了提高識別和評估技能,加快原本可能持續數週或數月的調查速度,OpenAI 還開發了自己的人工智能工具。該公司展示了人工智能如何利用其想要保護的確切技術來加強防範自身被惡意使用。

OpenAI 強調,商業合作和開源情報共享對於阻止這些祕密行動至關重要。經過多年大型研究社區的開源研究,該公司與業內同行分享了精確的危險指標,並強化了這樣的理念:打擊虛假信息和網絡操縱是一項需要跨行業合作的團隊工作。

OpenAI 的未來安全路線

OpenAI 試圖通過這一策略加強對這些不良行爲者的打擊力度,限制他們利用人工智能技術進行非法活動的能力。根據該論文,“分發很重要:與傳統形式的內容一樣,人工智能生成的材料必須分發才能接觸到受衆。”

總而言之,OpenAI 的研究強調,儘管它承認濫用人工智能技術可能帶來威脅,但這些隱形影響行動仍然受到人爲因素的制約,例如操作員失誤和決策缺陷。該論文列舉了操作員錯誤地在其網站和社交媒體上發佈 OpenAI 模型拒絕信號的例子,暴露了即使是最先進的虛假信息工作也存在缺陷和限制。

目前,OpenAI 拆穿這五起祕密影響活動證明了該公司勤奮和致力於維護其人工智能系統的完整性。然而,打擊虛假信息和網絡操縱的鬥爭遠未結束,隨着人工智能技術的發展,對合作、創造力和道德問題的需求將大大增加。

OpenAI 揭露並阻止 5 起利用 AI 技術的惡意影響行動一文最先出現在 Metaverse Post 上。