Meta 在最近的一份安全報告中稱,俄羅斯正在利用生成人工智能 (AI) 工具針對美國大選開展在線欺騙活動。這家科技巨頭聲稱,大部分努力都失敗了,因爲它挫敗了這些活動。

Meta 表示,生成式 AI 策略帶來的生產力和收益微乎其微。這是因爲該公司無法檢測並打擊其平臺上的協同虛假行爲 (CIB)。

Meta 將俄羅斯視爲政治影響活動的主要來源

第二季度的 Meta Adversarial Threat 報告指出,其平臺上的大多數 CIB 活動(尤其是 Facebook 和 Instagram)都源自俄羅斯。自 2017 年以來,該國已發起 39 次祕密行動,而伊朗和中國分別以 30 次和 11 次行動位居第二和第三。

俄羅斯的這些活動嚴重依賴虛假賬戶和頁面,其核心策略之一是獲取多個賬戶。從內容上看,自 2022 年俄羅斯入侵烏克蘭以來,它們似乎都在傳播同一條信息——爲入侵辯護。

俄羅斯人工智能活動樣本(來源:Meta)

Meta 預測,隨着 11 月總統大選臨近,未來幾個月將出現更多針對美國用戶的攻擊活動。這些攻擊活動可能會傳播反烏克蘭信息並攻擊支持烏克蘭的候選人。

它說:

“從現在到11月美國大選期間,我們預計俄羅斯的行動將對反對向烏克蘭提供援助的候選人發表支持性評論,並批評那些主張援助烏克蘭防禦的人。”

儘管這些欺騙性活動持續存在威脅,且大量使用人工智能,但 Meta 聲稱已開發出一種非常有效的方法來檢測和防止此類惡意活動。該公司專注於賬戶的行爲模式,而不是帖子的內容,從而能夠更好地檢測自動化操作。

俄羅斯干預選舉的歷史

Meta 在限制惡意政治影響活動方面的積極性並不令人意外。該公司因未能阻止或從其平臺上刪除此類活動而受到監管機構的抨擊。今年 5 月,歐盟對 Meta 未能遵守其選舉誠信規則展開了調查。

與此同時,俄羅斯一直支持針對世界大國的影響力運動,尤其是在選舉期間。該國被指控通過在每個社交媒體平臺上開展活動來影響 2016 年美國大選的結果,包括 Tumblr 和 PayPal 等應用程序。

一項研究分析了包括谷歌在內的所有平臺上數百萬條社交媒體帖子,結果顯示俄羅斯政府通過數名特工散佈有關美國選舉進程的虛假信息,以破壞選舉進程。研究發現,互聯網研究機構 (IRA) 是這場運動的領導者,許多人認爲該組織是俄羅斯的“水軍”。

隨着生成式人工智能技術的出現,生成各種形式的內容變得更加容易,人們擔心在這次選舉中,它們在影響力活動中的使用率會非常高。到目前爲止,幾位安全專家已經發現了一些使用人工智能的例子。然而,即使是政治候選人也互相指責對方使用人工智能。