總長DR

  • 人工智能正被用於增強各種類型的詐騙,包括語音克隆、個性化網絡釣魚、身份欺詐和深度僞造勒索

  • 摩根·弗里曼公開反對未經授權的人工智能模仿他的聲音

  • 斯嘉麗·約翰遜和德雷克等名人曾面臨人工智能生成的內容模仿他們聲音的問題

  • 娛樂業對人工智能技術濫用的擔憂日益加劇

  • 專家建議提高警惕並採取網絡安全最佳實踐,以防範人工智能詐騙

隨着人工智能 (AI) 技術的進步,詐騙者正在尋找新方法利用它來實現惡意目的。

從語音克隆到深度僞造勒索,人工智能詐騙變得越來越複雜,越來越難以發現。

與此同時,名人也紛紛公開反對在人工智能生成的內容中未經授權使用他們的聲音和肖像。

最令人擔憂的人工智能詐騙之一涉及家人和朋友的聲音克隆。詐騙者現在只需幾秒鐘的音頻就能創造出令人信服的親人聲音的假版本。

這些合成聲音可用於製造虛假求救電話,要求提供金錢或幫助。專家建議警惕來自未知號碼的任何意外來電,並通過正常通信渠道驗證來電者的身份。

個性化網絡釣魚和垃圾郵件是另一個日益嚴重的威脅。人工智能語言模型現在可以使用從數據泄露中獲取的個人信息生成定製的垃圾郵件。

這些定製郵件比傳統的普通垃圾郵件更具說服力。建議用戶保持警惕,避免點擊可疑來源的鏈接或打開附件,即使郵件看起來是個性化的。

隨着人工智能的發展,身份欺詐也變得越來越複雜。詐騙者現在可以創建聽起來像目標人物的人工智能角色,並可以訪問用於身份驗證的許多個人信息。

這使得他們在聯繫客服時更容易冒充個人。專家建議使用多因素身份驗證,並對任何可疑的帳戶活動保持警惕。

也許最令人擔憂的發展是使用人工智能生成的深度僞造進行勒索。

先進的圖像生成模型現在可以創建幾乎所有人的逼真的假裸照,騙子可能會利用這些照片進行敲詐勒索。雖然這是一個令人不安的趨勢,但專家指出,這些假照片通常缺乏可識別的標記,可能存在明顯的缺陷。建議受害者向當局舉報此類事件。

娛樂業尤其受到未經授權的人工智能模仿的影響。

最近,演員摩根·弗里曼 (Morgan Freeman) 公開反對社交媒體上流傳的人工智能模仿他的聲音。弗里曼在一份聲明中感謝粉絲們“警惕並支持未經授權使用人工智能模仿我的聲音”。他強調,面對這種技術,保持“真實性和完整性”非常重要。

感謝我了不起的粉絲們,感謝你們的警惕和支持,呼籲大家譴責未經授權使用人工智能聲音模仿我的行爲。你們的奉獻精神讓真實性和完整性保持至高無上。感激不盡#AI#騙局 #模仿 #身份保護

— 摩根·弗里曼(@morgan_freeman) 2024 年 6 月 28 日

弗里曼並不是唯一一個有這種擔憂的人。其他名人也面臨着與人工智能生成內容類似的問題。

斯嘉麗約翰遜的法律團隊最近向 OpenAI 發起挑戰,稱一款人工智能個人語音助理聽起來與她的聲音非常相似,儘管斯嘉麗約翰遜拒絕參與該項目。

說唱歌手德雷克也因在一首歌曲中使用人工智能模仿圖帕克·沙庫爾和史努比狗狗而面臨爭議,導致沙庫爾遺產管理人下達了停止令。

摩根弗里曼和名人公開反對未經授權的人工智能模仿者一文首先出現在 Blockonomi 上。