据 Cointelegraph 报道,随着 AI 驱动的 Deepfake 欺诈日益猖獗,安全公司警告这种攻击方式可能超越视频和音频领域。

9 月 4 日,软件公司 Gen Digital 报告称,使用 AI Deepfake 欺诈加密货币持有者的恶意行为者在 2024 年第二季度加大了行动力度。

该公司表示,名为“CryptoCore”的诈骗团伙已通过 AI Deepfake 骗取了超过 500 万美元的加密货币。

Web3 安全公司 CertiK 认为,AI 驱动的 Deepfake 欺诈将变得更加复杂,并可能扩展到视频和音频之外。

CertiK 解释说,这种攻击方式可以欺骗使用面部识别的钱包,从而让黑客获得访问权限。

网络安全公司 Norton 的安全布道者 Luis Corrons 认为,AI 驱动的攻击将继续瞄准加密货币持有者,因为加密货币交易通常价值高且可匿名进行。

Corrons 还指出,加密货币缺乏监管,使得网络犯罪分子面临的法律后果较少,攻击机会更多。

安全专家认为,用户可以通过教育和警惕来保护自己免受 AI 驱动的 Deepfake 攻击。CertiK 建议用户对未经请求的资金或个人信息请求保持怀疑,并启用多因素认证。

Corrons 认为,用户可以通过识别不自然的眼睛、面部表情和身体动作等“红旗”来避免 AI Deepfake 欺诈。此外,缺乏情感、面部变形或图像拼接、尴尬的身体形状和音频不一致也可以帮助用户识别 AI Deepfake。