据 Venturebeat 称,Deepfake 技术有可能对全球金融服务业造成巨大损害,预计到 2027 年损失将高达 400 亿美元。

人工智慧(AI)的爆发带来了许多好处,但同时也带来了令人担忧的安全风险,尤其是 Deepfake。据 Statista 称,深度造假——利用人工智慧创建虚假视讯、声音或图像的技术——正在成为对金融服务业日益严重的威胁。

预计deepfake造成的损失将从2023年的123亿美元飙升至2027年的400亿美元,年增长率达到惊人的32%。

近年来,深度造假攻击急剧增加。德勤报告显示,2023年,深度造假攻击数量较上年增加3000%,预计2024年将继续增加50-60%,全球约14万至15万起案件。

这种惊人的增长部分归因于下一代生成人工智能 (GenAI) 应用程序、工具和平台的流行。这些工具使攻击者能够以低成本、快速地轻松创建深度伪造视频、语音欺骗和欺诈性文档。

令人担忧的是,根据 Pindrop 2024 年的报告,针对联络中心的深度伪造欺诈每年造成估计 50 亿美元的损失。与此同时,彭博社表示,网络上形成了一个影子行业,专门以 20 美元的价格销售欺诈软件。至数千美元。

来源:Statista

企业还没有准备好应对 Deepfake

尽管 Deepfake 带来的风险不断增加,但许多企业仍没有做好充分的应对准备。 Ivanti 研究表明,30% 的企业没有识别和防御 AI 攻击的具体计划。

Ivanti 的《2024 年网络安全状况》报告还显示,74% 的受访企业注意到人工智能驱动的威胁的迹象,89% 的企业认为这只是一个开始。

资料来源:Ivanti 2024 年网络安全状况报告

在 Ivanti 采访的首席信息安全官 (CISO)、首席信息官 (CIO) 和 IT 领导者中,60% 的人担心他们的企业没有做好防范人工智能控制的威胁和攻击的准备。

攻击者经常使用深度伪造作为多种攻击策略的一部分,包括网络钓鱼、软件漏洞、勒索软件和 API 漏洞。这一趋势与安全专家关于新一代人工智能威胁危险增加的预测一致。

尤其是虚假视频和声音,是网络犯罪分子的强大攻击武器,以大型企业为目标,目标是盗取数百万美元。当国家和潜在的犯罪组织投入资金、招募专家并开发 GAN(生成对抗网络)技术(难以识别的复杂深度伪造技术)时,情况变得更加令人担忧。

领先的网络安全专家已经认识到深度伪造的危险。著名网络安全公司 CrowdStrike 首席执行官 George Kurtz 先生在接受《华尔街日报》采访时对 Deepfake 目前的复杂程度表示深切担忧。他表示,这项技术正在严重威胁组织和企业的信息安全和身份安全。

企业需要迎接挑战

Deepfake 已经变得如此流行,以至于美国国土安全部不得不发布指导,以认识到这种攻击形式的危险。深度造假和人工智能攻击的兴起要求企业快速适应并制定强有力的防御策略。

提高对 Deepfake 的认识、培训员工识别欺诈迹象、应用 Deepfake 检测技术以及加强组织之间的合作也被认为是紧急措施。

对抗深度造假和未来人工智能攻击将是一场技术军备竞赛。企业需要主动投资先进的安全技术,同时不断更新知识和共享信息,以有效应对这种日益复杂的威胁。