安全知识:警惕AI换脸危害

1. 什么是“AI 换脸”


AI 换脸,通常指的是利用深度学习中的 Deepfakes (深度伪造) 技术,将一个人的脸替换成另一个人的脸。这项技术可以通过分析目标人物的面部特征,然后将其应用到另一个视频或图片中,从而创造出看似真实的假视频或图片。


换脸技术在娱乐、电影制作等领域有一定的应用价值,但同时也带来了诸多危害,具体来说, Deepfakes 因其在制作儿童性虐待材料、名人se情视频、报复se情、假新闻、恶作剧、欺凌和金融欺诈方面的潜在用途而受到广泛关注。


2. “AI 换脸”的发展史


2017 年,来自 University of Washington 的 Supasorn Suwajanakorn 等人使用深度学习技术,推出了“Synthesizing Obama”[1](合成奥巴马项目), 该技术发表于 Siggraph 2017。简单来说,这项技术修改了巴拉克-奥巴马的视频片段,让他口中念出与视频无关的新音轨中的词语。其技术是循环神经网络 Recurrent-Neural-Network(RNN) 和嘴型合成 (Mouth Synthesis) 等技术的综合应用。其效果非常好,视频中的音频和嘴部进行匹配达到了以假乱真的合成效果:


3. “AI 换脸”的危害!


· 传统金融领域案例:


在传统金融领域,换脸技术被用于诈骗活动。例如,根据报道 [7,8], 不法分子利用非法获取的个人信息,通过计算机算法仿真合成受骗者亲人、领导同事或公职人员的肖像面容与声音,冒充上述人员身份行骗。在获得受害者信任后,使用事先准备好的套路话术向受害人发送银行卡转账、虚拟投资理财、刷单返利等诈骗信息,并利用视频通话、语音轰炸等手段进一步降低受害者的防备心,导致受害者在短时间内难以察觉异样,一旦听信诈骗分子的骗术并完成转账,对方便杳无音信。#ai