GoPlus安全研究:AI换脸技术的双刃剑效应!

近年来,随着人工智能技术的飞速发展,一项名为“AI换脸”的技术逐渐走入了大众的视野。这项技术的起源可以追溯到2017年,当时华盛顿大学的研究人员Supasorn Suwajanakorn等人通过深度学习技术,推出了名为“Synthesizing Obama”的项目。在这个项目中,他们成功修改了巴拉克·奥巴马的视频片段,让他口中念出与视频无关的新音轨中的词语。这一技术的核心在于循环神经网络(RNN)和嘴型合成技术的综合应用,其效果之逼真,使得视频中的音频和嘴部动作达到了几乎难以分辨的程度。

随着这一技术的问世,各种视频和社区如雨后春笋般涌现。大量的视频制作者开始利用AI换脸技术,为自己的作品添加各种复杂的特效和超分辨率技术,使其质量达到了以假乱真的效果。这些视频在YouTube、Instagram、TikTok等平台上广泛传播,据统计,与Deepfakes相关的视频总访问量已经超过了100亿次。一些高质量的视频制作者的单条视频点击量甚至突破了100万次。

然而,在这股热潮的背后,我们也必须警惕AI换脸技术可能带来的危害。开源社区中最成功的换脸软件DeepFaceLab系列就是其中的代表。这款软件由Ivan Perov和Daiheng Gao等人开发,拥有超过66,000的GitHub星标,是2020年十大AI开源项目之一,与Tensorflow和PyTorch等巨头并肩。值得一提的是,Daiheng Gao还是GoPlus的AI顾问,专注于防止技术滥用方面的研究。

虽然AI换脸技术为我们带来了前所未有的创意和娱乐体验,但我们也必须认识到,这项技术同样可能被用于恶意目的。例如,通过替换视频中的面部图像,不法分子可以制作出虚假的政治宣传、色情内容或恶意攻击他人的视频

因此,GoPlus团队呼吁广大公众在使用AI换脸技术时保持警惕,避免将其用于非法或恶意目的。