GoPlus安全研究:AI換臉技術的雙刃劍效應!

近年來,隨着人工智能技術的飛速發展,一項名爲“AI換臉”的技術逐漸走入了大衆的視野。這項技術的起源可以追溯到2017年,當時華盛頓大學的研究人員Supasorn Suwajanakorn等人通過深度學習技術,推出了名爲“Synthesizing Obama”的項目。在這個項目中,他們成功修改了巴拉克·奧巴馬的視頻片段,讓他口中念出與視頻無關的新音軌中的詞語。這一技術的核心在於循環神經網絡(RNN)和嘴型合成技術的綜合應用,其效果之逼真,使得視頻中的音頻和嘴部動作達到了幾乎難以分辨的程度。

隨着這一技術的問世,各種視頻和社區如雨後春筍般涌現。大量的視頻製作者開始利用AI換臉技術,爲自己的作品添加各種複雜的特效和超分辨率技術,使其質量達到了以假亂真的效果。這些視頻在YouTube、Instagram、TikTok等平臺上廣泛傳播,據統計,與Deepfakes相關的視頻總訪問量已經超過了100億次。一些高質量的視頻製作者的單條視頻點擊量甚至突破了100萬次。

然而,在這股熱潮的背後,我們也必須警惕AI換臉技術可能帶來的危害。開源社區中最成功的換臉軟件DeepFaceLab系列就是其中的代表。這款軟件由Ivan Perov和Daiheng Gao等人開發,擁有超過66,000的GitHub星標,是2020年十大AI開源項目之一,與Tensorflow和PyTorch等巨頭並肩。值得一提的是,Daiheng Gao還是GoPlus的AI顧問,專注於防止技術濫用方面的研究。

雖然AI換臉技術爲我們帶來了前所未有的創意和娛樂體驗,但我們也必須認識到,這項技術同樣可能被用於惡意目的。例如,通過替換視頻中的面部圖像,不法分子可以製作出虛假的政治宣傳、色情內容或惡意攻擊他人的視頻

因此,GoPlus團隊呼籲廣大公衆在使用AI換臉技術時保持警惕,避免將其用於非法或惡意目的。