Bezpečnostní znalosti: Dávejte si pozor na nebezpečí změny tváře AI

1. Co je to „AI face-changeing“?

AI face-changeing obvykle odkazuje na použití technologie Deepfakes v hlubokém učení k nahrazení tváře jedné osoby tváří jiné osoby. Tato technologie dokáže vytvořit falešné video nebo obrázek, který vypadá jako skutečný, analýzou rysů obličeje cílové osoby a následným použitím na jiné video nebo obrázek.

Technologie pro změnu obličeje má určitou aplikační hodnotu v zábavě, filmové produkci a dalších oblastech, ale přináší také mnoho rizik, konkrétně se Deepfakes používají při výrobě materiálů se sexuálním zneužíváním dětí, porno videí celebrit, pornografie a fake news získal širokou pozornost pro jeho potenciální použití v , žertech, šikaně a finančních podvodech.

2. Historie vývoje „AI face-changeing“

V roce 2017 Supasorn Suwajanakorn a další z University of Washington použili technologii hlubokého učení ke spuštění „Synthesizing Obama“ [1] (Synthetic Obama Project), který byl publikován v Siggraph 2017. Jednoduše řečeno, tato technologie upravuje videoklipy Baracka Obamy tak, že vyslovuje slova z nové zvukové stopy, která s videem nemá nic společného. Jeho technologie je komplexní aplikací technologií jako Recurrent-Neural-Network (RNN) a Mouth Synthesis. Efekt je velmi dobrý Zvuk a ústa ve videu jsou sladěny, aby bylo dosaženo syntetického efektu, který je stejně skutečný jako skutečný:

3. Nebezpečí „změny tváře AI“!

· Případy v tradiční finanční oblasti:

V tradiční finanční oblasti se k podvodným činnostem využívá technologie změny tváře. Například podle zpráv [7,8] zločinci používají nezákonně získané osobní informace k simulaci a syntéze portrétů, tváří a hlasů příbuzných, kolegů nebo veřejných činitelů podvedených pomocí počítačových algoritmů a zosobňují identitu výše uvedených osob, aby dopustit se podvodu. Poté, co si získají důvěru oběti, používají předem připravené postupy k zasílání podvodných informací, jako jsou převody bankovních karet, virtuální investice a finanční správa, a fakturační slevy oběti, a používají videohovory, hlasové bombardování a další prostředky k dalšímu snížení počtu obětí. defenzivita , takže je pro oběť obtížné zaznamenat abnormalitu v krátkém časovém období, jakmile podvodníci uvěří triku a dokončí převod, od druhé strany nebudou žádné zprávy. #ai