Conoscenza della sicurezza: fai attenzione ai pericoli derivanti dal cambiamento del volto dell'IA
1. Cos'è il "cambiamento del volto dell'IA"?
Il cambio del volto dell'intelligenza artificiale di solito si riferisce all'utilizzo della tecnologia Deepfakes nel deep learning per sostituire il volto di una persona con il volto di un'altra persona. Questa tecnologia può creare un video o un'immagine falsa che sembra reale analizzando le caratteristiche del viso di una persona target e quindi applicandola a un altro video o immagine.
La tecnologia che cambia volto ha un certo valore applicativo nell'intrattenimento, nella produzione cinematografica e in altri campi, ma comporta anche molti rischi. Nello specifico, i deepfake vengono utilizzati nella produzione di materiale pedopornografico, video porno di celebrità, porno di vendetta e notizie false ha ricevuto ampia attenzione per il suo potenziale utilizzo in scherzi, bullismo e frodi finanziarie.
2. La storia dello sviluppo del “cambiamento di volto dell’IA”
Nel 2017, Supasorn Suwajanakorn e altri dell'Università di Washington hanno utilizzato la tecnologia di deep learning per lanciare "Synthesizing Obama" [1] (Synthetic Obama Project), che è stato pubblicato su Siggraph 2017. In poche parole, la tecnologia modifica i videoclip di Barack Obama in modo che pronunci le parole da una nuova traccia audio che non ha nulla a che fare con il video. La sua tecnologia è un'applicazione completa di tecnologie come la rete neurale ricorrente (RNN) e la sintesi orale. L'effetto è molto buono L'audio e la bocca nel video sono abbinati per ottenere un effetto sintetico tanto reale quanto reale:
3. I pericoli del “cambiamento di volto dell’IA”!
· Casi in ambito finanziario tradizionale:
Nel campo finanziario tradizionale, la tecnologia che cambia volto viene utilizzata per attività fraudolente. Ad esempio, secondo i rapporti [7,8], i criminali utilizzano informazioni personali ottenute illegalmente per simulare e sintetizzare ritratti, volti e voci di parenti, colleghi o funzionari pubblici della persona ingannata attraverso algoritmi informatici e impersonare le identità delle persone di cui sopra per commettere una frode. Dopo aver guadagnato la fiducia della vittima, utilizzano routine pre-preparate per inviare informazioni fraudolente come trasferimenti con carte bancarie, investimenti virtuali e gestione finanziaria e sconti sulle fatture alla vittima, e utilizzano videochiamate, voice bombing e altri mezzi per ridurre ulteriormente la fiducia della vittima. atteggiamento difensivo, rendendo difficile per la vittima accorgersi dell'anomalia in un breve periodo di tempo. Una volta che i truffatori credono al trucco e completano il trasferimento, non ci saranno più notizie dall'altra parte. #ai