#TrendingTopic #MANTA #Launchpool #XAI #tia

Padziļināti viltojumi un kriptogrāfijas izkrāpšana

Deepfakes — sintētiskā multivide, ko darbina AI algoritmi, ļauj izveidot pārliecinošus viltotus videoklipus un attēlus, kas attēlo notikumus vai runu, kas patiesībā nekad nav notikušas. Kā atzīmē Saylor, pakalpojumā YouTube un sociālo mediju platformās ir izplatījušies videoklipi, kuros izmantota dziļa viltus tehnoloģija, lai uzdotos par viņu un citām šifrētājpersonām. Šo videoklipu mērķis ir pārliecināt skatītājus nosūtīt kriptovalūtu uz norādīto adresi, aizbildinoties, ka viņi pretī saņems dubultu summu.

Videoklipu pārveidošana ir izplatīta krāpniecība kriptovalūtu pasaulē, un pagātnē notikuši lieli sociālo mediju uzlaušanas gadījumi, kas vēl vairāk pierāda šīs tehnikas iespējamās briesmas. Pat tādas pamata shēmas kā tās, kas izmanto iepriekš ierakstītas aplādes, lai radītu maldinošu vīrusu saturu, arvien vairāk tiek izmantotas krāpniecisku darbību veikšanai, jo īpaši tādās platformās kā YouTube. Tur videoklipi, kuros attēlotas nozīmīgas šifrēšanas personības, piemēram, Īlons Masks, Breds Gārlinghauss, Maikls Sailors un Vitaliks Buterins, ir veidoti tā, lai tie atgādinātu reāllaika straumes, ievilinot skatītājus finanšu slazdos, piemēram, Sailors pieminētais.

Lai gan tādas platformas kā YouTube strādā, lai novērstu AI radītos krāpnieciskos videoklipus, maldinoša satura radīšanai izmantotā tehnoloģija turpina uzlaboties. Tagad video dziļi viltojumi, ģeneratīvi video, AI balss klonēšana un pat reāllaika AI tulkojumi ir iespējami tikai ar dažiem klikšķiem.

Tā kā kriptovalūtu noziedznieki kļūst arvien labāki pārliecinošu viltotu videoklipu veidošanā un mākslīgā intelekta tehnoloģija strauji attīstās, ir svarīgāk nekā jebkad agrāk pārbaudīt, nevis akli uzticēties negaidītiem ar šifrēšanu saistītiem piedāvājumiem tiešsaistē. Kā vienmēr, ja kaut kas šķiet pārāk labs, lai būtu patiesība, iespējams, tā arī ir.