Un raport recent al companiei de informații blockchain Elliptic, intitulat „Crimele activate de AI în ecosistemul criptoactiv” a aruncat lumină asupra amenințărilor emergente reprezentate de inteligența artificială (AI) în criminalitatea criptomonede.

Raportul, susținut de studii de caz, identifică cinci tipuri emergente de infracțiuni bazate pe inteligența artificială, variind de la escrocherii false până la atacuri cibernetice sponsorizate de stat, subliniind că aceste amenințări sunt încă la început.

Escrocherii AI Deepfake

AI, deși are potențialul de a transforma semnificativ economia globală, aduce și riscuri. Potrivit Elliptic, actorii amenințărilor exploatează deja inteligența artificială pentru activități ilicite în cadrul ecosistemului criptoactiv.

Una dintre concluziile raportului este utilizarea AI pentru a crea deepfake. Aceste videoclipuri și imagini extrem de realiste sunt folosite de escroci pentru a uzurpa identitatea unor persoane de profil, cum ar fi celebrități, politicieni și lideri din industrie, pentru a legitima proiecte false.

„Crypto giveaway și înșelătorii de dublare folosesc din ce în ce mai mult videoclipuri deepfake ale CEO-ului criptografic și ale celebrităților pentru a încuraja victimele să trimită fonduri către adrese cripto înșelătorii.”

Exemplele specifice menționate în raport includ deepfakes care vizează Ripple (XRP) și CEO-ul său, Brad Garlinghouse, în special după victoria juridică a companiei împotriva SEC din SUA în iulie 2023.

Alte persoane care au fost vizate de escrocherii deepfake includ Elon Musk, fostul prim-ministru singaporean Lee Hsien Loong și al șaptelea și al optulea președinți ai Taiwanului, Tsai Ing-wen și Lai Ching-te.

Anne Neuberger, consilierul adjunct de securitate națională al SUA pentru tehnologiile cibernetice și emergente, a abordat, de asemenea, preocupările tot mai mari cu privire la utilizarea abuzivă a AI. Ea a subliniat că inteligența artificială este folosită nu numai pentru escrocherii de zi cu zi, ci și pentru activități criminale mai sofisticate.

„Au fost observați unii actori din Coreea de Nord și alți state naționale și criminale care încearcă să folosească modele AI pentru a accelera crearea de software rău intenționat și pentru a identifica sisteme vulnerabile”, a declarat Neuberger.

Jetoane GPT și activități Dark Web

Exagerarea în jurul AI a dat, de asemenea, naștere creării de jetoane cu tematică GPT, care sunt adesea promovate cu promisiuni de rentabilitate ridicată. Elliptic avertizează că, deși unele dintre ele pot fi legitime, multe sunt promovate pe forumuri de tranzacționare amatoare cu afirmații false ale asociațiilor oficiale cu companii de inteligență artificială precum ChatGPT.

Raportul dezvăluie, de asemenea, discuții pe forumurile web întunecate despre utilizarea modelelor AI pentru a face inginerie inversă a frazelor de bază ale portofelului cripto și a ocoli autentificarea pentru diferite servicii.

„De-a lungul numeroaselor forumuri de criminalitate cibernetică întunecată, Elliptic a identificat discuții care explorează utilizarea LLM-urilor pentru a face inginerie inversă a frazelor de generare a portofelului cripto, ocolind autentificarea pentru servicii precum OnlyFans și oferind alternative la serviciile de manipulare a imaginilor, cum ar fi DeepNude.”

Elliptic afirmă, de asemenea, că cele mai multe amenințări legate de inteligența artificială din sectorul criptomonedelor sunt încă în stadii incipiente, subliniind importanța de a fi vigilenți și de a lua măsuri proactive pentru a aborda aceste forme în curs de dezvoltare de criminalitate cripto.

Postarea Eliptic avertizează că crima criptografică determinată de AI este abia la început: Raportul a apărut mai întâi pe CryptoPotato.