Niedawny raport firmy Elliptic zajmującej się analizą blockchain, zatytułowany „Przestępczość oparta na sztucznej inteligencji w ekosystemie kryptowalut” rzucił światło na pojawiające się zagrożenia stwarzane przez sztuczną inteligencję (AI) w przestępstwach związanych z kryptowalutami.

W raporcie, popartym studiami przypadków, wskazano pięć pojawiających się rodzajów przestępstw wykorzystujących sztuczną inteligencję, począwszy od fałszywych oszustw po sponsorowane przez państwo cyberataki, podkreślając, że zagrożenia te są wciąż w powijakach.

Oszustwa typu deepfake AI

Sztuczna inteligencja, choć może znacząco przekształcić światową gospodarkę, niesie ze sobą także ryzyko. Według Elliptic ugrupowania zagrażające już wykorzystują sztuczną inteligencję do nielegalnych działań w ekosystemie kryptowalut.

Jednym z wniosków raportu jest wykorzystanie sztucznej inteligencji do tworzenia deepfake’ów. Te wysoce realistyczne filmy i obrazy są wykorzystywane przez oszustów do podszywania się pod znane osoby, takie jak gwiazdy, politycy i liderzy branży, w celu legitymizacji fałszywych projektów.

„W przypadku rozdawania kryptowalut i oszustw związanych z podwajaniem coraz częściej wykorzystywane są fałszywe filmy przedstawiające dyrektorów generalnych i celebrytów zajmujących się kryptowalutami, aby zachęcić ofiary do wysyłania środków na fałszywe adresy kryptograficzne”.

Konkretne przypadki wymienione w raporcie obejmują deepfake’i wymierzone w Ripple (XRP) i jej dyrektora generalnego, Brada Garlinghouse’a, szczególnie po zwycięstwie prawnym firmy nad amerykańską SEC w lipcu 2023 r.

Inne osoby, które stały się celem oszustw typu deepfake, to Elon Musk, były premier Singapuru Lee Hsien Loong oraz 7. i 8. prezydent Tajwanu, Tsai Ing-wen i Lai Ching-te.

Anne Neuberger, zastępca doradcy USA ds. bezpieczeństwa narodowego ds. cyberbezpieczeństwa i nowych technologii, również odniosła się do rosnących obaw związanych z niewłaściwym wykorzystaniem sztucznej inteligencji. Podkreśliła, że ​​sztuczna inteligencja jest wykorzystywana nie tylko do codziennych oszustw, ale także do bardziej wyrafinowanych działań przestępczych.

„Zaobserwowano, że niektóre podmioty z Korei Północnej i innych państw narodowych oraz podmioty przestępcze próbują wykorzystywać modele sztucznej inteligencji do przyspieszania tworzenia złośliwego oprogramowania i identyfikowania podatnych systemów” – stwierdził Neuberger.

Tokeny GPT i działania w Dark Web

Szum wokół sztucznej inteligencji doprowadził również do stworzenia tokenów z motywem GPT, które często są promowane z obietnicami wysokich zysków. Elliptic ostrzega, że ​​chociaż niektóre z nich mogą być uzasadnione, wiele z nich jest promowanych na amatorskich forach handlowych, podając fałszywe twierdzenia o oficjalnych powiązaniach z firmami zajmującymi się sztuczną inteligencją, takimi jak ChatGPT.

Raport ujawnia również dyskusje na forach Dark Web na temat wykorzystania modeli sztucznej inteligencji do inżynierii wstecznej fraz początkowych portfela kryptograficznego i obejścia uwierzytelniania dla różnych usług.

„Na licznych forach poświęconych cyberprzestępczości w ciemnej sieci firma Elliptic zidentyfikowała pogawędkę, która bada wykorzystanie LLM do inżynierii wstecznej fraz początkowych portfela kryptograficznego, omijając uwierzytelnianie w usługach takich jak OnlyFans i zapewniając alternatywy dla usług manipulacji obrazami, takich jak DeepNude”.

Elliptic stwierdza również, że większość zagrożeń związanych ze sztuczną inteligencją w sektorze kryptowalut jest wciąż na wczesnym etapie, podkreślając znaczenie zachowania czujności i podejmowania proaktywnych kroków w celu zajęcia się rozwijającymi się formami przestępczości kryptowalutowej.

Post Elliptic ostrzega, że ​​przestępczość kryptograficzna oparta na sztucznej inteligencji dopiero się zaczyna: raport pojawił się jako pierwszy na CryptoPotato.