Umělá inteligence může být užitečným nástrojem pro zločince v ekosystému kryptoměn a pochopení nových trendů v oblasti kriminality je zásadní pro ochranu tohoto odvětví.

S rychlým rozvojem umělé inteligence (AI) došlo k mnoha inovacím, které přinesly velké výhody v mnoha odvětvích, zejména v sektoru kryptoměn. Nicméně, stejně jako každá nová technologie, také AI s sebou nese riziko, že bude použita pro škodlivé účely. Podle zprávy vypracované společností Elliptic organizace identifikovala pět nově vznikajících typů zločinu v ekosystému kryptoměn založených na umělé inteligenci.

AI vytváří hluboké falešné podvody v kryptoměnách

AI se používá k vytváření podvodů s kryptoměnami. Konkrétně hluboce falešná videa vydávající se za celebrity nebo obchodní lídry propagují investiční projekty kryptoměn a vytvářejí dojem, že projekt má oficiální podporu. Zdá se například, že videa vydávající se za ředitele Ripple Brada Garlinghouse přiměla uživatele k účasti na podvodech s rozdáváním kryptoměn.

Tyto podvody často využívají obrázky, videa a hlasy generované umělou inteligencí, aby webové stránky s podvody vypadaly přesvědčivěji. Typickým příkladem je útok na Twitteru v červenci 2020, kdy byly hacknuty účty mnoha celebrit, aby zveřejnily podvodné odkazy rozdávající bitcoiny. V mnoha případech podvodníci také používají administrátorské účty na kanálech Discord projektů kryptoměn, aby zveřejnili podvodné odkazy, kradli kryptoměny nebo nezaměnitelné tokeny (NFT).

Vytváření podvodných tokenů AI nebo schémat manipulace s trhem

Bylo vytvořeno velké množství podvodných tokenů s klíčovými slovy souvisejícími s AI, jako jsou „GPT“, „CryptoGPT“ a „GPT Coin“. Tyto tokeny jsou často propagovány na amatérských obchodních fórech, což vytváří falešné vzrušení a nakonec podvádí uživatele prodejem tokenů a mizením s výtěžkem. Tyto podvody zahrnují „výstupní podvody“ a „pump and dump“ (manipulace s trhem).

Podle zprávy Elliptic je na mnoha blockchainech vytvoření tokenu velmi snadné a podvodníci toho využili k vytvoření tokenů souvisejících s AI, aby vytvořili falešné vzrušení. Tyto tokeny jsou často propagovány na amatérských obchodních fórech, kde podvodníci prohlašují oficiální přidružení k legitimním společnostem AI, jako je ChatGPT nebo jiné společnosti AI. Tyto podvody jdou nad rámec vytváření tokenů a zahrnují falešné investiční platformy, falešné obchodní roboty s umělou inteligencí a únikové podvody.

Skvělým příkladem je podvod s AI obchodováním s AI v hodnotě 6 milionů dolarů, ve kterém podvodníci vytvořili falešnou obchodní platformu AI a poté zmizeli s investovanými prostředky oběti. Tito podvodníci se často znovu objevují pod různými jmény a weby a nadále podvádějí nové oběti. Dalším významným příkladem je Mirror Trading International (MTI), Ponziho schéma, které od obětí po celém světě vyneslo více než 1,7 miliardy dolarů v kryptoměně.

Použití velkojazyčných modelů k provádění kybernetických útoků

Nástroje umělé inteligence, jako je ChatGPT, mají schopnost testovat a odhalovat zranitelnosti v kódu, které proto mohou zneužít hackeři k nalezení a útoku na chytré smlouvy protokolů decentralizovaných financí (DeFi). Některé „neetické“ nástroje umělé inteligence byly propagovány na tmavých webových fórech se schopností automatizovat phishingové e-maily, psát škodlivý kód a najít zranitelná místa.

Hackeři mohou například pomocí umělé inteligence prozkoumat otevřený zdrojový kód mnoha protokolů DeFi v krátkém časovém období, aby našli slabá místa zabezpečení. Řada „neetických“ nástrojů umělé inteligence, jako jsou WormGPT, DarkBard, FraudGPT a HackerGPT, byla propagována na temných webových fórech se schopností automatizovat aktivity kybernetické kriminality, jako je odesílání phishingových e-mailů, psaní škodlivého kódu a hledání bezpečnostních děr. Tyto nástroje se obvykle prodávají za 70 až 1 700 USD.

Konkrétním příkladem je WormGPT, nástroj AI určený ke generování phishingových e-mailů, malwaru a hledání slabých míst v zabezpečení. WormGPT je propagován na temných webových fórech se schopností automatizovat aktivity kybernetické kriminality, včetně odesílání phishingových e-mailů a psaní škodlivého kódu. Jeden ze zákazníků WormGPT to použil k podvržení bank a shromažďování OTP kódů od obětí.

Nasazení rozsáhlých kryptoměnových podvodů a dezinformací

Umělá inteligence dokáže rychle a snadno vytvářet a šířit phishingové weby. Služby jako NovaDrainer, která nabízí podvodné webové stránky pro pobočky a sdílení zisku, obdržely více než 2 400 typů tokenů z více než 10 000 různých peněženek, pravděpodobně od obětí podvodů. Kromě toho se AI také používá k automatickému generování příspěvků na sociálních sítích, což pomáhá šířit nepravdivé informace o projektech v oblasti kryptoměn.

Konkrétním příkladem je služba NovaDrainer, platforma, která nabízí podvody jako službu pobočkám a podílí se na zisku. NovaDrainer tvrdí, že používá AI ke zpracování transakcí a vytváření nových návrhů webových stránek, optimalizovaných pro SEO a meta tagy. Služba obdržela více než 2 400 tokenů z více než 10 000 různých peněženek, pravděpodobně od obětí podvodů.

K šíření dezinformací o kryptoměnových projektech se navíc používají také roboti sociálních médií. Dobrým příkladem je botová síť FOX8, síť botů na Twitteru, která používala ChatGPT ke generování automatických příspěvků a odpovědí. Tato síť botů zahrnuje více než 1100 účtů a rozšířila dezinformace o kryptoměnách, přičemž hashtag#cryptose v jejích příspěvcích objevil více než 3000krát.

Rozšíření nelegálního trhu

Na trzích temného webu se objevily služby umělé inteligence, které vytvářejí falešné nahé obrázky celebrit a poskytují nástroje umělé inteligence k vytváření těchto obrázků za nízkou cenu. Služby generování falešných dokumentů, jako je „OnlyFake Document Generator“, používají AI k vytváření falešných identifikačních dokumentů, aby se obešly kontroly KYC na kryptoměnových burzách. Nástroje umělé inteligence se navíc používají také k filtrování a analýze dat ukradených z kybernetických útoků.

Ukázkovým příkladem je OnlyFake Document Generator, služba pro vytváření falešných dokumentů, která využívá AI k vytváření falešných identifikačních dokumentů, aby prošly kontrolami KYC na kryptoměnových burzách. Tato služba nabízí balíčky služeb v rozmezí od 15 USD (vytvoření jednoho falešného dokumentu) do 1 500 USD (vytvoření 1 000 falešných dokumentů). Za pouhý měsíc služba prodala dostatek licencí na vytvoření přibližně 4 935 falešných dokumentů.

Na dark web marketech se objevily i služby, které vytvářejí falešné nahé obrázky celebrit. Jedním z příkladů je služba AI, která vytvořila falešné nahé obrázky nejméně 13 celebrit v hongkongském zábavním průmyslu, které byly prodány za 2 dolary. Kromě toho další služby umělé inteligence také poskytují možnost vytvářet nahé obrázky z obrázků nahraných uživateli za nízkou cenu, obvykle méně než 1 USD za obrázek.

Důsledky a preventivní opatření

Kombinace umělé inteligence a nelegálních aktivit na temném webu představuje velkou výzvu pro orgány činné v trestním řízení a odborníky na kybernetickou bezpečnost. Detekce a prevence těchto aktivit vyžaduje hluboké pochopení technologie AI a nových kriminálních metod.

Aby bylo možné čelit kriminálním hrozbám založeným na AI v ekosystému kryptoměn, je třeba zavést komplexní preventivní opatření. Jedním z těchto přístupů je DECODE, který zahrnuje následující prvky:

1. Detekce: Použití technologie AI k včasnému odhalení neobvyklých aktivit a známek podvodu. Automatizované monitorovací systémy mohou skenovat transakce a aktivity na blockchainu a hledat podezřelé vzorce chování.

2. Vzdělávání: Zvyšte povědomí a vzdělávejte uživatele a zúčastněné strany o rizicích spojených s AI zločiny v kryptoměnách. Měly by být zavedeny komunikační a školicí kampaně, které uživatelům pomohou rozpoznat známky podvodu a přijmout osobní ochranná opatření.

3. Spolupráce: Podporujte spolupráci mezi donucovacími orgány, technologickými společnostmi a finančními institucemi za účelem sdílení informací a koordinace při reakci na zločiny související s umělou inteligencí. Mezinárodní spolupráce je také důležitá při řešení nadnárodních hrozeb.

4. Dohled: Vytvořte monitorovací a regulační mechanismy, které zajistí, že společnosti a organizace dodržují bezpečnostní normy a standardy prevence kriminality. Regulátoři by měli pravidelně aktualizovat předpisy, aby odrážely nové trendy v oblasti kriminality.

5. Obrana: Použijte pokročilá bezpečnostní opatření, včetně šifrování, dvoufaktorové autentizace a dalších bezpečnostních řešení k ochraně systémů před útoky. Tato opatření je třeba neustále aktualizovat, aby se vypořádala s novými hrozbami.

6. Hodnocení: Provádět pravidelné audity a hodnocení opatření k prevenci kriminality a bezpečnostních systémů k zajištění účinnosti. Tato hodnocení by měla zahrnovat testování systémů proti simulovaným útokům za účelem zjištění a nápravy slabých míst.

Uzavřít

Umělá inteligence otevírá nové příležitosti pro výhody i rizika v ekosystému kryptoměn. Pochopení a řízení souvisejících rizik je zásadní pro ochranu uživatelů a zachování kybernetické bezpečnosti. Koordinované úsilí a účinná preventivní opatření pomohou minimalizovat dopady těchto kriminálních aktivit a ochránit udržitelný rozvoj technologie AI a kryptoměny.

Zpráva společnosti Elliptic poskytuje nejen vhled do trendů kriminality související s umělou inteligencí, ale také doporučuje konkrétní strategie pro řešení těchto problémů. Pokračující výzkum a povědomí o potenciálních hrozbách je důležitým krokem k zajištění bezpečného a důvěryhodného digitálního prostředí.

Vzhledem k tomu, že se technologie neustále vyvíjejí, bude náročné udržet rovnováhu mezi inovacemi a bezpečností. Zainteresované strany v odvětví kryptoměn a IT musí úzce spolupracovat na vývoji špičkových bezpečnostních řešení a zároveň zvyšovat povědomí a dovednosti, jak se vypořádat s novými hrozbami. Udržitelný a bezpečný vývoj technologie AI a kryptoměn závisí nejen na technických opatřeních, ale také na globální spolupráci a odhodlání všech zúčastněných stran.