Według raportu brytyjskiej firmy analitycznej Elliptic, sztuczna inteligencja (AI), będąca technologią w powijakach, jest już wykorzystywana do działań przestępczych w przestrzeni kryptograficznej.

Chociaż przestępczość kryptograficzna wspomagana przez sztuczną inteligencję może nie być jeszcze głównym zagrożeniem, w raporcie stwierdzono, że identyfikacja pojawiających się trendów jest ważna dla zrównoważonych innowacji.

Oszustwa związane z inwestycjami w kryptowaluty wykorzystują ostatnio fałszywe podróbki celebrytów i autorytetów w celu promowania się.

W takich oszustwach wykorzystywano między innymi obrazy wideo Elona Muska i byłego premiera Singapuru Lee Hsien Loonga.

Na początku tego miesiąca DL News poinformowało, że reklama w mediach społecznościowych zawierająca wideo przedstawiające Lee Hawka inwestującego w kryptowaluty była fałszywą fałszywką, która nałożyła fałszywy dźwięk na wideo przemówienia, które wygłosił na początku tego roku.

„To niezwykle niepokojące: ludzie oglądający wideo mogą zostać oszukani, myśląc, że naprawdę powiedziałem te słowa” – Lee napisał w poście na Facebooku. „To wideo nie jest prawdziwe!”

Jak wynika z raportu Elliptic, sztuczna inteligencja jest także generatorem szumu w przypadku tokenów oszustw.

Na przykład w łańcuchach bloków znajdują się setki tokenów, które mają w nazwie odmianę terminu „GPT”. Niektóre z nich mogą być produktem legalnych przedsięwzięć, ale firma Elliptic twierdzi, że zidentyfikowała wśród nich wiele oszustw.

Aktorzy zagrażający

W raporcie zauważono, że toczy się debata na temat tego, czy narzędzia sztucznej inteligencji można wykorzystać do audytu kodu i sprawdzania błędów oraz czy hakerzy typu black hat mogą wykorzystywać te możliwości do identyfikowania i opracowywania hacków.

Chociaż Microsoft i OpenAI zgłosiły przypadki angażowania się w takie próby rosyjskich i północnokoreańskich ugrupowań zagrażających, inni sugerują, że ich technologia nie jest jeszcze w pełni rozwinięta – wynika z raportu Elliptic.