Zatrucie kodem AI to rosnące zagrożenie, w którym szkodliwy kod jest wstrzykiwany do danych treningowych modeli AI, stwarzając ryzyko dla użytkowników, którzy polegają na tych narzędziach w zadaniach technicznych. Niedawny incydent związany z ChatGPT OpenAI podkreśla ten problem. Trader kryptowalut stracił 2500 dolarów w aktywach cyfrowych po tym, jak ChatGPT polecił oszukańczą stronę API Solana podczas tworzenia bota do generatora memecoin.

Złośliwe API wyczerpało aktywa ofiary w ciągu 30 minut. Założyciel Slowmist zauważył, że domena oszukańczego API została zarejestrowana dwa miesiące temu, co sugeruje, że atak był zaplanowany. Chociaż ChatGPT może nie być bezpośrednio odpowiedzialny za oszustwo, ten incydent pokazuje, jak oszuści mogą zanieczyścić dane treningowe AI szkodliwym kodem.

W miarę jak narzędzia AI, takie jak ChatGPT, stają w obliczu rosnących wyzwań, użytkownicy muszą być świadomi ryzyk związanych z dużymi modelami językowymi i potencjalnymi stratami finansowymi.

Źródło

<p>Post Blockchain Security Breach: AI Code Poisoning Alerts Cryptocurrency Users po raz pierwszy pojawił się na CoinBuzzFeed.</p>