Autor: Azuma, Odaily Planet Daily
22 listopada, o godzinie 11:00 czasu pekińskiego, założyciel Slow Mist, Yu Xian, opublikował na swoim osobistym X niezwykły przypadek – portfel pewnego użytkownika został „zhakowany” przez AI…
Oto chronologia wydarzeń w tej sprawie.
Dziś nad ranem użytkownik X r_ocky.eth ujawnił, że wcześniej chciał wykorzystać ChatGPT do stworzenia pomocniczego bota do handlu na pump.fun.
r_ocky.eth przekazał ChatGPT swoje wymagania, a ChatGPT odpowiedział mu kodem, który rzeczywiście mógł pomóc r_ocky.eth w uruchomieniu bota zgodnego z jego wymaganiami, ale nigdy by się nie spodziewał, że w kodzie ukryty jest element phishingowy – r_ocky.eth połączył swój główny portfel, przez co stracił 2500 dolarów.
Z zrzutu ekranu opublikowanego przez r_ocky.eth wynika, że kod, który podał ChatGPT, wysyłał adres prywatnego klucza do phishingowej strony API, co było bezpośrednią przyczyną kradzieży.
Gdy r_ocky.eth wpadł w pułapkę, napastnik zareagował bardzo szybko, przenosząc wszystkie aktywa z portfela r_ocky.eth na inny adres (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX) w ciągu pół godziny, a następnie r_ocky.eth znalazł adres, który wydaje się być głównym portfelem napastnika (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC) poprzez śledzenie blockchainowe.
Informacje na blockchainie pokazują, że ten adres obecnie zgromadził ponad 100 000 dolarów „zdobyczy”, przez co r_ocky.eth podejrzewa, że ataki tego rodzaju mogą nie być odosobnionym przypadkiem, lecz wydarzeniem, które ma już pewną skalę.
Po fakcie, r_ocky.eth z rozczarowaniem stwierdził, że stracił zaufanie do OpenAI (firmy rozwijającej ChatGPT) i wezwał OpenAI do jak najszybszego usunięcia nieprawidłowych treści phishingowych.
Dlaczego, jako jedna z najpopularniejszych aplikacji AI, ChatGPT dostarczył treści phishingowe?
W związku z tym, Yu Xian określił podstawową przyczynę tego zdarzenia jako „atak z użyciem AI”, wskazując na powszechne oszustwa w takich modelach jak ChatGPT czy Claude.
Tak zwany „atak z użyciem AI” odnosi się do celowego uszkodzenia danych treningowych AI lub manipulacji algorytmami AI. Napastnik może być osobą wewnętrzną, na przykład niezadowolonym obecnym lub byłym pracownikiem, lub zewnętrznym hakerem, którego motywami mogą być wyrządzenie szkody reputacyjnej i wizerunkowej, podważenie wiarygodności decyzji AI, spowolnienie lub zniszczenie procesów AI itd. Napastnik może wprowadzać dane z wprowadzającymi w błąd etykietami lub cechami, zakłócając proces uczenia się modelu, co prowadzi do błędnych wyników podczas wdrażania i działania modelu.
Biorąc pod uwagę to zdarzenie, prawdopodobnie ChatGPT dostarczył r_ocky.eth kod phishingowy, ponieważ model AI został zainfekowany danymi zawierającymi treści phishingowe w czasie treningu, ale AI nie rozpoznało ukrytych treści phishingowych w zwykłych materiałach, a po nauczeniu się ich, AI przekazało te treści użytkownikowi, co doprowadziło do zaistnienia tego zdarzenia.
Wraz z szybkim rozwojem i powszechnym przyjęciem AI, zagrożenie „atakami z użyciem AI” stało się coraz większe. W tej sprawie, chociaż absolutna kwota straty nie jest duża, to jednak wpływ tego rodzaju ryzyka jest wystarczająco alarmujący — załóżmy, że zdarzyłoby się to w innych dziedzinach, na przykład w AI wspomagającym jazdę...
W odpowiedzi na pytania internautów, Yu Xian wspomniał o potencjalnym kroku w celu uniknięcia tego rodzaju ryzyka, mianowicie o dodaniu przez ChatGPT jakiegoś mechanizmu przeglądu kodu.
Poszkodowany r_ocky.eth również stwierdził, że skontaktował się z OpenAI w tej sprawie, chociaż na razie nie otrzymał odpowiedzi, ale ma nadzieję, że ta sprawa stanie się impulsem dla OpenAI do zwrócenia uwagi na tego rodzaju ryzyko i zaproponowania potencjalnych rozwiązań.