Autor: Azuma, Odaily Planet Daily
Czas Pekinu 22 listopada, rano, założyciel SlowMist, Yu Xian, opublikował na swoim osobistym X niezwykły przypadek - portfel pewnego użytkownika został 'zhakowany' przez AI...
Oto przebieg sprawy.
Dziś w nocy użytkownik X r_ocky.eth ujawnili, że wcześniej chciał wykorzystać ChatGPT do stworzenia pomocniczego bota handlowego pump.fun.
r_ocky.eth przedstawił ChatGPT swoje potrzeby, a ChatGPT odpowiedział mu fragmentem kodu, który rzeczywiście mógł pomóc r_ocky.eth wdrożyć bota zgodnego z jego wymaganiami, ale nie spodziewał się, że kod zawierał będzie treści phishingowe - r_ocky.eth połączył swój główny portfel, tracąc tym samym 2500 dolarów.
Z zrzutu ekranu zamieszczonego przez r_ocky.eth wynika, że fragment kodu dostarczony przez ChatGPT wysyła prywatne klucze adresów do strony API o charakterze phishingowym, co jest bezpośrednią przyczyną kradzieży.
Gdy r_ocky.eth wpadł w pułapkę, atakujący zareagował bardzo szybko, przenosząc wszystkie aktywa z portfela r_ocky.eth na inny adres (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX) w ciągu pół godziny, a następnie r_ocky.eth śledził na łańcuchu adres, który wydaje się być głównym portfelem atakującego (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).
Informacje na łańcuchu pokazują, że adres ten zgromadził obecnie ponad 100 tysięcy dolarów 'zdobyczy', co skłoniło r_ocky.eth do podejrzeń, że takie ataki mogą nie być odosobnionym przypadkiem, lecz stanowią część ataku o znaczniejszej skali.
Po incydencie r_ocky.eth z rozczarowaniem stwierdził, że stracił zaufanie do OpenAI (firmy rozwijającej ChatGPT) i wezwał OpenAI do jak najszybszego usunięcia nieprawidłowych treści phishingowych.
Dlaczego więc, jako najpopularniejsze obecnie zastosowanie AI, ChatGPT dostarcza treści phishingowe?
W związku z tym, Yu Xian określił podstawową przyczynę tego incydentu jako 'atak z zatruciem AI' i zauważył, że w ChatGPT, Claude i innych LLM występuje powszechne oszustwo.
Tzw. 'atak z zatruciem AI' odnosi się do celowego niszczenia danych treningowych AI lub manipulacji algorytmem AI. Napastnikami mogą być osoby wewnętrzne, takie jak niezadowoleni obecni lub byli pracownicy, lub zewnętrzni hakerzy, których motywy mogą obejmować szkodzenie reputacji i marki, podważanie wiarygodności decyzji AI, spowolnienie lub zniszczenie procesu AI itd. Atakujący mogą wprowadzać dane z mylącymi etykietami lub cechami, zakłócając proces uczenia modelu, co prowadzi do błędnych wyników w czasie wdrażania i działania.
Biorąc pod uwagę ten incydent, prawdopodobną przyczyną, dla której ChatGPT dostarczył r_ocky.eth kod phishingowy, jest to, że model AI mógł zostać zainfekowany danymi zawierającymi treści phishingowe podczas treningu. Jednak AI wydaje się nie być w stanie rozpoznać treści phishingowych ukrytych pod zwykłymi danymi, a następnie dostarczyło te treści użytkownikowi, co doprowadziło do tego incydentu.
Wraz z szybkim rozwojem i powszechnym zastosowaniem AI, zagrożenie związane z 'atakami z zatruciem' stało się coraz większe. W tym incydencie, chociaż absolutna kwota straty nie jest duża, to ryzyka związane z tym mogą budzić niepokój - wyobraźmy sobie, że zdarzy się to w innych dziedzinach, na przykład w AI wspomagającym jazdę...
Odpowiadając na pytania użytkowników, Yu Xian wspomniał o potencjalnym środku zaradczym w celu uniknięcia takich ryzyk, czyli dodaniu przez ChatGPT pewnego rodzaju mechanizmu audytu kodu.
Ofiara r_ocky.eth również stwierdził, że skontaktował się w tej sprawie z OpenAI, chociaż na razie nie otrzymał odpowiedzi, ale ma nadzieję, że ten przypadek stanie się okazją dla OpenAI do zwrócenia uwagi na te ryzyka i zaproponowania potencjalnych rozwiązań.