Jak wynika z nowego raportu opublikowanego we wtorek przez firmę SlashNext zajmującą się bezpieczeństwem cybernetycznym, cyberprzestępczość generowana przez sztuczną inteligencję szybko się rozwija, co przyspieszyło uruchomienie kilku nowych narzędzi w ciemnej sieci po odkryciu robaka WormGPT w zeszłym miesiącu.
WormGPT i FraudGPT, opublikowane tydzień później, to dopiero wierzchołek góry lodowej w zakresie opracowywania narzędzi sztucznej inteligencji, które cyberprzestępcy chcą wykorzystać przeciwko ofiarom, podsumowuje SlashNext. Sam FraudGPT został zbudowany z możliwością tworzenia stron internetowych zawierających oszustwa typu phishing, pisania złośliwego kodu, tworzenia narzędzi hakerskich i pisania listów zawierających oszustwa.
Badacze SlashNext powiedzieli, że zaangażowali za pośrednictwem Telegramu osobę o pseudonimie CanadianKingpin12.
„W trakcie naszego dochodzenia wcieliliśmy się w rolę potencjalnego nabywcy, aby głębiej poznać firmę CanadianKingpin12 i jej produkt, FraudGPT” – powiedział SlashNext. „Naszym głównym celem była ocena, czy FraudGPT przewyższa WormGPT pod względem możliwości technologicznych i skuteczności”.
Zespół dostał więcej, niż się spodziewał, ponieważ sprzedawca – popisując się oszustwem GPT – powiedział, że nadchodzą nowe chatboty AI o nazwach DarkBart i DarkBert. Jak twierdzi CanadianKingpin12, chatboty będą miały dostęp do Internetu i można je zintegrować z technologią rozpoznawania obrazów Google, Google Lens, która umożliwi chatbotowi wysyłanie zarówno tekstu, jak i obrazów.
SlashNext zauważa, że DarkBert został początkowo zaprojektowany przez firmę S2W zajmującą się analizą danych jako legalne narzędzie do walki z cyberprzestępczością, ale przestępcy najwyraźniej zmienili przeznaczenie tej technologii w celu popełniania cyberprzestępczości.
CanadianKingpin12 powiedział badaczom, że DarkBert może nawet pomagać w zaawansowanych atakach socjotechnicznych, wykorzystywać luki w systemach komputerowych i dystrybuować inne złośliwe oprogramowanie, w tym oprogramowanie ransomware.
„ChatGPT ma poręcze chroniące przed nielegalnymi lub niegodziwymi przypadkami użycia” – powiedział wcześniej Decrypt w Telegramie David Schwed, dyrektor operacyjny w firmie Halborn zajmującej się bezpieczeństwem blockchain. „[WormGPT i FraudGPT] nie mają takich zabezpieczeń, więc możesz poprosić go o opracowanie dla Ciebie złośliwego oprogramowania”.
SlashNext powiedział, że sprzedawca był zmuszony przełączyć komunikację na szyfrowane komunikatory po tym, jak został zablokowany na forum z powodu naruszenia zasad, a w szczególności próby sprzedaży dostępu do FraudGPT za pośrednictwem forów internetowych w publicznej „czystej sieci”.
Przezroczysta sieć lub sieć powierzchniowa odnosi się do ogólnego Internetu dostępnego dla wyszukiwarek. W umowach darknet lub darkweb nie są indeksowane przez wyszukiwarki, a witryn darknet zazwyczaj nie można znaleźć za pomocą wyszukiwarki Google. Choć ciemna sieć jest powiązana z cyberprzestępcami i nielegalnymi platformami handlowymi, takimi jak Jedwabny Szlak, wielu użytkowników – np. dziennikarzy czy dysydentów politycznych – korzysta z ciemnej sieci, aby ukryć swoją tożsamość i chronić swoją prywatność.
Aby obronić się przed szybkim rozwojem narzędzi do zwalczania cyberprzestępczości generowanych przez sztuczną inteligencję, SlashNext zaleca firmom, aby aktywnie uczestniczyły w szkoleniach z zakresu cyberbezpieczeństwa i wdrażały ulepszone środki weryfikacji poczty elektronicznej.
Ponieważ cyberprzestępcy zwracają się do sztucznej inteligencji w celu tworzenia bardziej zaawansowanych złośliwych narzędzi, w oddzielnym raporcie firmy Immunefi zajmującej się bezpieczeństwem sieciowym stwierdzono, że eksperci ds. cyberbezpieczeństwa nie mają zbyt wiele szczęścia w wykorzystywaniu sztucznej inteligencji do walki z cyberprzestępczością. Z raportu wynika, że 64% ankietowanych ekspertów stwierdziło, że chatbot OpenAI zapewnia „ograniczoną dokładność”, a 61% stwierdziło, że brakuje mu specjalistycznej wiedzy umożliwiającej identyfikację exploitów.
„Chociaż trudno jest dokładnie ocenić prawdziwy wpływ tych funkcji, rozsądne jest oczekiwanie, że obniżą one bariery dla aspirujących cyberprzestępców” – stwierdził SlashNext. „Co więcej, szybki postęp od WormGPT do FraudGPT, a teraz DarkBERT w niecały miesiąc, podkreśla znaczący wpływ złośliwej sztucznej inteligencji na krajobraz cyberbezpieczeństwa i cyberprzestępczości”.