Chatboty działające na czarnym rynku stały się jednym z najnowszych trendów w sektorze sztucznej inteligencji i rozwijają się, ponieważ złośliwe duże modele językowe (LLM) zarabiają pieniądze dla swoich twórców.

Amerykańskie badanie wykazało, że istnieje kwitnący czarny rynek AI, na którym niezarejestrowani LLM-owie zarabiają krocie, sprzedając swoje usługi w podziemiu. Zarejestrowane i publiczne firmy, takie jak OpenAI, Perplexity i inne duże korporacje oferujące te same usługi, mają przepisy regulacyjne, których przestrzegają.

Podziemne LLM-y potrafią ominąć programy antywirusowe

Badanie, które koncentrowało się głównie na Malla, ekosystemie czerpiącym zyski z wykorzystywania prawniczych programów LLM i platform AI, objęło 212 programów LLM oferowanych na czarnym rynku na czarnym rynku w okresie od kwietnia do października 2023 r., oceniając ich atrybuty.

Jeden z autorów, Zilong Lin z Uniwersytetu Indiana, powiedział:

„Odkryliśmy, że większość usług mala na forach podziemnych istnieje głównie w celu osiągnięcia zysku”.

Badanie wykazało również, że niektóre platformy zarabiają nawet 28 tys. dolarów w ciągu dwóch miesięcy na subskrypcjach i zakupach od osób, które chcą wyrwać się z ograniczeń regulowanych przez sztuczną inteligencję.

Niektóre z nich, jak DarkGPT i EscapeGPT, to po prostu zmodyfikowane wersje licencjonowanych programów LLM, które są legalnie wykorzystywane.

Oddzielne badanie wykazało również, że te nielegalne LLM-y mogą być używane do wielu zadań, takich jak tworzenie wiadomości phishingowych. Na przykład DarkGPT i EscapeGPT mogły tworzyć poprawne kody w prawie 75% przypadków, ale programy antywirusowe nie mogły ich wykryć.

Inny model znany jako WolfGPT był postrzegany jako „potęga” w tworzeniu wiadomości phishingowych i omijaniu detektorów spamu.

Zdaniem Andrew Hundta, eksperta ds. innowacji komputerowych z Uniwersytetu Carnegie Mello, rozwijający się podziemny rynek sztucznej inteligencji powinien budzić obawy.

Zaapelował o wprowadzenie wymogu prawnego, który zmusiłby firmy opracowujące programy LLM do stosowania solidnych systemów zapobiegających powielaniu ich przez osoby o złowrogich zamiarach.

„Potrzebujemy również ram prawnych, które zagwarantują, że firmy tworzące te modele i świadczące usługi będą robić to w sposób bardziej odpowiedzialny, ograniczający ryzyko stwarzane przez nieuczciwych graczy” – powiedział Hundt.

Kluczowe jest zrozumienie, jak działają chatboty na czarnym rynku

Profesor Xiaofeng Wang z Uniwersytetu Indiany, który brał udział w badaniu, powiedział, że ważne jest zrozumienie, w jaki sposób działają te programy studiów prawniczych na czarnym rynku, aby móc znaleźć konkretne rozwiązania konkretnych problemów.

Profesor Wang dodał, że manipulacji LLM nie da się uniknąć, co stwarza sektorowi pole do opracowania solidnych zabezpieczeń w celu zminimalizowania potencjalnych szkód wyrządzanych za pomocą cyberataków we wszystkich ich formach.

„Uważamy, że teraz jest dobry moment, aby zacząć je badać, ponieważ nie chcemy czekać, aż wielka szkoda zostanie wyrządzona”.

Profesor Wang.

Według profesora każdy kierunek techniczny, łącznie z LLM, ma dwie strony: dobrą i złą.

Eksperci ds. cyberbezpieczeństwa już teraz apelują do branży sztucznej inteligencji (AI), aby zwolniła tempo i zastanowiła się nad rosnącym zagrożeniem, jakie niesie ze sobą skażenie tej technologii przez anonimowe społeczności internetowe.

Artykuł Forbesa opublikowany pod koniec zeszłego roku mówił, że powinno się odpowiedzialnie wprowadzać nowe pomysły, zwłaszcza w zakresie LLM. Podkreślono w nim również rolę regulacji w promowaniu odpowiedzialnych innowacji AI, w przeciwieństwie do błędnego przekonania, że ​​regulacja tłumi rozwój.

„Twórcy i dostawcy LLM muszą wstrzymać się z gorączkowym wyścigiem zbrojeń, którego celem jest tworzenie coraz bardziej złożonych modeli, i zamiast tego powinni współpracować z organami regulacyjnymi w celu przyjęcia ram etycznego projektowania i korzystania z generatywnych aplikacji AI” – czytamy w części raportu.

Obecnie, z powodu luk w przepisach, czarny rynek sztucznej inteligencji szybko przekształca się w przemysł wart wiele milionów dolarów i, jak podaje Fast Company, jego ograniczenie może wymagać znacznych zasobów.