Nowa fala chatbotów na czarnym rynku szybko zyskuje popularność w sektorze sztucznej inteligencji, a złośliwe duże modele językowe (LLM) generują znaczne zyski dla swoich twórców.

Te podziemne programy LLM, działające poza granicami regulowanych firm z branży sztucznej inteligencji, takich jak OpenAI i Perplexity, znalazły lukratywny rynek, rozwijając się w otoczeniu, w którym nie podlegają żadnemu nadzorowi regulacyjnemu lub jest on niewielki.

Wzrost liczby nieuregulowanych studiów prawniczych (LLM)

Amerykańskie badanie niedawno ujawniło skalę czarnego rynku AI, na którym niezarejestrowani LLM zarabiają znaczne sumy, potajemnie oferując swoje usługi. W przeciwieństwie do zarejestrowanych i publicznych platform AI, które przestrzegają ścisłych standardów regulacyjnych, te podziemne LLM działają bez takich ograniczeń, co pozwala im omijać środki bezpieczeństwa, w tym programy antywirusowe. Badanie skupiło się na ekosystemie Malla, sieci znanej z wykorzystywania legalnych LLM, i przeanalizowało 212 LLM z czarnego rynku notowanych na podziemnych rynkach w okresie od kwietnia do października 2023 r.

Zilong Lin, badacz z Indiana University i jeden z autorów badania, ujawnił, że większość nielegalnych usług jest nastawiona przede wszystkim na zysk. Badania wykazały, że niektóre platformy, w tym DarkGPT i EscapeGPT, wygenerowały aż 28 000 USD w ciągu zaledwie dwóch miesięcy z subskrypcji i zakupów dokonywanych przez użytkowników, którzy chcieli ominąć regulowane systemy AI.

Niebezpieczeństwa związane ze złośliwymi LLM-ami

Te czarne rynki LLM są problemem finansowym i poważnym zagrożeniem dla cyberbezpieczeństwa. Oddzielne badanie wykazało, że te nielegalne modele mogą być wykorzystywane do różnych złośliwych działań, takich jak tworzenie wiadomości e-mail phishingowych. Na przykład DarkGPT i EscapeGPT generują dokładny kod w prawie 75% przypadków, a programy antywirusowe nie są w stanie wykryć tych kodów. Inny model, WolfGPT, został zidentyfikowany jako potężne narzędzie do tworzenia wiadomości e-mail phishingowych i omijania filtrów spamu.

Andrew Hundt, ekspert w dziedzinie innowacji komputerowych na Carnegie Mellon University, podkreślił potrzebę solidnych ram prawnych, aby zapobiec powielaniu LLM przez osoby o złych zamiarach. Hundt wezwał do wprowadzenia wymogu prawnego, aby firmy opracowujące LLM wdrażały silne zabezpieczenia w celu złagodzenia ryzyka stwarzanego przez te podziemne modele.

Zrozumienie i ograniczenie zagrożenia

Profesor Xiaofeng Wang z Indiana University, który również przyczynił się do badania, podkreślił znaczenie zrozumienia, w jaki sposób działają te czarne rynki LLM, aby opracować ukierunkowane rozwiązania. Wang zauważył, że chociaż manipulacja LLM jest nieunikniona, należy skupić się na tworzeniu solidnych zabezpieczeń, aby zminimalizować potencjalne szkody spowodowane cyberatakami ułatwionymi przez te modele.

Według Wanga kluczowe jest zbadanie tych zagrożeń teraz, aby zapobiec znacznym szkodom w przyszłości. Podkreślił, że każdy postęp technologiczny, w tym LLM, ma pozytywne i negatywne aspekty, a branża musi podjąć proaktywne kroki, aby zająć się ciemniejszą stroną AI.

Eksperci ds. cyberbezpieczeństwa coraz częściej wzywają branżę AI do zatrzymania się i zastanowienia nad rosnącymi ryzykami związanymi z ich technologią. Artykuł Forbesa opublikowany w zeszłym roku powtórzył te obawy, opowiadając się za odpowiedzialną innowacją w dziedzinie AI i podkreślając rolę regulacji w zapewnianiu etycznego rozwoju LLM.

W artykule wezwano twórców i dostawców AI do spowolnienia tempa tworzenia coraz bardziej złożonych modeli i zamiast tego do współpracy z regulatorami w celu przyjęcia ram promujących etyczne i odpowiedzialne korzystanie z AI. Pojawienie się tych chatbotów na czarnym rynku podkreśla pilną potrzebę silniejszych regulacji i współpracy branżowej w celu zabezpieczenia się przed niewłaściwym wykorzystaniem technologii AI.

Artykuł Powstanie i rozwój chatbotów na czarnym rynku po raz pierwszy pojawił się na Coinfea.