I chatbot del mercato nero sono diventati una delle ultime tendenze emergenti nel settore dell'intelligenza artificiale e stanno prosperando poiché i modelli linguistici di grandi dimensioni (LLM) dannosi fanno guadagnare soldi ai loro creatori.

Uno studio americano ha scoperto che esiste un fiorente mercato nero dell'intelligenza artificiale in cui gli LLM non registrati stanno facendo soldi vendendo i loro servizi in clandestinità. Le aziende registrate e pubbliche come OpenAI, Perplexity e altre grandi aziende che offrono gli stessi servizi hanno prescrizioni normative che seguono.

Gli LLM sotterranei possono eludere gli antivirus

Lo studio, incentrato principalmente su Malla, un ecosistema che prospera sfruttando l'inganno degli LLM legali e delle piattaforme di intelligenza artificiale a scopo di lucro, ha esaminato 212 LLM del mercato nero quotati su mercati clandestini tra aprile e ottobre 2023, valutandone gli attributi.

Uno degli autori, Zilong Lin dell'Università dell'Indiana, ha affermato:

"Abbiamo scoperto che la maggior parte dei servizi mala sui forum underground esistono principalmente per guadagnare profitto."

Lo studio ha inoltre scoperto che alcune piattaforme guadagnano fino a 28.000 dollari in due mesi da abbonamenti e acquisti da parte di persone che vogliono sfuggire ai limiti dell'intelligenza artificiale regolamentata.

Alcuni, come DarkGPT ed EscapeGPT, sono semplicemente derivati ​​jailbreak di LLM debitamente autorizzati e utilizzati legalmente.

Uno studio separato ha anche dimostrato che questi LLM illeciti possono essere utilizzati per molte attività, come la creazione di e-mail di phishing. Ad esempio, DarkGPT ed EscapeGPT potrebbero creare codici corretti quasi nel 75% dei casi, ma gli antivirus non sono in grado di individuare questi codici.

Un altro modello, noto come WolfGPT, era considerato una vera e propria “potenza” per la creazione di e-mail di phishing e per eludere i rilevatori di spam.

Secondo Andrew Hundt, esperto di innovazione informatica presso la Carnegie Mello University, il fiorente mercato nero dell'intelligenza artificiale dovrebbe essere motivo di preoccupazione.

Ha chiesto un requisito legale che obblighi le aziende che sviluppano LLM a dotarsi di sistemi solidi che impediscano la replicazione da parte di persone con intenzioni sinistre.

"Abbiamo anche bisogno di quadri giuridici per garantire che le aziende che creano questi modelli e forniscono servizi lo facciano in modo più responsabile, in modo da mitigare i rischi posti dagli attori malintenzionati", ha affermato Hundt.

È fondamentale comprendere il funzionamento dei chatbot del mercato nero

Il professor Xiaofeng Wang dell'Università dell'Indiana, che ha preso parte allo studio, ha affermato che è importante capire come funzionano questi LLM del mercato nero, in modo che le soluzioni siano specifiche per i problemi identificati.

Il professor Wang ha aggiunto che la manipolazione di questi LLM non può essere evitata, il che offre al settore la possibilità di elaborare misure di sicurezza efficaci per ridurre al minimo i potenziali danni causati da attacchi informatici in tutte le loro forme.

"Crediamo che questo sia il momento giusto per iniziare a studiarli perché non vogliamo aspettare che il danno maggiore sia già stato fatto".

Professoressa Wang.

Secondo il professore, ogni tecnologia, compresi gli LLM, presenta due aspetti: un lato positivo e uno negativo.

Gli esperti di sicurezza informatica stanno già invitando il settore dell'intelligenza artificiale a rallentare la sua corsa e a riflettere sui crescenti pericoli derivanti dalla manipolazione della propria tecnologia da parte di comunità anonime di Internet.

Un articolo di Forbes pubblicato alla fine dell'anno scorso affermava che ci dovrebbe essere un'introduzione responsabile di nuove idee, specialmente intorno agli LLM. Ha anche sottolineato il ruolo della regolamentazione nella promozione di innovazioni AI responsabili, contrariamente all'idea sbagliata che la regolamentazione soffochi lo sviluppo.

"Gli sviluppatori e i fornitori di LLM devono mettere in pausa una frenetica corsa agli armamenti che mira a sfornare modelli sempre più complessi e dovrebbero invece collaborare con gli enti regolatori per adottare quadri per la progettazione e l'uso etici di applicazioni di intelligenza artificiale generativa", si legge in una parte del rapporto.

Ora, a causa delle lacune normative, anche il mercato nero dell'intelligenza artificiale sta rapidamente diventando un'industria multimilionaria e potrebbe richiedere ingenti risorse per contenerlo, secondo Fast Company.