Una nuova ondata di chatbot del mercato nero sta rapidamente guadagnando terreno nel settore dell'intelligenza artificiale, con modelli linguistici di grandi dimensioni (LLM) dannosi che generano profitti significativi per i loro creatori.

Questi LLM sotterranei, che operano al di fuori dei confini delle aziende di intelligenza artificiale regolamentate come OpenAI e Perplexity, hanno trovato un mercato redditizio, prosperando in un ambiente in cui sono sottoposti a scarsa o nessuna supervisione normativa.

L’ascesa degli LLM non regolamentati

Uno studio americano ha recentemente scoperto l'entità del mercato nero dell'IA, dove gli LLM non registrati guadagnano somme ingenti offrendo segretamente i loro servizi. A differenza delle piattaforme di IA registrate e rivolte al pubblico che aderiscono a rigidi standard normativi, questi LLM sotterranei operano senza tali vincoli, il che consente loro di eludere le misure di sicurezza, inclusi gli antivirus. Lo studio si è concentrato sull'ecosistema Malla, una rete nota per lo sfruttamento degli LLM legali, e ha analizzato 212 LLM del mercato nero quotati sui mercati sotterranei tra aprile e ottobre 2023.

Zilong Lin, ricercatore dell'Università dell'Indiana e uno degli autori dello studio, ha rivelato che la maggior parte dei servizi illegali sono principalmente orientati al profitto. La ricerca ha evidenziato che alcune piattaforme, tra cui DarkGPT ed EscapeGPT, hanno generato fino a $ 28.000 in soli due mesi da abbonamenti e acquisti da parte di utenti che cercano di aggirare i sistemi di intelligenza artificiale regolamentati.

I pericoli degli LLM dannosi

Questi LLM del mercato nero sono un problema finanziario e una minaccia significativa per la sicurezza informatica. Uno studio separato ha dimostrato che questi modelli illeciti possono essere utilizzati per varie attività dannose, come la creazione di e-mail di phishing. DarkGPT ed EscapeGPT, ad esempio, hanno generato codice accurato quasi nel 75% dei casi, con gli antivirus incapaci di rilevare questi codici. Un altro modello, WolfGPT, è stato identificato come un potente strumento per creare e-mail di phishing ed eludere i filtri antispam.

Andrew Hundt, esperto di innovazione informatica presso la Carnegie Mellon University, ha sottolineato la necessità di quadri giuridici solidi per impedire la replicazione di LLM da parte di individui con intenti malevoli. Hundt ha chiesto un requisito legale che imponga alle aziende che sviluppano LLM di implementare solide misure di sicurezza per mitigare i rischi posti da questi modelli sotterranei.

Comprendere e mitigare la minaccia

Il professor Xiaofeng Wang dell'Università dell'Indiana, che ha anche contribuito allo studio, ha sottolineato l'importanza di comprendere come operano questi LLM del mercato nero per sviluppare soluzioni mirate. Wang ha osservato che, sebbene la manipolazione degli LLM sia inevitabile, l'attenzione dovrebbe essere rivolta alla creazione di robuste barriere di protezione per ridurre al minimo il potenziale danno causato dagli attacchi informatici facilitati da questi modelli.

Secondo Wang, è fondamentale studiare queste minacce ora per prevenire danni significativi in ​​futuro. Ha sottolineato che ogni progresso tecnologico, compresi gli LLM, ha aspetti positivi e negativi e che il settore deve adottare misure proattive per affrontare il lato oscuro dell'IA.

Gli esperti di sicurezza informatica stanno sempre più sollecitando il settore dell'IA a fermarsi e riflettere sui crescenti rischi associati alla loro tecnologia. Un articolo di Forbes pubblicato l'anno scorso ha fatto eco a queste preoccupazioni, sostenendo l'innovazione responsabile dell'IA e sottolineando il ruolo della regolamentazione nel garantire lo sviluppo etico degli LLM.

L'articolo chiedeva agli sviluppatori e ai fornitori di IA di rallentare la corsa alla creazione di modelli sempre più complessi e di collaborare invece con gli enti regolatori per adottare quadri che promuovano un uso etico e responsabile dell'IA. L'emergere di questi chatbot del mercato nero evidenzia l'urgente necessità di normative più severe e di collaborazione del settore per salvaguardare dall'uso improprio della tecnologia IA.

Il post L'ascesa e la crescita dei chatbot del mercato nero è apparso per la prima volta su Coinfea.

#USDataImpact #NFPWatch #TON #BNBChainMemecoins