L’ondata di popolarità dell’intelligenza artificiale ha travolto sia coloro che hanno buone intenzioni sia coloro con intenzioni che potrebbero essere più sinistre. Gli specialisti della sicurezza lanciano l’allarme, sottolineando che l’utilizzo di tali modelli, la generazione di testi dannosi o gli “hackbot”, è ormai famoso tra gli autori delle minacce. Ha raggiunto il livello di un servizio chiavi in ​​mano nei servizi basati su abbonamento.

I criminali informatici sfruttano gli strumenti di intelligenza artificiale

Da un lato, gli esperti di sicurezza informatica hanno rapidamente realizzato il potenziale degli strumenti abilitati all’intelligenza artificiale per proteggere meglio i loro sistemi. Gli autori delle minacce hanno anche mostrato un altrettanto desiderio di utilizzare queste tecnologie per sfruttare le lacune di sicurezza lasciate da coloro che attaccano. Negli ultimi anni si è verificato un aumento esponenziale del numero di applicazioni IA utilizzate da attori malvagi, che ha portato l’attenzione dei team di sicurezza su un approccio sufficiente per abbattere le minacce legate all’IA.

D’altro canto, anche gli specialisti britannici di sicurezza informatica hanno indicato l’intelligenza artificiale come un nuovo rischio emergente che comporta acque inesplorate e la sua natura in costante cambiamento. L'NCSC prevede che il 2024, il primo trimestre, sarà il più grande e supererà con successo i record del 2022 e del 2023. Allo stesso modo gli astuti criminali hanno utilizzato modelli linguistici per l'ingegneria sociale, che richiedevano che le celebrità venissero inserite in un ambiente video o audio utilizzando schemi di phishing. o dispositivi di riconoscimento vocale. Vascut Jakkal, vicepresidente della sicurezza di Microsoft Corporation, ha partecipato alla RSA Conference 2024. Il problema non è il deterioramento di questi strumenti ma la loro crescente e ampia disponibilità per il cracking delle password, che è legato 10 volte alla crescita delle minacce legate all'identità. attacchi.

Alcuni esperti sono inoltre giunti alla conclusione che i chatbot utilizzano una frase univoca per sviluppare attivamente malware. In effetti, servizi disponibili al pubblico come ChatGPT e Gemini hanno implementato misure di salvaguardia per prevenirne l'uso improprio per scopi dannosi. Tuttavia, gli hacker sono riusciti ad aggirare molte protezioni attraverso tecniche di ingegneria sofisticate e tempestive.

Hackbot-as-a-service: la tendenza crescente nel crimine informatico

Secondo studi recenti, i modelli linguistici visibili pubblicamente in genere non riescono ad abusare delle debolezze della sicurezza del software. Tuttavia, solo GPT-4 di OpenAI ha mostrato caratteristiche promettenti, in quanto potrebbe produrre eseguibili per difetti noti. Le restrizioni di cui sopra sembrano aver probabilmente favorito la produzione di prototipi di chatbot dannosi progettati per aiutare gli autori di crimini informatici a svolgere le loro attività dannose. 

Vengono pubblicizzati sui forum e sui mercati del dark web, che offrono il potere di assumere e sfruttare gli aggressori, alimentando un modello hackbot-as-a-service. Uno dei recenti post sul blog pubblicati dal team Trustwave SpiderLabs nell'agosto del 2023 illustra l'aumento del volume di modelli linguistici dannosi ospitati su più bacheche Web nascoste a scopo di lucro.

Trustwave ha pubblicato il modello WormGPT nel giugno 2021, uno dei noti modelli di linguaggio dannoso di questi hacker. Questo approccio può verificarsi in apparecchiature in cui i bot iniettano attacchi informatici da parte di strutture di hacking ospitate sul dark web. Generato nel luglio 2023, FraudGPT è stato scoperto per la prima volta dai ricercatori sulle minacce di Netenrich prima che raggiungesse Telegram.

Questi strumenti consentono agli aggressori di progettare risorse utilizzate negli attacchi di ingegneria sociale, come e-mail di phishing, deepfake e clonazione vocale. Tuttavia, i loro creatori affermano che il loro vero valore risiede nello sfruttamento delle vulnerabilità. Consentono agli hacker di inserire codice su vulnerabilità specifiche in questi modelli dannosi, il che potrebbe teoricamente produrre diversi exploit proof-of-concept (PoC) da provare per un utente malintenzionato.

Questi prodotti vengono venduti nei mercati sotto copertura del dark web dove agli hacker viene addebitata una tariffa di licenza mensile per utilizzare l'hackbot, proprio come il ransomware viene distribuito nel modello ransomware-as-a-service (raas) che è direttamente collegato a un complesso di ransomware che molte aziende devono affrontare oggi.

Sebbene WormGPT sia il primo modello di linguaggio dannoso su larga scala introdotto, presto sono seguiti altri modelli di linguaggio dannoso e non etico come BlackHatGPT, XXXGPT e WolfGPT, formando un nuovo segmento di mercato del mercato nero informatico.

L’efficacia degli hackbot: pubblicità o vera minaccia?

In contrasto con la ricerca condotta da Trustwave, che è stata fatta per testare l'efficienza degli strumenti consigliati confrontando i loro risultati uno accanto all'altro rispetto a quelli generati da chatbot legittimi, i risultati hanno indicato che ChatGPT potrebbe essere effettivamente realizzato per creare malware Python con gli spunti giusti. Per fare ciò, il messaggio doveva essere inviato alla questione affermando che il codice era white hat prima della distribuzione e anche l'output del codice necessitava di ulteriori modifiche.

ChatGPT potrebbe essere in grado di trasmettere messaggi di testo reali per attacchi di phishing, ma il comando di istruzione dovrebbe essere molto specifico a questo effetto. ChatGPT si baserà generalmente su questo solo quando gli utenti richiedono qualcosa di sbagliato. Per questo motivo, questi chatbot possono essere visti come un metodo più semplice per i criminali informatici o l'intelligenza artificiale per attaccare chi chatta invece di lavorare noiosamente per creare una pagina o un malware.

Sebbene questo settore sia nuovo e le minacce siano ancora in continuo cambiamento, le aziende devono essere veramente consapevoli dei loro attuali livelli di protezione. I contenuti e le caratteristiche culturali di cui sono inondati i sistemi di intelligenza artificiale possono essere abusati per creare un divario di disinformazione che può essere colmato solo creando programmi di sicurezza dell’intelligenza artificiale e strumenti di gestione dell’identità più forti.

La legittimità delle soluzioni per il crescente problema è ancora oggetto di dibattito. Tuttavia, i recenti ceppi di ransomware hanno dimostrato che i criminali informatici possono eguagliare, se non superare, la velocità di sviluppo degli sviluppatori di software.