Secondo un nuovo rapporto pubblicato martedì dalla società di sicurezza informatica SlashNext, il crimine informatico generato dall’intelligenza artificiale è in rapida espansione, accelerato dal lancio di numerosi nuovi strumenti sul darkweb oltre alla scoperta di WormGPT il mese scorso.

WormGPT e FraudGPT, rilasciati una settimana dopo, sono solo la punta dell'iceberg nello sviluppo di strumenti di intelligenza artificiale che i criminali informatici mirano a utilizzare contro le vittime, conclude SlashNext. Solo FraudGPT è stato creato con la capacità di creare pagine Web di truffe di phishing, scrivere codice dannoso, creare strumenti di hacking e scrivere lettere di truffa.

I ricercatori di SlashNext hanno affermato di aver ingaggiato un individuo pseudonimo chiamato CanadianKingpin12 tramite Telegram.

"Durante la nostra indagine, abbiamo assunto il ruolo di potenziale acquirente per scavare più a fondo in CanadianKingpin12 e nel loro prodotto, FraudGPT", ha affermato SlashNext. "Il nostro obiettivo principale era valutare se FraudGPT avesse sovraperformato WormGPT in termini di capacità tecnologiche ed efficacia."

Il team ha ottenuto più di quanto si aspettasse poiché il venditore, mentre mostrava FraudGPT, ha detto che stanno arrivando nuovi chatbot IA chiamati DarkBart e DarkBert. Questi chatbot, ha affermato CanadianKingpin12, avranno accesso a Internet e potranno integrarsi con la tecnologia di riconoscimento delle immagini di Google, Google Lens, che consentirebbe al chatbot di inviare sia testo che immagini.

SlashNext osserva che DarkBert è stato inizialmente progettato dalla società di data intelligence S2W come uno strumento legittimo per combattere il crimine informatico, ma che i criminali hanno invece chiaramente riproposto la tecnologia per commettere crimini informatici.

CanadianKingpin12 ha detto ai ricercatori che DarkBert può anche assistere in attacchi avanzati di ingegneria sociale, sfruttare le vulnerabilità nei sistemi informatici e distribuire altri malware, incluso il ransomware.

"ChatGPT dispone di guardrail per proteggersi da casi d'uso illegali o nefasti", ha detto in precedenza a Decrypt su Telegram David Schwed, direttore operativo della società di sicurezza blockchain Halborn. "[WormGPT e FraudGPT] non hanno questi guardrail, quindi puoi chiedergli di sviluppare malware per te."

SlashNext ha affermato che il venditore è stato costretto a trasferire le comunicazioni ad app di messaggistica crittografate dopo essere stato bandito da un forum a causa di violazioni delle politiche, in particolare, cercando di vendere l'accesso a FraudGPT attraverso forum online sulla "rete chiara" pubblica.

La rete chiara, o web di superficie, si riferisce all'internet generale accessibile dai motori di ricerca. Nei contratti, la darknet o il darkweb non sono indicizzati dai motori di ricerca e i siti web della darknet in genere non possono essere trovati tramite una ricerca su Google. Sebbene il darkweb sia stato collegato a criminali informatici e mercati online illegali come Silk Road, molti utenti, come giornalisti o dissidenti politici, si affidano al darkweb per oscurare la propria identità e proteggere la propria privacy.

Per difendersi dal rapido sviluppo di strumenti di criminalità informatica generati dall’intelligenza artificiale, SlashNext consiglia alle aziende di essere proattive nella formazione sulla sicurezza informatica e di implementare misure avanzate di verifica della posta elettronica.

Poiché i criminali informatici si rivolgono all’intelligenza artificiale per creare strumenti dannosi più avanzati, un rapporto separato della società di sicurezza web Immunefi afferma che gli esperti di sicurezza informatica non hanno molta fortuna nell’usare l’intelligenza artificiale per combattere la criminalità informatica. Il rapporto afferma che il 64% degli esperti intervistati ritiene che il chatbot di OpenAI fornisca “precisione limitata”, mentre il 61% afferma che non dispone di conoscenze specializzate per identificare gli exploit.

“Sebbene sia difficile valutare con precisione il reale impatto di queste capacità, è ragionevole aspettarsi che abbasseranno le barriere per gli aspiranti criminali informatici”, ha affermato SlashNext. “Inoltre, la rapida progressione da WormGPT a FraudGPT e ora DarkBERT in meno di un mese, sottolinea la significativa influenza dell’intelligenza artificiale dannosa sul panorama della sicurezza informatica e della criminalità informatica”.

#hackers