Microsoft ha lanciato un chatbot AI realizzato con la tecnologia GPT-4, progettato esclusivamente per l'utilizzo offline in un ambiente sicuro da parte delle agenzie di intelligence statunitensi. Tale sviluppo implica un progresso sostanziale, poiché è il primo caso di implementazione di un MLM all’interno di un ambiente classificato che promuove l’elaborazione sicura delle informazioni senza rischi legati a Internet.

Microsoft $MSFT ha creato un modello di intelligenza artificiale generativa basato su GPT-4 isolato da Internet, consentendo alle agenzie di intelligence statunitensi di analizzare informazioni top-secret con LLM.

– Beth Kindig (@Beth_Kindig) 7 maggio 2024

IA sicura e isolata per sistemi intelligenti

Il nuovo AI Chatbot, che deve ancora essere nominato pubblicamente, è stato sviluppato per far fronte da un lato alla crescente domanda di utilizzo di tecnologie avanzate di intelligenza artificiale generativa e, dall’altro, per proteggersi dai probabili rischi di violazione dei dati o minacce informatiche. A differenza dei sistemi generali basati su cloud come ChatGPT, che presentano il rischio intrinseco di intercettazione dei dati, questa IA specializzata opera indipendentemente da Internet rendendo le interazioni e l’analisi dei dati più sicure.

Il Chief Technology Officer di Microsoft, William Chappell, ha sottolineato che questa preparazione ha comportato una missione di 18 mesi per personalizzare un supercomputer AI in Iowa per ospitare il nuovo modello GPT-4. Chappell sottolinea il ruolo centrale di questa rete isolata, a cui possono accedere solo i titolari di cariche governative con cittadinanza statunitense.

Caratteristiche e svantaggi di GPT-4 nelle operazioni di intelligence

Il modello GPT-4 modificato aiuta l'esame dei file utente e simula le conversazioni di ChatGPT o Microsoft Copilot. Questa novità è diversa dalle piattaforme AI basate su cloud conosciute prima, creando un ambiente protettivo dalle forze esterne. Tuttavia, i modelli linguistici dell’intelligenza artificiale, sebbene efficienti, possiedono limitazioni intrinseche. L’altro lato della medaglia è la possibilità che l’intelligenza artificiale possa produrre riassunti o conclusioni imprecise grazie alla sua natura fondamentale che si basa su probabilità statistiche e database non completi.

La preoccupazione degli esperti è che ciò possa portare alla tendenza dell’intelligenza artificiale a confabulare o fraintendere i dati. Sebbene GPT-4 sia in grado di elaborare il linguaggio naturale e possa simulare discorsi umani, un analista umano rimane insuperabile quando si tratta di contesto e fatti accurati. Per superare questa sfida, le agenzie di intelligence potrebbero studiare metodi come RAG che aumentano le prestazioni dell’intelligenza artificiale integrando con essa fonti di dati esterne.

Distribuzione e test di AI Chatbot

Giovedì scorso è stato lanciato con successo l'AI Chatbot, accessibile a circa 10.000 dipendenti di diverse agenzie di intelligence per test iniziali, monitoraggio e valutazione. Questa implementazione rappresenta un’importante pietra miliare in una missione di integrazione di tecnologie avanzate di intelligenza artificiale in operazioni classificate, che potrebbe portare cambiamenti rivoluzionari nel modo in cui gli analisti dell’intelligence interagiscono e analizzano grandi quantità di dati in modo sicuro.

Il rilascio da parte di Microsoft di un chatbot di intelligenza artificiale indipendente e sicuro guidato da GPT-4 rappresenta un progresso significativo nel campo dell'analisi dell'intelligence. Questa iniziativa raggiunge questo obiettivo attraverso l’utilizzo di modelli linguistici avanzati e allo stesso tempo affrontando i rischi per la sicurezza informatica causati dalla connettività Internet. Al contrario, i vincoli intrinseci dei modelli linguistici dell’intelligenza artificiale mettono in luce la necessità di altri approcci insieme ad essi per rendere le informazioni di intelligence precise e affidabili.