Secondo Cointelegraph, un team di scienziati in Belgio ha potenzialmente risolto una sfida significativa nell'intelligenza artificiale (IA) utilizzando un metodo di formazione decentralizzato basato su blockchain. Sebbene la ricerca sia nelle sue fasi iniziali, potrebbe avere implicazioni di vasta portata, dalla rivoluzione dell'esplorazione spaziale alla presentazione di rischi esistenziali per l'umanità.

In un ambiente simulato, i ricercatori hanno creato un metodo per coordinare l'apprendimento tra singoli agenti AI autonomi. Hanno utilizzato la tecnologia blockchain per facilitare e proteggere le comunicazioni tra questi agenti, formando uno "sciame" decentralizzato di modelli di apprendimento. I risultati dell'addestramento di ciascun agente sono stati quindi utilizzati per sviluppare un modello AI più ampio. Gestire i dati tramite blockchain ha permesso al sistema di beneficiare dell'intelligenza collettiva dello sciame senza accedere ai dati dei singoli agenti.

L'apprendimento automatico, strettamente correlato all'intelligenza artificiale, si presenta in varie forme. I chatbot tipici come ChatGPT di OpenAI o Claude di Anthropic vengono sviluppati utilizzando tecniche multiple, tra cui l'apprendimento non supervisionato e l'apprendimento per rinforzo dal feedback umano. Una delle principali sfide di questo approccio è la necessità di database centralizzati per i dati di addestramento, il che è poco pratico per le applicazioni che richiedono un apprendimento autonomo continuo o in cui la privacy è fondamentale.

Il team di ricerca ha impiegato un paradigma di apprendimento chiamato "apprendimento federato decentralizzato" per la propria ricerca sulla blockchain. Hanno scoperto di poter coordinare con successo i modelli mantenendo la decentralizzazione dei dati. La maggior parte della loro ricerca si è concentrata sullo studio della resilienza dello sciame contro vari metodi di attacco. Grazie alla natura decentralizzata della tecnologia blockchain e della rete di addestramento, il team ha dimostrato robustezza contro i tradizionali attacchi di hacking.

Tuttavia, i ricercatori hanno identificato una soglia per il numero di robot canaglia che lo sciame poteva gestire. Hanno sviluppato scenari con robot progettati per danneggiare la rete, inclusi agenti con programmi nefasti, informazioni obsolete e semplici istruzioni di interruzione. Mentre gli agenti semplici e obsoleti erano relativamente facili da difendere, gli agenti intelligenti con intenzioni malevole potevano alla fine interrompere l'intelligenza dello sciame se un numero sufficiente di essi si fosse infiltrato.

Questa ricerca rimane sperimentale ed è stata condotta solo tramite simulazioni. Tuttavia, potrebbe arrivare il momento in cui gli sciami di robot potranno essere coordinati in modo trasversale e decentralizzato, consentendo potenzialmente ad agenti AI di diverse aziende o paesi di collaborare all'addestramento di un agente più grande senza compromettere la privacy dei dati.