Il capo dell’intelligenza artificiale di Meta, Yann LeCun, ha affermato che è presto per iniziare a preoccuparsi dei sistemi di intelligenza artificiale intelligenti a livello umano, comunemente indicati come AGI. 

Leggi anche: Uno sguardo più da vicino alla speculazione AGI

"Al momento, non abbiamo nemmeno il minimo accenno alla progettazione di un sistema intelligente a livello umano", ha pubblicato LeCun su X Monday. “Quindi è troppo presto per preoccuparsene. Ed è troppo presto per regolamentarlo per prevenire il “rischio esistenziale”.

L’intelligenza artificiale non può semplicemente diventare pericolosa, afferma LeCun

Molti esperti ritengono che l’AGI sia lontano decenni o addirittura secoli dal diventare una realtà. Tuttavia, è stato motivo di preoccupazione tra i governi, poiché gli esperti avvertono che tali modelli potrebbero minacciare l’esistenza dell’umanità. 

Leggi anche: Google, OpenAI e altri 13 si impegnano a non implementare modelli di intelligenza artificiale rischiosi

LeCun ritiene che i sistemi di intelligenza artificiale non siano “una sorta di fenomeno naturale che emergerà e diventerà pericoloso”. Ha detto che gli esseri umani hanno il potere di rendere sicura l’intelligenza artificiale perché siamo noi a crearla. 

L'intelligenza artificiale non è una sorta di fenomeno naturale che emergerà e diventerà pericoloso. *NOI* la progettiamo e *NOI* la costruiamo. Posso immaginare migliaia di scenari in cui un turbogetto va terribilmente storto. Eppure siamo riusciti a rendere i turbojet incredibilmente affidabili prima distribuendoli ampiamente.…

— Yann LeCun (@ylecun) 27 maggio 2024

“Posso immaginare migliaia di scenari in cui un turbogetto va terribilmente storto. Eppure siamo riusciti a rendere i turbogetti incredibilmente affidabili prima di disporli su larga scala”, ha aggiunto LeCun. “La domanda è simile per l’intelligenza artificiale”.

Il capo dell'intelligenza artificiale di Meta afferma che gli LLM non possono raggiungere l'intelligenza umana

La settimana scorsa, LeCun ha anche affermato che i grandi modelli linguistici, che alimentano i popolari chatbot basati sull’intelligenza artificiale come ChatGPT, Gemini, ecc., non possono raggiungere l’intelligenza umana. 

Leggi anche: ChatGPT-4o di OpenAI può mostrare sentimenti ed emozioni

In un'intervista con Forbes, LeCun ha affermato che gli LLM hanno una "comprensione limitata della logica", dato che devono essere formati e possono lavorare bene solo in base ai dati che ricevono. Ha inoltre osservato che gli LLM sono “intrinsecamente pericolosi” e che i ricercatori che desiderano costruire sistemi di intelligenza artificiale a livello umano dovrebbero prendere in considerazione altri tipi di modelli.

OpenAI, Meta conferma l'interesse a realizzare AGI

Il produttore di ChatGPT OpenAI prevede di creare modelli così potenti. A maggio, il co-fondatore Sam Altman ha detto che avrebbero creato l’AGI a qualunque costo.

“Se bruciamo 500 milioni di dollari all’anno o 5 miliardi di dollari – o 50 miliardi di dollari all’anno – non mi interessa, sinceramente non mi interessa. Finché riusciamo a trovare un modo per pagare le bollette, faremo l’AGI. Sarà costoso.”

Sam Altmann

Meta ha anche iniziato a impegnarsi per raggiungere un'intelligenza di livello umano. A gennaio, Mark Zuckerberg ha ammesso che “la visione a lungo termine di Meta è quella di costruire un’intelligenza generale, renderla open source in modo responsabile e renderla ampiamente disponibile in modo che tutti possano trarne vantaggio”.

 Reporting criptopolitico di Ibiam Wayas