Yann LeCun, responsable de l’IA chez Meta, a déclaré qu’il était tôt pour commencer à s’inquiéter des systèmes d’IA intelligents au niveau humain, communément appelés AGI. 

Lisez aussi : Un examen plus approfondi de la spéculation AGI

"À l'heure actuelle, nous n'avons même pas la moindre idée d'un système intelligent au niveau humain", a publié LeCun sur X Monday. « Il est donc trop tôt pour s’en inquiéter. Et il est bien trop tôt pour le réglementer pour prévenir le « risque existentiel ».

L'IA ne peut pas simplement devenir dangereuse, déclare LeCun

De nombreux experts estiment qu’il faudra des décennies, voire des siècles, avant que l’AGI ne devienne une réalité. Cependant, cela suscite l’inquiétude des gouvernements, car les experts préviennent que de tels modèles pourraient menacer l’existence de l’humanité. 

Lisez aussi : Google, OpenAI et 13 autres s'engagent à ne pas déployer de modèles d'IA à risque

LeCun estime que les systèmes d’IA ne sont pas « une sorte de phénomène naturel qui émergerait et deviendrait dangereux ». Il a déclaré que les humains ont le pouvoir de rendre l’IA sûre parce que c’est nous qui la créons. 

L'IA n'est pas une sorte de phénomène naturel qui va simplement émerger et devenir dangereux. *NOUS* la concevons et *NOUS* la construisons. Je peux imaginer des milliers de scénarios dans lesquels un turboréacteur tourne terriblement mal. Pourtant, nous avons réussi à fabriquer des turboréacteurs incroyablement fiables avant en les déployant largement.…

– Yann LeCun (@ylecun) 27 mai 2024

« Je peux imaginer des milliers de scénarios dans lesquels un turboréacteur tourne terriblement mal. Pourtant, nous avons réussi à rendre les turboréacteurs incroyablement fiables avant de les déployer à grande échelle », a ajouté LeCun. "La question est similaire pour l'IA."

Le chef de l'IA de Meta déclare que les LLM ne peuvent pas atteindre l'intelligence humaine

La semaine dernière, LeCun a également estimé que les grands modèles de langage, qui alimentent les chatbots IA populaires comme ChatGPT, Gemini, etc., ne peuvent pas atteindre l'intelligence humaine. 

Lisez aussi : ChatGPT-4o d'OpenAI peut montrer des sentiments et des émotions

Dans une interview avec Forbes, LeCun a déclaré que les LLM ont une « compréhension limitée de la logique », étant donné qu'ils doivent être formés et ne peuvent fonctionner aussi bien que les données qui leur sont fournies. Il a en outre noté que les LLM sont « intrinsèquement dangereux » et que les chercheurs cherchant à construire des systèmes d’IA au niveau humain devraient envisager d’autres types de modèles.

OpenAI et Meta confirment leur intérêt pour la création d'AGI

Le créateur de ChatGPT, OpenAI, prévoit de créer des modèles aussi puissants. En mai, le co-fondateur Sam Altman a déclaré qu'ils créeraient AGI, quel que soit le prix.

« Que nous brûlions 500 millions de dollars par an ou 5 milliards de dollars – ou 50 milliards de dollars par an – je m’en fiche, je m’en fiche vraiment. Tant que nous pouvons trouver un moyen de payer les factures, nous créons AGI. Cela va coûter cher.

Sam Altman

Meta a également commencé à déployer des efforts pour atteindre une intelligence au niveau humain. En janvier, Mark Zuckerberg a admis que « la vision à long terme de Meta est de construire des renseignements généraux, de les ouvrir de manière responsable et de les rendre largement disponibles afin que tout le monde puisse en bénéficier ».

 Reportage cryptopolitain d'Ibiam Wayas