L'intelligence artificielle a connu une année exceptionnelle en 2024. La technologie de pointe a remporté des prix, attiré des investisseurs, charmé Wall Street et a montré qu'elle pouvait raisonner mathématiquement — même expliquer des équations différentielles.

Cela a également attiré l'attention des régulateurs mondiaux, préoccupés par les risques liés à la confidentialité et à la sécurité. D'autres craignaient que l'IA ne devienne bientôt une intelligence générale artificielle (AGI) puis une superintelligence artificielle — surpassant les capacités cognitives humaines. Des scénarios catastrophiques ont été posés et discutés : bioterrorisme, systèmes d'armes autonomes et même des événements de « niveau extinction ».

Voici 10 des temps forts de l'IA en 2024.

#1 GenAI domine

L'intelligence artificielle générative (GenAI), un sous-ensemble de l'IA, est capable de créer quelque chose à partir de rien (enfin, à part ses données d'entraînement volumineuses). Par exemple, donnez-lui une ligne de texte, et elle peut générer un conte de fantômes de 500 mots.

GenAI a occupé le devant de la scène en 2024. Et ce n'était pas seulement ChatGPT, le chatbot activé par l'IA développé par OpenAI. Gemini de Google, Copilot de Microsoft, Claude d'Anthropic et la série Llama 3 de Meta ont également contribué à pousser les limites, développant des logiciels capables de lire et de générer non seulement du texte, mais aussi de l'audio, de la vidéo et des images.

Les laboratoires d'IA ont dépensé librement pour alimenter ces avancées. Les dépenses en IA ont grimpé à 13,8 milliards de dollars en 2024, soit plus de six fois le montant dépensé en 2023, selon Menlo Ventures, en « un signal clair que les entreprises passent de l'expérimentation à l'exécution, intégrant l'IA au cœur de leurs stratégies commerciales. »

#2 L'IA remporte des prix Nobel en physique et chimie

D'autres preuves que l'IA est là pour rester ont été fournies en octobre lorsque l'Académie royale suédoise des sciences a annoncé les prix Nobel de 2024. Geoffrey Hinton et John Hopfield ont reçu le prix de physique « pour des découvertes et des inventions fondamentales qui permettent l'apprentissage machine avec des réseaux de neurones artificiels. » Les réseaux de neurones sont une technologie de base dans l'IA d'aujourd'hui.

Hinton, un informaticien et psychologue cognitif britannique-canadien — c'est-à-dire pas un physicien — a souvent été appelé le « Parrain de l'IA. » Son travail révolutionnaire sur les réseaux de neurones remonte aux années 1980, lorsqu'il a utilisé des outils de la physique statistique comme une machine de Boltzmann pour faire avancer l'apprentissage machine.

Ailleurs, Demis Hassabis — cofondateur et PDG de Google DeepMind — et John Jumper ont été honorés du prix Nobel de chimie pour le développement d'un modèle d'intelligence artificielle capable de prédire des structures complexes de protéines.

Le Canada a remporté le prix Nobel pour son travail en IA. Source : Justin Trudeau

#3 Nvidia dépasse Apple en tant que société la plus précieuse au monde

Il faut un type spécial de puce informatique pour entraîner et exécuter les énormes modèles de langage de grande taille (LLM) qui étaient si dominants en 2024, et le fabricant de puces Nvidia a produit plus de ces unités de traitement graphique spéciales, ou GPU, que toute autre entreprise dans le monde.

Il n'est donc pas surprenant que Nvidia soit également devenue la société la plus précieuse au monde en 2024 — atteignant 3,53 billions de dollars de capitalisation boursière fin octobre, éclipsant les 3,52 billions de dollars d'Apple.

« De plus en plus d'entreprises adoptent maintenant l'intelligence artificielle dans leurs tâches quotidiennes et la demande pour les puces Nvidia reste forte, » a commenté Russ Mould, directeur des investissements chez AJ Bell.

Nvidia conservera-t-elle sa domination en matière de fabrication en 2025 et au-delà ? Les GPU Blackwell très attendus de Nvidia, censés être lancés au quatrième trimestre, ont été retardés en raison de défauts de conception, mais étant donné l'énorme avance de Nvidia dans les GPU — elle contrôlait 98 % du marché en 2023 — peu s'attendent à ce qu'elle soit battue de sitôt.

#4 Législation sur l'IA dans l'UE

Tout le monde veut une intelligence artificielle qui soit sûre, sécurisée et bénéfique pour la société dans son ensemble, mais adopter des lois et mettre en œuvre des règles pour garantir une IA responsable n'est pas une mince affaire. Néanmoins, en 2024, les autorités réglementaires mondiales ont pris quelques premières mesures.

La loi sur l'intelligence artificielle de l'Union européenne est entrée en vigueur en août, introduisant des garanties pour les systèmes d'IA à usage général et abordant certaines préoccupations en matière de confidentialité. La loi établit des règles strictes sur l'utilisation de l'IA pour la reconnaissance faciale, par exemple, mais elle vise également à traiter des risques plus larges tels que l'automatisation des emplois, la propagation de la désinformation en ligne et la mise en danger de la sécurité nationale. La législation sera mise en œuvre par phases, s'étalant jusqu'en 2027.

Réguler l'IA ne sera pas facile, comme la Californie l'a découvert en 2024 avec sa législation proposée SB 1047 qui a été mise de côté (veto) par le gouverneur de l'État en septembre. Décrite comme le « plus grand effort à ce jour pour réglementer l'intelligence artificielle », la SB 1047 avait le soutien de certains partisans de l'IA comme Geoffrey Hinton et Elon Musk, qui ont soutenu qu'elle fournissait des garde-fous nécessaires pour cette technologie en rapide évolution.

Mais cela a également suscité des critiques de la part d'autres technologues, comme Andrew Ng, fondateur de DeepLearning.AI, car cela imposait une responsabilité aux développeurs d'IA et cela pourrait en théorie étouffer l'innovation.

#5 Émergence de modèles de langage petits (SLM)

Des modèles d'IA massivement grands qui sont entraînés sur des milliards de points de données sont devenus courants en 2024. ChatGPT a été entraîné sur 570 gigaoctets de données textuelles extraites d'Internet — environ 300 milliards de mots, par exemple.

Mais pour de nombreuses entreprises, l'avenir de l'IA réside dans des modèles de langage plus petits et spécifiques à l'industrie, dont certains ont commencé à émerger en 2024.

En avril, Microsoft a déployé ses modèles de langue petits Phi-3, tandis qu'Apple a présenté huit modèles de langue petits pour ses appareils portables. Microsoft et Khan Academy utilisent désormais des SLM pour améliorer le tutorat en mathématiques pour les étudiants, par exemple.

« Il y a beaucoup plus de puissance de calcul disponible à la périphérie parce que les modèles deviennent plus petits pour des charges de travail spécifiques, [et] vous pouvez réellement tirer beaucoup plus parti de cela », a expliqué Yorke Rhodes, directeur de la transformation numérique, de la blockchain et de la chaîne d'approvisionnement cloud de Microsoft, lors d'une conférence en mai.

Les SLM nécessitent moins de données d'entraînement et de puissance de calcul pour se développer et fonctionner, et leurs capacités « commencent vraiment à approcher certaines des grands modèles de langage », a-t-il ajouté.

#6 L'IA agentique est passée au premier plan

Les chatbots comme ChatGPT concernent tous les questions et réponses sur un large éventail de sujets — bien qu'ils puissent également écrire du code logiciel, rédiger des e-mails, générer des rapports et même écrire de la poésie.

Mais les agents d'IA vont au-delà des chatbots et peuvent réellement prendre des décisions pour les utilisateurs, leur permettant d'atteindre des objectifs spécifiques. Dans le secteur de la santé, un agent d'IA pourrait être utilisé pour surveiller les données des patients, faisant des recommandations lorsque cela est approprié pour modifier un traitement spécifique, par exemple.

Luna est un agent d'IA construit sur Virtuals. Source : X

En regardant vers l'avenir, la société de conseil en technologie Gartner a nommé l'IA agentique comme l'une de ses « Top Strategic Technology Trends for 2025. » En effet, d'ici 2028, jusqu'à un tiers des applications logicielles d'entreprise incluront l'IA agentique, prédit la société, contre moins de 1 % en 2024.

Les agents d'IA pourraient même être utilisés pour rédiger des contrats intelligents basés sur la blockchain (techniquement, ils peuvent déjà le faire, mais les risques d'un bug erroné et d'une perte de fonds sont actuellement trop élevés). Le projet blockchain Avalanche a déjà commencé à construire une nouvelle machine virtuelle à l'intersection de l'IA et des blockchains pour le faire dans une langue naturelle. « Vous écrivez vos programmes de [contrat intelligent] en anglais, en allemand, en français, en tagalog, en chinois [...] une langue naturelle que votre mère vous a enseignée dans la langue maternelle, » a déclaré le fondateur d'Ava Labs, Emin Gün Sirer.

La programmation de contrats intelligents telle qu'elle existe aujourd'hui est vraiment difficile, donc un agent d'IA facile à utiliser pourrait potentiellement attirer « des milliards de nouveaux utilisateurs [de blockchain] », a prédit Sirer.

#7 Modèles de raisonnement pour résoudre des « problèmes difficiles »

Les chatbots ont d'autres limitations. Ils peuvent avoir des difficultés avec des problèmes mathématiques simples et des tâches de codage logiciel, par exemple. Ils ne sont pas excellents pour répondre à des questions scientifiques.

OpenAI a cherché à remédier à la situation en septembre avec le lancement d'OpenAI o1, une nouvelle série de modèles de raisonnement « pour résoudre des problèmes difficiles », comme les équations différentielles. La réponse a été majoritairement positive.

« Enfin, un modèle d'IA capable de gérer tous les problèmes complexes de science, de codage et de mathématiques que je lui donne toujours », a tweeté le chroniqueur du New York Times Kevin Roose.

Lors des tests, o1 a obtenu des résultats équivalents à ceux des 500 meilleurs étudiants des États-Unis lors d'un concours pour l'Olympiade de mathématiques des États-Unis, par exemple, et a dépassé la précision de niveau doctorat humain sur un référentiel de problèmes de physique, de biologie et de chimie, a rapporté OpenAI.

#8 Se concentrer sur l'AGI

Pourquoi les avancées dans la résolution de problèmes structurés, comme décrit ci-dessus, sont-elles importantes ? Elles rapprochent l'IA progressivement de la fourniture d'une intelligence semblable à celle des humains, c'est-à-dire l'intelligence générale artificielle, ou AGI.

Les modèles o3 d'OpenAI, publiés juste avant Noël, ont obtenu des résultats encore meilleurs que ceux de o1, en particulier sur les tests de mathématiques et de codage, tandis que d'autres projets comme Gemini 2.0 de Google ont également progressé en 2024 sur la résolution de problèmes structurés — c'est-à-dire, décomposer des tâches complexes en étapes gérables.

Cependant, l'AGI reste encore un objectif lointain aux yeux de nombreux experts. Les modèles avancés d'aujourd'hui manquent encore d'une compréhension intuitive de concepts physiques comme la gravité ou la causalité, par exemple. De même, les algorithmes d'IA actuels ne peuvent pas inventer des questions par eux-mêmes, ni apprendre si et quand les scénarios prennent un tournant inattendu.

Dans l'ensemble, « l'AGI est un voyage, pas une destination — et nous ne sommes qu'au début, » a récemment déclaré Brian Hopkins, vice-président de la technologie émergente chez la société de conseil Forrester.

# 9 Signes d'une pénurie imminente de données d'entraînement

Sans aucun doute, 2024 a été une année passionnante pour les développeurs et les utilisateurs de l'IA, et peu s'attendent à ce que l'innovation en IA diminue de sitôt. Mais il y avait aussi des suggestions en 2024 que la sous-époque LLM de l'IA pourrait déjà avoir atteint son apogée.

La raison en est une pénurie imminente de données. Des entreprises comme OpenAI et Google pourraient bientôt manquer de données, le sang vital de l'IA, utilisé pour « entraîner » des systèmes d'intelligence artificielle massifs.

Après tout, seule une quantité limitée de données peut être extraites d'Internet. De plus, les développeurs de LLM constatent qu'ils ne peuvent pas toujours rassembler des données accessibles au public en toute impunité. Le New York Times, par exemple, a poursuivi OpenAI pour violation du droit d'auteur concernant son contenu d'actualités. Il est peu probable qu'il soit la seule grande organisation d'information à chercher un recours auprès des tribunaux.

« Tout le monde dans l'industrie constate des rendements décroissants, » a déclaré Demis Hassabis de Google.

Une réponse pourrait être d'entraîner des algorithmes en utilisant des données synthétiques — des données générées artificiellement qui imitent les données du monde réel. Le LLM Claude 3 d'Anthropic, par exemple, a été entraîné, du moins en partie, sur des données synthétiques, c'est-à-dire « des données que nous générons en interne, » selon l'entreprise.

Même si le terme « données synthétiques » peut sembler un oxymore, des scientifiques, y compris certains experts médicaux, affirment que créer de nouvelles données à partir de zéro est prometteur. Cela pourrait soutenir l'IA médicale en complétant des ensembles de données incomplets, par exemple, ce qui pourrait aider à éliminer les biais contre certains groupes ethniques, par exemple.

Anthropic essaie de montrer la voie avec une IA éthique. Source : Anthropic

#10 Émergence d'une IA plus éthique

Il est intéressant de noter qu'Anthropic explique en détail comment il obtient ses données d'entraînement dans le document référencé ci-dessus. Il est particulièrement à noter qu'il gère son système de crawl de site Web de manière « transparente », ce qui signifie que les fournisseurs de contenu de sites Web — comme le New York Times, présumément — « peuvent facilement identifier les visites d'Anthropic et signaler leurs préférences à Anthropic ».

L'entreprise a pris des mesures pour prévenir l'utilisation abusive de sa technologie, allant même jusqu'à créer un responsable de l'échelle responsable, dont le champ d'action a été élargi en 2024 dans un effort de créer une IA « sûre ». Les efforts de l'entreprise n'ont pas échappé à l'attention. Le magazine Time l'a nommée l'une des 100 entreprises les plus influentes en 2024, la louant comme la « société d'IA pariant que la sécurité peut être une stratégie gagnante. »

Compte tenu de l'évolution du développement de l'IA en 2024 et des préoccupations du public concernant les risques catastrophiques potentiels de ces nouveaux systèmes de pointe, il semble tout à fait probable que davantage de développeurs adoptent bientôt une IA plus transparente et responsable.

Magazine : Story Protocol aide les créateurs de propriété intellectuelle à survivre à l'assaut de l'IA... et à être payés en crypto