Les chatbots IA s'aggravent au fil du temps — article universitaire #BTCUptober

L'intérêt décroissant des consommateurs pour les chatbots a entraîné une baisse des revenus du secteur de l'IA au cours du deuxième trimestre commercial de 2024.

Une étude de recherche récente intitulée « Les modèles de langage plus grands et plus instructables deviennent moins fiables » dans la revue Nature Scientific a révélé que les chatbots artificiellement intelligents commettent davantage d'erreurs au fil du temps à mesure que de nouveaux modèles sont publiés.

Lexin Zhou, l'un des auteurs de l'étude, a émis l'hypothèse que, comme les modèles d'IA sont optimisés pour toujours fournir des réponses crédibles, les réponses apparemment correctes sont prioritaires et transmises à l'utilisateur final, quelle que soit leur exactitude.

Ces hallucinations de l'IA se renforcent d'elles-mêmes et ont tendance à s'aggraver au fil du temps — un phénomène exacerbé par l'utilisation d'anciens modèles de langage volumineux pour former de nouveaux modèles de langage volumineux, ce qui entraîne un « effondrement du modèle ».

Mathieu Roy, rédacteur et auteur, a conseillé aux utilisateurs de ne pas trop se fier à ces outils et de toujours vérifier les résultats de recherche générés par l’IA pour détecter d’éventuelles incohérences :

Bien que l’IA puisse être utile pour un certain nombre de tâches, il est important que les utilisateurs vérifient les informations qu’ils obtiennent des modèles d’IA. La vérification des faits devrait être une étape du processus de chacun lorsqu’il utilise des outils d’IA. Cela devient encore plus compliqué lorsque des chatbots de service client sont impliqués. »

Pour couronner le tout, « il n’y a souvent aucun moyen de vérifier les informations, sauf en interrogeant le chatbot lui-même », a affirmé Roy.

Le problème tenace des hallucinations de l’IA#BTCUptober

La plateforme d’intelligence artificielle de Google a été ridiculisée en février 2024 après que l’IA a commencé à produire des images historiquement inexactes. Parmi les exemples, citons la représentation de personnes de couleur comme des officiers nazis et la création d’images inexactes de personnages historiques bien connus.

Malheureusement, des incidents comme celui-ci sont bien trop fréquents avec l’itération actuelle de l’intelligence artificielle et les grands modèles linguistiques. Des dirigeants de l’industrie, dont le PDG de Nvidia, Jensen Huang, ont proposé d’atténuer les hallucinations de l’IA en forçant les modèles d’IA à effectuer des recherches et à fournir des sources pour chaque réponse.#BTCUptober