Un autre nouveau chatbot d’intelligence artificielle fait son entrée dans un espace déjà encombré, mais celui-ci peut apparemment faire ce que la plupart ne peuvent pas faire : apprendre de ses erreurs.
Dans un article publié le 5 septembre sur X, le PDG d'HyperWrite AI, Matt Shumer, a annoncé le développement de « Reflection 70B », affirmant qu'il s'agissait du « meilleur modèle open source au monde ».
Il a ajouté que la nouvelle IA a été formée à l'aide du « Reflection-Tuning », une technique développée pour permettre aux LLM de corriger leurs propres erreurs.
Reflection Llama-3.1 70B peut « tenir tête » même aux meilleurs modèles à code source fermé tels que Claude 3.5 Sonnet d'Anthropic et GPT-4o d'OpenAI dans plusieurs tests de performance, a-t-il affirmé. Llama 3.1 est l'IA open source de Meta qui a été lancée en juillet.
Il a déclaré que les modèles d’IA actuels peuvent souvent avoir des hallucinations, mais que Reflection-Tuning leur permet de reconnaître leurs erreurs et de les corriger avant de s’engager sur une réponse.
« Les étudiants en master actuels ont tendance à avoir des hallucinations et ne savent pas reconnaître ce qui se passe. »
Une hallucination d’IA est un phénomène dans lequel un chatbot d’IA générative perçoit des modèles ou des objets inexistants ou imperceptibles pour les observateurs humains, créant des résultats inexacts.
Exemple de réglage de la réflexion. Source : Matt Shumer
Le réglage par réflexion est une technique utilisée pour améliorer les modèles d'IA en leur permettant d'analyser et d'apprendre de leurs propres résultats.
Les réponses de l'IA peuvent être réinjectées dans l'IA où elle peut être invitée à évaluer ses propres réponses, en identifiant les forces, les faiblesses et les domaines à améliorer, par exemple.
Le processus est répété plusieurs fois, ce qui permet à l’IA d’affiner continuellement ses capacités dans le but de la rendre plus consciente de ses résultats et plus apte à critiquer et à améliorer ses propres performances.
Shumer a ajouté que « avec les bonnes instructions, c'est une bête absolue pour de nombreux cas d'utilisation », fournissant un lien de démonstration pour le nouveau modèle.
OpenAI, soutenu par Microsoft, a publié en 2023 un document de recherche contenant des idées sur la manière de prévenir les hallucinations de l'IA.
L’une des idées était la « supervision des processus », qui consiste à entraîner les modèles d’IA à se récompenser pour chaque étape individuelle et correcte du raisonnement lorsqu’ils parviennent à une réponse, au lieu de simplement récompenser une conclusion finale correcte.
« Détecter et atténuer les erreurs logiques d’un modèle, ou hallucinations, est une étape cruciale vers la construction d’une AGI [intelligence artificielle générale] alignée », a déclaré à CNBC Karl Cobbe, chercheur à OpenAI.
Magazine : Un projet de drones intelligents pour Taïwan, des masters trop stupides pour détruire l'humanité : AI Eye