Un nouveau modèle de chatbot IA appelé « Reflection 70B » a été dévoilé et promet de résoudre un problème qui afflige de nombreux modèles d'IA : les hallucinations.
Ajustement de la réflexion : apprendre de ses erreurs
Le modèle a été entraîné à l’aide du « réglage de la réflexion », une technique qui permet aux IA d’apprendre de leurs erreurs et de les corriger.
Matt Shumer, PDG d'HyperWrite AI, qualifie Reflection 70B de « meilleur modèle open source au monde ». Il a été développé sur la base de Llama 3.1, un modèle d'IA open source de Meta, et est censé être capable de rivaliser dans plusieurs benchmarks avec des modèles fermés tels que Claude 3.5 Sonnet d'Anthropic et GPT-4o d'OpenAI.
Hallucinations : un problème pour les modèles d’IA
Les hallucinations de l’IA se produisent lorsqu’un chatbot IA perçoit des modèles ou des objets qui n’existent pas ou qui sont imperceptibles pour les observateurs humains. Cela conduit à une sortie incorrecte.
Le réglage de la réflexion vise à résoudre ce problème en permettant aux IA de reconnaître et de corriger leurs propres erreurs avant de fournir une réponse.
Comment fonctionne le réglage de la réflexion ?
L'IA analyse ses propres dépenses et en tire des leçons. Il identifie les forces, les faiblesses et les domaines qui peuvent être améliorés. Ce processus est répété, permettant à l'IA d'améliorer continuellement ses capacités et de devenir plus consciente de ses propres dépenses.
L'approche d'OpenAI pour lutter contre les hallucinations
OpenAI, soutenu par Microsoft, a publié un document de recherche en 2023 qui présente des idées pour prévenir les hallucinations de l'IA.
Une idée est la « surveillance des processus », dans laquelle les modèles d’IA sont récompensés pour récompenser chaque étape correcte du raisonnement dans la production d’une réponse, plutôt que de simplement récompenser une conclusion correcte.
"Détecter et atténuer les erreurs logiques ou les hallucinations d'un modèle est une étape cruciale vers le développement d'une AGI [intelligence générale artificielle] alignée", a déclaré Karl Cobbe, chercheur à OpenAI, à CNBC.
Réflexion 70B : Une approche prometteuse
"Reflection 70B" pourrait constituer une étape importante vers des modèles d'IA plus fiables et plus précis. La capacité d’apprendre de ses erreurs est cruciale pour développer des systèmes d’IA qui peuvent réellement profiter aux gens.
#Reflection70B #News #Haberler #Noticias #Nachrichten