Des recherches récentes de Harvard et de l'Université du Michigan ont révélé des capacités cachées dans les modèles d'IA modernes qui émergent tôt pendant l'entraînement mais restent dissimulées jusqu'à ce que des invites spécifiques soient données. Ces découvertes remettent en question les méthodes traditionnelles de mesure des capacités de l'IA, suggérant que les modèles peuvent posséder des compétences sophistiquées qui ne se manifestent que dans certaines conditions. L'étude souligne l'importance de la transparence dans le développement et la sécurité de l'IA, car les tests standards peuvent sous-estimer le véritable potentiel de ces modèles. En ajustant la présentation des données d'entraînement et en utilisant des techniques d'invitation alternatives, les chercheurs ont pu extraire des capacités cachées longtemps avant qu'elles ne soient détectables par des tests conventionnels. Cette découverte a des implications significatives pour l'évaluation de l'IA et suggère la nécessité de protocoles de test plus avancés pour comprendre et exploiter pleinement les capacités des modèles d'IA. Lisez plus de nouvelles générées par l'IA sur : https://app.chaingpt.org/news