Des recherches récentes de Harvard et de l'Université du Michigan ont révélé des capacités cachées dans les modèles d'IA modernes qui émergent tôt pendant l'entraînement mais restent dissimulées jusqu'à ce que des instructions spécifiques soient données. Ces résultats remettent en question les méthodes traditionnelles de mesure des capacités de l'IA, suggérant que les modèles peuvent posséder des compétences sophistiquées qui ne se manifestent que dans certaines conditions. L'étude souligne l'importance de la transparence dans le développement et la sécurité de l'IA, car les tests standard peuvent sous-estimer le véritable potentiel de ces modèles. En ajustant la présentation des données d'entraînement et en utilisant des techniques d'instructions alternatives, les chercheurs ont pu extraire des capacités cachées bien avant qu'elles ne soient détectables par des tests conventionnels. Cette découverte a des implications significatives pour l'évaluation de l'IA et suggère la nécessité de protocoles de test plus avancés pour comprendre pleinement et exploiter les capacités des modèles d'IA. Lisez plus de nouvelles générées par l'IA sur : https://app.chaingpt.org/news