Des chercheurs de l'Université de Stanford ont créé des agents IA qui prédisent avec précision le comportement humain. Le Dr. Joon Sung Park et son équipe ont mené une étude montrant qu'un entretien de deux heures fournit des données suffisantes pour que l'IA imite les schémas de décision humaine avec 85 % de précision. Ces clones numériques, connus sous le nom de LoRAs, vont au-delà des deepfakes. Ils peuvent être utilisés pour profiler les utilisateurs et tester leurs réponses à divers stimuli. La recherche a impliqué 1 052 Américains de diverses origines démographiques participant à des entretiens explorant des histoires de vie, des valeurs et des perspectives sociales. Contrairement à d'autres études, les chercheurs ont utilisé un module de 'réflexion d'expert' pour analyser les données d'entretien sous plusieurs perspectives professionnelles. Les agents IA, alimentés par GPT-4o, ont réussi à reproduire le comportement humain dans des scénarios contrôlés. Le système a montré une réduction des biais entre les groupes raciaux et idéologiques par rapport aux approches traditionnelles. Bien que la technologie montre des promesses, les considérations éthiques concernant l'utilisation de clones IA dans les environnements de travail sont cruciales alors que la frontière entre l'identité humaine et numérique s'estompe. Lisez plus de nouvelles générées par l'IA sur : https://app.chaingpt.org/news