Pesquisadores da Universidade de Stanford criaram agentes de IA que preveem com precisão o comportamento humano. O Dr. Joon Sung Park e sua equipe conduziram um estudo mostrando que uma entrevista de duas horas fornece dados suficientes para a IA imitar padrões de tomada de decisão humana com 85% de precisão. Esses clones digitais, conhecidos como LoRAs, vão além dos deepfakes. Eles podem ser usados para perfilar usuários e testar suas respostas a vários estímulos. A pesquisa envolveu 1.052 americanos de diversas demografias participando de entrevistas explorando histórias de vida, valores e perspectivas sociais. Ao contrário de outros estudos, os pesquisadores utilizaram um módulo de 'reflexão de especialista' para analisar os dados das entrevistas sob múltiplas perspectivas profissionais. Os agentes de IA, com a tecnologia GPT-4o, replicaram com sucesso o comportamento humano em cenários controlados. O sistema demonstrou redução de preconceitos entre grupos raciais e ideológicos em comparação com abordagens tradicionais. Embora a tecnologia mostre potencial, considerações éticas sobre o uso de clones de IA em ambientes de trabalho são cruciais à medida que a linha entre identidade humana e digital se torna tênue. Leia mais notícias geradas por IA em: https://app.chaingpt.org/news