Investigadores de la Universidad de Stanford han desarrollado agentes de IA que pueden predecir el comportamiento humano con una precisión notable. Un estudio reciente, liderado por el Dr. Joon Sung Park y su equipo, demuestra que una entrevista de dos horas proporciona suficientes datos para que la IA replique los patrones de toma de decisiones humanas con un 85% de precisión normalizada.
Los clones digitales de una persona física van más allá de los deepfakes o "adaptaciones de bajo rango" conocidas como LoRAs. Estas representaciones precisas de personalidades podrían usarse para perfilar a los usuarios y probar sus respuestas a varios estímulos, desde campañas políticas hasta propuestas de políticas, evaluaciones de estado de ánimo e incluso versiones más realistas de los avatares de IA actuales.
El equipo de investigación reclutó a 1,052 estadounidenses, seleccionados cuidadosamente para representar diversas demografías en términos de edad, género, raza, región, educación e ideología política. Cada participante participó en una conversación de dos horas con un entrevistador de IA, produciendo transcripciones que promediaban 6,491 palabras. Las entrevistas, siguiendo una versión modificada del protocolo del Proyecto Voces Americanas, exploraron las historias de vida, valores y perspectivas de los participantes sobre problemas sociales actuales.
Y eso es todo lo que necesitas para ser perfilado y tener un clon.
Pero a diferencia de otros estudios, los investigadores tomaron un enfoque diferente para procesar los datos de las entrevistas. En lugar de simplemente alimentar transcripciones en bruto a sus sistemas, los investigadores desarrollaron un módulo de "reflexión experta". Esta herramienta de análisis examina cada entrevista a través de múltiples lentes profesionales: la perspectiva de un psicólogo sobre rasgos de personalidad, la visión de un economista del comportamiento sobre patrones de toma de decisiones, el análisis de un politólogo sobre posturas ideológicas y la interpretación contextual de un experto demográfico.
Una vez que se realiza este análisis multidimensional, la IA es más capaz de comprender adecuadamente cómo funciona la personalidad del sujeto, obteniendo una visión más profunda que la que podría lograrse simplemente tratando de predecir el comportamiento más probable basado en estadísticas. El resultado es un grupo de agentes de IA impulsados por GPT-4o con la capacidad de replicar el comportamiento humano en diferentes escenarios controlados
Las pruebas resultaron notablemente exitosas. “Los agentes generativos replican las respuestas de los participantes en la Encuesta Social General con un 85% de precisión, como los participantes replican sus propias respuestas dos semanas después, y funcionan comparativamente en la predicción de rasgos de personalidad y resultados en replicaciones experimentales,” dice el estudio. El sistema mostró una destreza similar en replicar los cinco grandes rasgos de personalidad, logrando una correlación de 0.78, y demostró una precisión significativa en juegos de toma de decisiones económicas con una correlación normalizada de 0.66. (Un coeficiente de correlación de 1 indicaría una correlación positiva perfecta.)
Particularmente notable fue la reducción de sesgos del sistema entre grupos raciales e ideológicos en comparación con los enfoques tradicionales basados en demografía, lo que parece ser un problema para muchos sistemas de IA, que luchan por encontrar un equilibrio entre el estereotipo (suponiendo que un sujeto exhibiría rasgos del grupo al que pertenece) y ser excesivamente inclusivos (evitando suposiciones estadísticas/históricas para ser políticamente correctos).
"Nuestra arquitectura reduce los sesgos de precisión entre grupos raciales e ideológicos en comparación con agentes que reciben descripciones demográficas," enfatizaron los investigadores, sugiriendo que su método basado en entrevistas podría ser muy útil en el perfilado demográfico.
Pero este no es el primer esfuerzo por usar IA para perfilar personas.
En Japón, la plataforma CLONEdev de alt Inc. ha estado experimentando con la generación de personalidades a través de la integración de datos de lifelog. Su sistema combina procesamiento de lenguaje avanzado con generación de imágenes para crear clones digitales que reflejan los valores y preferencias de los usuarios. "A través de nuestra tecnología P.A.I, estamos comprometidos a trabajar para digitalizar a toda la raza humana," dijo alt In en un comunicado oficial del blog.
Y a veces ni siquiera necesitas una entrevista adaptada. Toma MileiGPT como ejemplo. Un investigador de IA de Argentina pudo ajustar un modelo de lenguaje de código abierto con miles de horas de contenido disponible públicamente y replicar los patrones de comunicación y procesos de toma de decisiones del presidente de Argentina, Javier Milei. Estos avances han llevado a los investigadores a explorar la idea de "gemelos digitales" que piensan/sienten, que analistas y expertos en tecnología como Rob Enderle creen que podrían ser completamente funcionales en los próximos 10 años.
Y, por supuesto, si los robots de IA no se llevarán tus trabajos, tu gemelo de IA probablemente lo haría. "La aparición de estos necesitará una gran cantidad de reflexión y consideración ética, porque un réplica pensante de nosotros mismos podría ser increíblemente útil para los empleadores," dijo Enderle a la BBC. "¿Qué pasa si tu empresa crea un gemelo digital de ti, y dice: 'Oye, tienes este gemelo digital al que no le pagamos salario, así que ¿por qué todavía te estamos empleando?'"
Las cosas pueden parecer un poco aterradoras. No solo los deepfakes imitarán tu apariencia, sino que los clones de IA podrán imitar tus decisiones basadas en un breve perfilado de tu comportamiento. Si bien los investigadores de Stanford se han asegurado de implementar salvaguardias, está claro que la línea entre la identidad humana y digital se está volviendo cada vez más difusa. Y ya estamos cruzándola.