Forscher der Stanford University haben KI-Agenten entwickelt, die menschliches Verhalten genau vorhersagen. Dr. Joon Sung Park und sein Team führten eine Studie durch, die zeigte, dass ein zweistündiges Interview ausreichende Daten liefert, damit KI menschliche Entscheidungsfindungsmuster mit einer Genauigkeit von 85 % nachahmen kann. Diese digitalen Klone, bekannt als LoRAs, gehen über Deepfakes hinaus. Sie können verwendet werden, um Benutzer zu profilieren und ihre Reaktionen auf verschiedene Reize zu testen. Die Forschung umfasste 1.052 Amerikaner aus unterschiedlichen demografischen Gruppen, die an Interviews teilnahmen, die Lebensgeschichten, Werte und soziale Perspektiven erkundeten. Im Gegensatz zu anderen Studien verwendeten die Forscher ein 'Expertenreflexions'-Modul, um Interviewdaten aus mehreren professionellen Perspektiven zu analysieren. Die KI-Agenten, die von GPT-4o unterstützt werden, replizierten erfolgreich menschliches Verhalten in kontrollierten Szenarien. Das System zeigte im Vergleich zu traditionellen Ansätzen eine reduzierte Voreingenommenheit über rassische und ideologische Gruppen hinweg. Während die Technologie vielversprechend ist, sind ethische Überlegungen bezüglich des Einsatzes von KI-Klonen in Beschäftigungsumgebungen entscheidend, da die Grenze zwischen menschlicher und digitaler Identität verschwimmt. Lesen Sie mehr KI-generierte Nachrichten auf: https://app.chaingpt.org/news