Výzkumníci z Stanford University vytvořili AI agenty, kteří přesně předpovídají lidské chování. Dr. Joon Sung Park a jeho tým provedli studii, která ukázala, že dvouhodinový rozhovor poskytuje dostatečná data pro AI, aby napodobovala vzorce rozhodování lidí s 85% přesností. Tito digitální klony, známé jako LoRAs, překračují rámec deepfake. Mohou být použity k profilování uživatelů a testování jejich reakcí na různé podněty. Výzkum zahrnoval 1 052 Američanů z různých demografických skupin, kteří se účastnili rozhovorů zkoumá je životní příběhy, hodnoty a sociální perspektivy. Na rozdíl od jiných studií použili výzkumníci modul 'odborné reflexe' k analýze dat z rozhovorů z více profesionálních perspektiv. AI agenti, pohánění GPT-4o, úspěšně replikovali lidské chování v kontrolovaných scénářích. Systém prokázal sníženou zaujatost napříč rasovými a ideologickými skupinami ve srovnání s tradičními přístupy. I když technologie slibuje, etické úvahy týkající se použití AI klonů v pracovních prostředích jsou zásadní, protože se hranice mezi lidskou a digitální identitou stírá. Čtěte více o AI generovaných novinkách na: https://app.chaingpt.org/news