Badacze z Uniwersytetu Stanforda opracowali agentów AI, którzy potrafią przewidywać ludzkie zachowanie z niezwykłą dokładnością. Niedawne badania, prowadzone przez dr. Joon Sunga Parka i jego zespół, pokazują, że dwugodzinna rozmowa dostarcza wystarczających danych, aby AI mogło replikować wzorce podejmowania decyzji przez ludzi z 85% normalizowaną dokładnością.
Cyfrowe klony fizycznej osoby wykraczają poza deepfake'i czy "niskiej rangi adaptacje" znane jako LoRAs. Te dokładne reprezentacje osobowości mogłyby być używane do profilowania użytkowników i testowania ich odpowiedzi na różne bodźce, od kampanii politycznych po propozycje polityki, oceny nastrojów, a nawet bardziej realistyczne wersje obecnych awatarów AI.
Zespół badawczy zrekrutował 1052 Amerykanów, starannie wybranych w celu reprezentowania różnorodnych demografii w zakresie wieku, płci, rasy, regionu, wykształcenia i ideologii politycznej. Każdy uczestnik brał udział w dwugodzinnej rozmowie z interviewerem AI, co zaowocowało transkryptami o średniej długości 6491 słów. Wywiady, zgodnie z zmodyfikowaną wersją protokołu American Voices Project, badały historie życia uczestników, ich wartości i perspektywy na aktualne problemy społeczne.
I to wszystko, czego potrzebujesz, aby być profilowanym i mieć klona.
Ale w odróżnieniu od innych badań, badacze podeszli do przetwarzania danych wywiadowych w inny sposób. Zamiast po prostu wprowadzać surowe transkrypty do swoich systemów, badacze opracowali moduł "refleksji ekspertów." To narzędzie analizy bada każdy wywiad z wielu profesjonalnych perspektyw—perspektywy psychologa na cechy osobowości, punktu widzenia behawioralnego ekonomisty na wzorce podejmowania decyzji, analizy politologa na temat stanowisk ideologicznych oraz kontekstowej interpretacji eksperta demograficznego.
Gdy analiza wielowymiarowa zostanie zakończona, AI jest w stanie lepiej zrozumieć, jak działa osobowość tematu, uzyskując głębszy wgląd niż można by osiągnąć, próbując po prostu przewidzieć najbardziej prawdopodobne zachowanie na podstawie statystyk. Wynikiem jest grupa agentów AI zasilanych GPT-4o z możliwością replikacji ludzkiego zachowania w różnych kontrolowanych scenariuszach
Testy okazały się niezwykle udane. "Generatywne agenty replikują odpowiedzi uczestników w General Social Survey z dokładnością 85% tak samo, jak uczestnicy replikują swoje odpowiedzi dwa tygodnie później, i osiągają porównywalne wyniki w przewidywaniu cech osobowości i wyników w eksperymentalnych replikacjach," mówi badanie. System wykazał podobne umiejętności w replikowaniu cech osobowości Big Five, osiągając korelację 0.78, i wykazał znaczną dokładność w grach dotyczących podejmowania decyzji ekonomicznych z 0.66 normalizowaną korelacją. (Współczynnik korelacji wynoszący 1 oznaczałby idealną pozytywną korelację.)
Szczególnie godne uwagi było zmniejszenie stronniczości systemu w różnych grupach rasowych i ideologicznych w porównaniu do tradycyjnych podejść opartych na demografii—co wydaje się być problemem dla wielu systemów AI, które mają trudności z znalezieniem równowagi między stereotypowaniem (zakładaniem, że dany temat wykazuje cechy grupy, do której należy) a nadmierną inkluzyjnością (unikaniem statystycznych/historycznych założeń, aby być politycznie poprawnym).
"Nasza architektura redukuje stronniczość dokładności w różnych grupach rasowych i ideologicznych w porównaniu do agentów, którym nadano opisy demograficzne," podkreślili badacze, sugerując, że ich metoda oparta na wywiadzie może być bardzo pomocna w profilowaniu demograficznym.
Ale to nie jest pierwsza próba wykorzystania AI do profilowania ludzi.
W Japonii platforma CLONEdev firmy alt Inc. eksperymentuje z generowaniem osobowości poprzez integrację danych z dzienników życia. Ich system łączy zaawansowane przetwarzanie języka z generowaniem obrazów, aby stworzyć cyfrowe klony, które odzwierciedlają wartości i preferencje użytkowników. "Dzięki naszej technologii P.A.I jesteśmy zobowiązani do pracy nad cyfryzacją całej rasy ludzkiej," powiedział alt In w oficjalnym wpisie na blogu.
A czasami nie potrzebujesz nawet dostosowanego wywiadu. Weźmy na przykład MileiGPT. Badacz AI z Argentyny był w stanie dostosować otwartoźródłowy LLM z tysiącami godzin publicznie dostępnych treści i zreplikować wzorce komunikacji oraz procesy podejmowania decyzji prezydenta Argentyny Javier Milei. Te postępy skłoniły badaczy do eksploracji idei myślących/czujących "cyfrowych bliźniaków," co eksperci i analitycy technologii, tacy jak Rob Enderle, wierzą, że może być w pełni funkcjonalne w ciągu następnych 10 lat.
I oczywiście, jeśli roboty AI nie zabiorą ci pracy, twój AI bliźniak prawdopodobnie to zrobi. "Pojawienie się tych technologii będzie wymagało ogromnej ilości przemyśleń i etycznych rozważań, ponieważ myślący replikat nas samych może być niezwykle pomocny dla pracodawców," powiedział Enderle BBC. "Co się stanie, jeśli twoja firma stworzy cyfrowego bliźniaka ciebie i powie: 'Hej, masz tego cyfrowego bliźniaka, któremu nie płacimy pensji, więc dlaczego wciąż cię zatrudniamy?'"
Rzeczy mogą wyglądać nieco przerażająco. Nie tylko deepfake'i będą naśladować twój wygląd, ale klony AI będą mogły naśladować twoje decyzje na podstawie krótkiego profilowania twojego zachowania. Chociaż badacze ze Stanfordu zadbali o wdrożenie zabezpieczeń, jasne jest, że granica między ludzką a cyfrową tożsamością staje się coraz bardziej rozmyta. I już ją przekraczamy.