I ricercatori della Stanford University hanno sviluppato agenti AI che possono prevedere il comportamento umano con notevole precisione. Uno studio recente, guidato dal Dr. Joon Sung Park e dal suo team, dimostra che un'intervista di due ore fornisce dati sufficienti affinché l'AI possa replicare i modelli decisionali umani con un'accuratezza normalizzata dell'85%.


I cloni digitali di una persona fisica vanno oltre i deepfake o le "adattamenti a basso rango" noti come LoRAs. Queste accurate rappresentazioni delle personalità potrebbero essere utilizzate per profilare gli utenti e testare le loro risposte a vari stimoli, da campagne politiche a proposte di policy, valutazioni dell'umore e versioni ancora più realistiche degli attuali avatar AI.


Il team di ricerca ha reclutato 1.052 americani, selezionati con cura per rappresentare una demografia diversificata in termini di età, genere, razza, regione, istruzione e ideologia politica. Ogni partecipante ha partecipato a una conversazione di due ore con un'intervistatore AI, producendo trascrizioni che mediamente contano 6.491 parole. Le interviste, seguendo una versione modificata del protocollo del American Voices Project, hanno esplorato le storie di vita, i valori e le prospettive dei partecipanti su questioni sociali attuali.


E questo è tutto ciò di cui hai bisogno per essere profilato e avere un clone.


Ma a differenza di altri studi, i ricercatori hanno adottato un approccio diverso per elaborare i dati delle interviste. Invece di semplicemente inserire trascrizioni grezze nei loro sistemi, i ricercatori hanno sviluppato un modulo di "riflessione esperta". Questo strumento di analisi esamina ogni intervista attraverso molteplici lenti professionali—la prospettiva di uno psicologo sui tratti della personalità, la visione di un economista comportamentale sui modelli decisionali, l'analisi di un politologo sulle posizioni ideologiche e l'interpretazione contestuale di un esperto demografico.


Una volta completata questa analisi multidimensionale, l'AI è più capace di comprendere correttamente come funziona la personalità del soggetto, ottenendo un'analisi più profonda di quanto potrebbe essere raggiunta semplicemente cercando di prevedere il comportamento più probabile basato sulle statistiche. Il risultato è un gruppo di agenti AI alimentati da GPT-4o con la capacità di replicare il comportamento umano in diversi scenari controllati




I test si sono rivelati notevolmente riusciti. “Gli agenti generativi replicano le risposte dei partecipanti al General Social Survey con un'accuratezza dell'85% pari a quella con cui i partecipanti replicano le proprie risposte due settimane dopo, e si comportano in modo comparabile nel prevedere tratti della personalità e risultati nelle Repliche sperimentali,” afferma lo studio. Il sistema ha mostrato capacità simili nel replicare i Big Five tratti della personalità, raggiungendo una correlazione di 0,78, e ha dimostrato un'accuratezza significativa nei giochi di decisione economica con una correlazione normalizzata di 0,66. (Un coefficiente di correlazione di 1 indicherebbe una correlazione positiva perfetta.)


Particolarmente degno di nota è stato il ridotto bias del sistema tra gruppi razziali e ideologici rispetto agli approcci tradizionali basati sulla demografia—che sembra essere un problema per molti sistemi AI, che faticano a trovare un equilibrio tra stereotipizzazione (supponendo che un soggetto mostri tratti del gruppo a cui appartiene) e un'eccessiva inclusività (evitando assunzioni fattuali/statistiche storiche per essere politicamente corretti).


"La nostra architettura riduce i bias di accuratezza tra gruppi razziali e ideologici rispetto agli agenti a cui sono state fornite descrizioni demografiche," hanno sottolineato i ricercatori, suggerendo che il loro metodo basato su interviste potrebbe essere molto utile nella profilazione demografica.


Ma questo non è il primo sforzo per utilizzare l'AI per profilare le persone.


In Giappone, la piattaforma CLONEdev di alt Inc. ha sperimentato la generazione di personalità attraverso l'integrazione dei dati di lifelog. Il loro sistema combina un'elaborazione linguistica avanzata con la generazione di immagini per creare cloni digitali che riflettono i valori e le preferenze degli utenti. "Attraverso la nostra tecnologia P.A.I, siamo impegnati a lavorare per digitalizzare l'intera razza umana," ha affermato alt In in un post sul blog ufficiale.




E a volte non hai nemmeno bisogno di un'intervista su misura. Prendi ad esempio MileiGPT. Un ricercatore AI dall'Argentina è riuscito a perfezionare un LLM open source con migliaia di ore di contenuti disponibili pubblicamente e replicare i modelli comunicativi e i processi decisionali del presidente argentino Javier Milei. Questi progressi hanno portato i ricercatori a esplorare l'idea di "gemelli digitali" pensanti/senzienti, che analisti e esperti tecnologici come Rob Enderle credono potrebbero essere completamente funzionali nei prossimi 10 anni.


E ovviamente, se i robot AI non prenderanno i tuoi lavori, il tuo gemello AI probabilmente lo farà. "L'emergere di questi richiederà un'enorme quantità di riflessione e considerazione etica, perché un replica pensante di noi stessi potrebbe essere incredibilmente utile per i datori di lavoro," ha detto Enderle alla BBC. "Cosa succede se la tua azienda crea un gemello digitale di te, e dice: 'Ehi, hai questo gemello digitale a cui non paghiamo stipendio, quindi perché ti stiamo ancora impiegando?'"


Le cose possono sembrare un po' spaventose. Non solo i deepfake imiteranno il tuo aspetto, ma i cloni AI saranno in grado di imitare le tue decisioni basate su un breve profilo del tuo comportamento. Mentre i ricercatori di Stanford si sono assicurati di mettere in atto misure di sicurezza, è chiaro che la linea tra identità umana e digitale sta diventando sempre più sfocata. E noi stiamo già attraversandola.