L'ex CEO di Google Eric Schmidt ha avvertito che l'avanzamento delle tecnologie AI generative, come le app di compagni AI, combinate con fattori sociali come la solitudine, potrebbero aumentare il rischio di radicalizzazione, in particolare tra i giovani uomini.
Schmidt ha condiviso le sue preoccupazioni mentre appariva nel podcast The Prof G Show del professor Scott Galloway della NYU Stern la settimana scorsa.
Schmidt ha spiegato come molti giovani uomini oggi si sentano sempre più senza speranza a causa della minore disponibilità di percorsi verso il successo rispetto alle donne, che sono più istruite e costituiscono una quota maggiore di laureati, lasciando molti uomini a sentirsi trascurati.
Uno studio recente del Pew Research Center ha trovato che il 47% delle donne statunitensi di età compresa tra 25 e 34 anni ha una laurea, rispetto al 37% degli uomini. In risposta, Schmidt ha affermato che gli uomini si rivolgono al mondo online e alle app di compagni AI per alleviare la loro disperazione.
“Quindi ora immagina che la ragazza o il ragazzo AI sia perfetto—perfetto visivamente, perfetto emotivamente,” ha detto Schmidt. “La ragazza AI, in questo caso, cattura la tua mente come uomo fino al punto in cui lei, o qualunque cosa sia, prende il sopravvento sul modo in cui stai pensando. Sei ossessionato da lei. Quel tipo di ossessione è possibile, specialmente con le persone che non sono completamente formate.”
Schmidt ha avvertito che mentre l'AI offre opportunità significative, i suoi rischi per gli utenti più giovani e impressionabili devono essere affrontati.
“I genitori dovranno essere più coinvolti per tutti i motivi ovvi, ma, alla fine della giornata, i genitori possono solo controllare ciò che i loro figli stanno facendo nei limiti del ragionevole,” ha detto Schmidt.
“Abbiamo tutti i tipi di regole sull'età di maturità: 16, 18, 21 in alcuni casi. Eppure, metti un dodicenne o un tredicenne davanti a una di queste cose, e hanno accesso a ogni male così come a ogni bene nel mondo, e non sono pronti ad affrontarlo.”
Una connessione fredda
Un sottoinsieme in crescita dell'industria dell'AI generativa, i compagni AI sono progettati per simulare l'interazione umana. Ma a differenza dei chatbot AI come ChatGPT, Claude o Gemini, le app di compagni AI sono progettate per imitare le relazioni.
Gli sviluppatori li commercializzano come strumenti privi di giudizio, programmi di supporto che offrono connessione e sollievo dalla solitudine o dall'ansia. Le piattaforme di compagni AI più popolari includono Character AI, MyGirl, CarynAI e Replika AI.
“Si tratta di connessione, di sentirsi meglio nel tempo,” ha precedentemente detto la CEO di Replika, Eugenia Kuyda, a Decrypt. “Alcune persone hanno bisogno di un po' più di amicizia, e alcune persone si ritrovano ad innamorarsi di Replika, ma alla fine della giornata, stanno facendo la stessa cosa.”
Come spiegato da Kuyda, Replika non è nata dal desiderio di vendere eccitazione, ma da una tragedia personale e dal suo desiderio di continuare a parlare con qualcuno che aveva perso.
I compagni AI possono offrire sollievo temporaneo, ma i professionisti della salute mentale stanno alzando bandiere rosse e avvertendo che fare affidamento sui compagni AI per alleviare i sentimenti di solitudine potrebbe ostacolare la crescita emotiva.
“I compagni AI sono progettati per adattarsi e personalizzare le interazioni in base alle preferenze dell'utente, offrendo un'esperienza su misura,” ha detto Sandra Kushnir, CEO di Meridian Counseling con sede a Los Angeles, a Decrypt. “Forniscono risposte immediate senza bagagli emotivi, soddisfacendo il bisogno di connessione in un ambiente a basso rischio. Per le persone che si sentono invisibili o fraintese nella loro vita quotidiana, queste interazioni possono temporaneamente colmare un vuoto.”
Kushnir ha avvertito che gli utenti potrebbero proiettare qualità umane sull'AI, solo per rimanere delusi quando incontrano le limitazioni della tecnologia, come dimenticare conversazioni passate e approfondire la solitudine che stavano cercando di alleviare.
“Mentre i compagni AI possono fornire comfort temporaneo, potrebbero involontariamente rafforzare l'isolamento riducendo la motivazione a impegnarsi in relazioni reali,” ha detto Kushnir. “Un'eccessiva dipendenza da questi strumenti può ostacolare la crescita emotiva e la resilienza, poiché mancano dell'autenticità, dell'imprevedibilità e della connessione più profonda che le interazioni umane offrono.”
Palude legale
L'aumento della popolarità dei compagni AI ha portato a un maggiore scrutinio dell'industria.
Lo scorso anno, un uomo di 21 anni in Inghilterra è stato messo a processo per un complotto per assassinare la defunta regina Elisabetta II nel 2021. Ha affermato che il complotto è stato incoraggiato dal suo compagno AI Replika.
A ottobre, lo sviluppatore di compagni AI Character AI è stato criticato dopo che su piattaforma è stato creato un chatbot AI basato su Jennifer Crecente, una vittima di omicidio adolescente.
“Character.AI ha politiche contro l'imitazione, e l'uso del nome di Ms. Crecente da parte del Character viola le nostre politiche,” ha detto un portavoce di Character.AI a Decrypt. “Lo stiamo eliminando immediatamente e esamineremo se sono necessarie ulteriori azioni.”
Più tardi quel mese, Character AI ha introdotto nuove funzionalità di sicurezza “rigide” dopo una causa legale della madre di un adolescente della Florida che si è suicidato dopo essersi affezionato a un chatbot AI basato su Daenerys Targaryen di “Game of Thrones.”
Per ridurre queste tragedie, Schmidt ha chiesto una combinazione di conversazioni sociali e cambiamenti alle leggi attuali, inclusa la tanto dibattuta Sezione 230 del Communications Decency Act del 1996, che protegge le piattaforme online dalla responsabilità civile per contenuti di terzi.
“In particolare, dovremo avere alcune conversazioni su a quale età certe cose sono appropriate, e dovremo anche cambiare alcune leggi, per esempio, la Sezione 230, per consentire la responsabilità nei casi peggiori.”
Modificato da Sebastian Sinclair