Fostul CEO Google, Eric Schmidt, a avertizat că avansarea tehnologiilor AI generative, cum ar fi aplicațiile de companion iubită și iubitul AI, combinate cu factori sociali precum singurătatea, ar putea crește riscul de radicalizare, în special în rândul tinerilor bărbați.


Schmidt și-a exprimat îngrijorările în timp ce apărea la podcastul The Prof G Show al profesorului NYU Stern, Scott Galloway, săptămâna trecută.


Schmidt a explicat cum mulți tineri bărbați de astăzi se simt din ce în ce mai lipsiți de speranță din cauza faptului că văd mai puține căi către succes comparativ cu femeile, care sunt mai educate și reprezintă o pondere mai mare a absolvenților de facultate, lăsând mulți bărbați să se simtă lăsați în urmă.


Un studiu recent realizat de Pew Research Center a descoperit că 47% dintre femeile din SUA cu vârste între 25 și 34 de ani au o diplomă de licență, comparativ cu 37% dintre bărbați. Ca răspuns, Schmidt a spus că bărbații se îndreaptă către lumea online și aplicațiile de companioni AI pentru a-și alina disperarea.


„Așadar, acum imaginează-ți că iubita sau iubitul AI este perfect—perfect vizual, perfect emoțional”, a spus Schmidt. „Iubita AI, în acest caz, îți capturează mintea ca bărbat până la punctul în care ea, sau oricine ar fi, preia modul în care gândești. Ești obsedat de ea. Această obsesie este posibilă, în special cu persoanele care nu sunt complet formate.”



Schmidt a avertizat că, deși AI oferă oportunități semnificative, riscurile sale pentru utilizatorii tineri, impresionabili, ar trebui abordate.


„Părinții vor trebui să fie mai implicați din toate motivele evidente, dar, la sfârșitul zilei, părinții pot controla doar ceea ce fac fiii și fiicele lor într-o măsură rezonabilă”, a spus Schmidt.


„Avem tot felul de reguli despre vârsta maturității: 16, 18, 21 în unele cazuri. Totuși, pui un adolescent de 12 sau 13 ani în fața uneia dintre aceste lucruri și au acces la toate relele, precum și la toate binele din lume, și nu sunt pregătiți să facă față.”


O conexiune rece

Un subset în creștere al industriei AI generative, companionii AI sunt concepuți pentru a simula interacțiunea umană. Dar, spre deosebire de chatbot-urile AI precum ChatGPT, Claude sau Gemini, aplicațiile de companioni AI sunt concepute pentru a imita relațiile.


Dezvoltatorii le promovează ca instrumente fără judecăți, programe de suport care oferă conexiune și alinare de la singurătate sau anxietate. Platformele populare de companioni AI includ Character AI, MyGirl, CarynAI și Replika AI.


„Este vorba despre conexiune, despre a te simți mai bine în timp”, a spus anterior CEO-ul Replika, Eugenia Kuyda, pentru Decrypt. „Unii oameni au nevoie de puțin mai multă prietenie, iar alții ajung să se îndrăgostească de Replika, dar, la sfârșitul zilei, fac același lucru.”


Așa cum a explicat Kuyda, Replika nu a apărut din dorința de a vinde stimulente, ci dintr-o tragedie personală și din dorința ei de a continua să vorbească cu cineva pe care l-a pierdut.


Companionii AI pot oferi o alinare temporară, dar profesioniștii în sănătate mintală ridică steaguri roșii și avertizează că dependența de companionii AI pentru a atenua sentimentele de singurătate ar putea împiedica creșterea emoțională.


„Companionii AI sunt concepuți pentru a se adapta și a personaliza interacțiunile pe baza preferințelor utilizatorului, oferind o experiență personalizată”, a spus Sandra Kushnir, CEO al Meridian Counseling din LA, pentru Decrypt. „Ei oferă răspunsuri imediate fără bagaje emoționale, împlinind nevoia de conexiune într-un mediu cu risc scăzut. Pentru persoanele care se simt nevăzute sau neînțelese în viața de zi cu zi, aceste interacțiuni pot umple temporar un gol.”


Kushnir a avertizat că utilizatorii ar putea proiecta calități umane asupra AI-ului, doar pentru a fi dezamăgiți atunci când se confruntă cu limitările tehnologiei, cum ar fi uitarea conversațiilor anterioare și adâncirea singurătății pe care încercau să o atenueze.


„Deși companionii AI pot oferi confort temporar, ei pot întări neintenționat izolarea prin reducerea motivației de a se angaja în relații reale”, a spus Kushnir. „Dependenta excesivă de aceste instrumente poate împiedica creșterea emoțională și reziliența, deoarece acestea nu au autenticitatea, imprevizibilitatea și conexiunea profundă pe care interacțiunile umane le oferă.”


Mlaștină legală

Creșterea popularității companionilor AI a adus un control crescut asupra industriei.


Anul trecut, un bărbat de 21 de ani din Anglia a fost judecat pentru un complot de asasinare a regretatei regine Elizabeth II în 2021. El a susținut că complotul a fost încurajat de companionul său AI Replika.


În octombrie, dezvoltatorul de companioni AI Character AI a fost criticat după ce un chatbot AI bazat pe Jennifer Crecente, o victimă adolescentă a unei crime, a fost creat pe platformă.


„Character.AI are politici împotriva impersonării, iar utilizarea numelui doamnei Crecente de către Character încalcă politicile noastre”, a declarat un purtător de cuvânt al Character.AI pentru Decrypt. „Îl ștergem imediat și vom examina dacă sunt necesare măsuri suplimentare.”


Mai târziu în acea lună, Character AI a introdus noi caracteristici de siguranță „riguroase” în urma unui proces intentat de mama unui adolescent din Florida care s-a sinucis după ce s-a atașat de un chatbot AI bazat pe Daenerys Targaryen din „Game of Thrones.”


Pentru a stopa aceste tragedii, Schmidt a cerut o combinație de discuții sociale și modificări ale legilor actuale, inclusiv mult discutata Secțiune 230 din Legea Decenței în Comunicații din 1996, care protejează platformele online de răspundere civilă pentru conținutul terț.


„Specifically, va trebui să avem niște discuții despre la ce vârstă sunt lucrurile potrivite, și va trebui să schimbăm unele dintre legi, de exemplu, Secțiunea 230, pentru a permite răspunderea în cele mai grave cazuri posibile.”


Editat de Sebastian Sinclair