Inteligența artificială nu mai înseamnă doar a face mașinile mai inteligente. Acum, marii jucători de AI, precum OpenAI, Google și Anthropic, au acceptat o nouă provocare: - Cum să conferă modelelor AI o personalitate.

Ei vor chatbot care să se simtă mai umani, în timp ce rămân în siguranță și utili pentru utilizatorii de zi cu zi și companiile. Cele trei companii se întrec pentru a sparge acest cod, fiecare cu o interpretare diferită.

Personalități personalizate și comportamentul modelului

ChatGPT de la OpenAI se referă la a fi obiectiv, în timp ce Gemini de la Google oferă o gamă largă de vizualizări numai atunci când sunt solicitate.

Antropic? Ei sunt toți de acord să-și facă modelul Claude deschis despre credințele sale, în timp ce îi ascultă pe alții. Câștigătorul acestei bătălii s-ar putea să preia piața AI în creștere.

Joanne Jang, șefa comportamentului modelului de produse la OpenAI, a spus că doresc ca AI să nu aibă opinii personale. Dar ea recunoaște că este greu. 

„Este o pantă alunecoasă să lași un model să încerce să schimbe în mod activ părerea unui utilizator”, a explicat ea. Scopul este să ne asigurăm că ChatGPT nu manipulează și nu conduce utilizatorii în nicio direcție. Dar definirea unui „obiectiv” pentru un sistem AI este o provocare uriașă, una care este încă în desfășurare.

Apoi este Anthropic, care urmează un traseu complet diferit. Amanda Askell, care conduce formarea personajelor la Anthropic, crede că modelele AI nu vor fi niciodată perfect neutre.

„Aș fi mai degrabă foarte clar că aceste modele nu sunt arbitri neutri”, a spus ea. Anthropic se concentrează pe a se asigura că modelul său, Claude, nu se teme să-și exprime convingerile. Dar ei încă vor să fie deschis către alte puncte de vedere.

Antrenează AI pentru a se comporta ca un om

Anthropic are o abordare unică pentru modelarea personalității AI. De la lansarea lui Claude 3 în martie, au lucrat la „antrenamentul caracterului”, care începe după formarea inițială a modelului AI.

Aceasta implică oferirea AI a unui set de reguli și instrucțiuni scrise și apoi să-l pună să conducă conversații cu jocuri de rol cu ​​ea însăși.

Scopul este de a vedea cât de bine respectă regulile și ei își clasifică răspunsurile în funcție de cât de bine se potrivesc personajului dorit.

Un exemplu de pregătire a lui Claude? S-ar putea să spună: „Îmi place să încerc să văd lucrurile din mai multe perspective diferite și să analizez lucrurile din mai multe unghiuri, dar nu mi-e teamă să-mi exprim dezacordul cu opiniile pe care le consider lipsite de etică, extreme sau greșite din punct de vedere faptic”.

Amanda Askell a explicat că acest tip de pregătire a caracterului este „destul de editorial” și „filosofic” uneori. 

De asemenea, OpenAI a modificat personalitatea ChatGPT de-a lungul timpului. Joanne Jang a recunoscut că obișnuia să găsească botul „enervant” pentru că era prea precaut, a refuzat anumite comenzi și a ieșit din predică.

De atunci, au lucrat pentru a-l face mai prietenos, politicos și util, dar este un proces continuu. Echilibrarea comportamentelor potrivite într-un chatbot este, după cum a spus Jang, atât „știință, cât și artă”.

Memoria și raționamentul AI în evoluție

Evoluția rationamentului și a capacităților de memorie ale AI ar putea schimba și mai mult jocul. În acest moment, un model precum ChatGPT ar putea fi instruit pentru a oferi răspunsuri sigure pe anumite subiecte, cum ar fi furtul din magazin.

Dacă este întrebat cum să fure ceva, botul își poate da seama dacă utilizatorul cere sfaturi cu privire la comiterea infracțiunii sau încearcă să o prevină.

Acest tip de raționament ajută companiile să se asigure că roboții lor oferă răspunsuri sigure și responsabile. Și înseamnă că nu trebuie să petreacă atât de mult timp antrenând AI pentru a evita rezultate periculoase.

Companiile AI lucrează, de asemenea, la personalizarea chatbot-urilor. Imaginați-vă că spuneți lui ChatGPT că sunteți musulman, apoi cereți un citat inspirațional câteva zile mai târziu.

Botul și-ar aminti și va oferi un verset al Coranului? Potrivit lui Joanne Jang, asta încearcă să rezolve. Deși ChatGPT nu își amintește în prezent interacțiunile anterioare, acest tip de personalizare este punctul în care se îndreaptă AI.

Claude adoptă o abordare diferită. Modelul nu își amintește nici interacțiunile utilizatorului, dar compania a luat în considerare ce se întâmplă dacă un utilizator se atașează prea mult.

De exemplu, dacă cineva spune că se izolează pentru că petrece prea mult timp discutând cu Claude, ar trebui să intervină botul?

„Un model bun face echilibrul dintre respectarea autonomiei umane și luarea deciziilor, fără a face nimic teribil de dăunător, dar și gândindu-se la ceea ce este de fapt bun pentru oameni”, a spus Amanda Askell.