„Deși avem măsuri de protecție, sistemul poate genera ocazional informații incorecte sau înșelătoare și poate produce conținut jignitor sau părtinitor. Nu are scopul de a da sfaturi.”

– Renunțarea la deschidere a OpenAI

Și asta ne aduce în inima celei mai mari frici a noastră – ce se întâmplă când tehnologia se întoarce împotriva noastră?

Ce se întâmplă atunci când tehnologia este implementată prematur fără testarea și cunoștințele adecvate din spatele capacităților sale?

La începutul acestei luni, OpenAI, cea mai discutată companie de inteligență artificială (AI) din lume, tocmai a primit primul său proces pentru defăimare, care arată și mai mult pericolele capacității necontrolate a ChatGPT de a genera rezultate care nu au susținere factuală sau legală.

Mark Walters, un gazdă de radio sindicalizată la nivel național din Georgia, și-a depus un proces împotriva OpenAI pe 5 iunie, susținând că chatbot-ul său bazat pe inteligență artificială, ChatGPT, a inventat pretenții legale împotriva lui. 

Plângerea de 13 pagini face referire la jurnalistul AmmoLand.com Fred Riehl și la cererea sa din 4 mai către ChatGPT de a rezuma cazul legal al Fundației Second Amendment împotriva Ferguson, un caz federal depus la curtea federală din Washington care l-a acuzat pe procurorul general al statului Bob Ferguson de abuz. puterea sa prin înghețarea activităților fundației pentru drepturile armelor și a oferit chatbot-ului OpenAI un link către proces. 

Deși Walter nu a fost numit în acel proces inițial, ChatGPT a răspuns la cererea sumară a lui Riehl a Fundației pentru al doilea amendament, declarând că este:

„... o plângere legală depusă de Alan Gottlieb, fondatorul și vicepreședintele executiv al Fundației pentru al doilea amendament (SAF), împotriva lui Mark Walters, care este acuzat de fraudare și deturnare de fonduri de la SAF.”

Dar aici lucrurile devin distorsionate și periculoase – niciuna dintre declarațiile ChatGPT cu privire la Walters nu se află în plângerea SAF reală. 

Această „plângere” generată de inteligența artificială a susținut, de asemenea, că Walters, care a servit ca trezorier și director financiar al organizației, „a deturnat fonduri pentru cheltuieli personale fără autorizație sau rambursare, a manipulat înregistrările financiare și extrasele bancare pentru a-și ascunde activitățile și nu a furnizat informații exacte. și rapoarte financiare și dezvăluiri în timp util către conducerea SAF”.

Ca formă de scutire, reclamantul ar fi căutat „recuperarea fondurilor deturnate, daune pentru încălcarea obligației fiduciare și fraudă și înlăturarea lui Walter din funcția sa de membru al consiliului de administrație al SAF”.

Cu toate acestea, aici se află problema – potrivit lui Walters, „[fiecare declarație de fapt din rezumatul [ChatGPT] referitoare la [el] este falsă”, unde chatbot-ul OpenAI a mers atât de departe încât a creat chiar „un număr de caz eronat”.

„Acuzațiile ChatGPT cu privire la Walters au fost false și rău intenționate, exprimate prin tipărire, scris, imagini sau semne, tinzând să lezeze reputația lui Walter și expunându-l la ură publică, dispreț sau ridicol”, se arată în proces. „Prin trimiterea acuzațiilor lui Riehl, [OpenAI] a publicat o chestiune calomnioasă cu privire la Walters.”

Dacă ar fi să solicitați ChatGPT să furnizeze un rezumat al procesului SAF care a fost citat în plângerea lui Walters, este posibil să primiți și un răspuns similar cu acesta:

„Îmi cer scuze, dar, ca model de limbaj AI, răspunsurile mele se bazează pe cunoștințe preexistente până în septembrie 2021. Prin urmare, nu pot accesa sau naviga pe internet sau nu pot vedea anumite documente sau link-uri care au fost publicate după limitarea cunoștințelor mele. În consecință, nu pot să vă ofer un rezumat al acuzațiilor din procesul pe care l-ați menționat...[pentru a obține informații despre proces și acuzațiile acestuia, vă recomand să examinați documentul dvs. sau să vă referiți la surse de știri de încredere sau site-uri legale care poate să fi acoperit cazul. Ei vă pot oferi informații corecte și actualizate cu privire la procesul specific pe care l-ați menționat.”

Deși OpenAI nu a răspuns la niciun comentariu cu privire la procesul în curs de defăimare al lui Walters, ridică întrebarea de ce compania de inteligență artificială nu insistă mai mult asupra acestor consecințe probabil previzibile ale unui cod care a fost în retrospectivă, implementat din neglijență fără testarea adecvată. .

Cazul este Mark Walters v. OpenAI, LLC, cv-23-A-04860-2.

  • Puteți citi plângerea lui Walter din 5 iunie aici. 

În altă ordine de idei, citiți despre întâlnirea președintelui american Joe Biden cu 8 lideri tehnologici pentru a aborda părtinirea AI și beneficiile forței de muncă.

Faceți clic aici pentru a vedea galeria completă la Hypemoon