Mai mulți angajați actuali și foști ai OpenAI și Google DeepMind și-au acuzat companiile că ascunde riscurile AI care ar putea declanșa dispariția umană. Într-o scrisoare deschisă, lucrătorii au susținut că firmele de inteligență artificială pun profitul pe primul loc, evitând „supravegherea [guvernamentală] eficientă”.

Citește și: OpenAI aliniază succesorul GPT-4 pe fondul preocupărilor legate de siguranță

Scrisoarea deschisă a fost semnată de 11 foști angajați ai OpenAI, doi de la Google DeepMind și susținută de „nașul AI” Geoffrey Hinton, fostul Google. Acesta a spus că motivele de profit și lacunele de reglementare permit companiilor să ascundă amenințările reprezentate de inteligența artificială avansată.

Inteligența artificială ar putea duce la „extincția umană”

Potrivit scrisorii, firmele de inteligență artificială precum OpenAI și Google DeepMind, creatorul Gemini, nu au împărtășit public informații despre garanțiile inadecvate și nivelurile de risc ale sistemelor lor, deoarece nu sunt obligați să facă acest lucru.

Fără supraveghere de reglementare, programele AI ar putea provoca daune majore oamenilor. Angajații au avertizat:

„Aceste riscuri variază de la consolidarea în continuare a inegalităților existente... până la pierderea controlului sistemelor AI autonome care ar putea duce la dispariția umană.”

După cum au menționat semnatarii scrisorii, firmele de inteligență artificială însele au recunoscut aceste riscuri. În mai 2023, directorii generali ai OpenAI, Anthropic și Google DeepMind au cosemnat o scrisoare deschisă din partea Centrului pentru Siguranța Inteligenței Artificiale. Scrisoarea scria pur și simplu: „Atenuarea riscului de dispariție din cauza inteligenței artificiale ar trebui să fie o prioritate globală alături de alte riscuri la scară societală, cum ar fi pandemiile și războiul nuclear”.

Companiile de inteligență artificială au fost din ce în ce mai mult controlate pentru că plasează produse noi și profit în locul siguranței și securității. Creatorul de ChatGPT OpenAI a remarcat preocupările ridicate în scrisoare și a spus că lucrează pentru a dezvolta inteligență artificială care este sigură.

„Suntem mândri de palmaresul nostru, oferind cea mai capabilă și mai sigură I.A. sisteme și credem în abordarea noastră științifică de a aborda riscul”, a declarat purtătoarea de cuvânt a OpenAI, Lindsey Held, pentru New York Times.

„Suntem de acord că dezbaterea riguroasă este crucială, având în vedere importanța acestei tehnologii și vom continua să ne angajăm cu guvernele, societatea civilă și alte comunități din întreaga lume.”

Denunțătorii se tem de răzbunare

Foștii angajați ai OpenAI și Google au spus că ar dori să ocupe rolul de supraveghere în timp ce autoritățile de reglementare elaborează legi care îi obligă pe dezvoltatorii AI să dezvăluie public mai multe informații despre programele lor.

Cu toate acestea, acordurile de confidențialitate și probabilitatea de represalii din partea angajatorilor descurajează lucrătorii să-și exprime public preocupările. După scrisoare:

„Unii dintre noi se tem în mod rezonabil de diferite forme de represalii, având în vedere istoricul unor astfel de cazuri în industrie. Nu suntem primii care întâlnim sau vorbim despre aceste probleme.”

Denunțătorii sunt protejați de lege în SUA, dar cei care vorbesc despre pericolele inteligenței artificiale nu sunt acoperiți, deoarece tehnologia nu este încă reglementată.

Citește și: ChatGPT încă răspândește falsuri, spune EU Data Watchdog

Scrisoarea a cerut companiilor de inteligență artificială să faciliteze feedback-ul anonim verificabil, să susțină o cultură a criticii deschise și să nu riposteze împotriva avertizorilor.

Cercetătorul de inteligență artificială Lance B. Eliot a spus că firmele adoptă o abordare cu morcov și băț în fața criticilor. Angajații care nu vorbesc împotriva riscurilor sunt răsplătiți cu promovări și creșteri de salariu.

Pe de altă parte, avertizorii și criticii își pierd opțiunile pe acțiuni și pot fi forțați să părăsească companie și trecuți în tăcere pe lista neagră de către comunitatea conducerii AI.

Raportare Cryptopolitan de Jeffrey Gogo