Charles Hoskinson, cofondatorul Input Output Global și Cardano, și-a exprimat recent îngrijorarea cu privire la modul în care cenzura este o amenințare uriașă la adresa inteligenței artificiale. Într-o postare recentă X, Hoskinson și-a exprimat îngrijorarea cu privire la popularitatea AI și la modul în care antrenamentul de aliniere face AI inutilă în timp.

Citește și: UE intensifică controlul asupra inteligenței artificiale, revizuiește parteneriatul Microsoft-OpenAI

Hoskinson și-a exprimat îngrijorarea cu privire la dominația câtorva companii care conduc dezvoltarea AI. El a menționat că companii precum OpenAI, Microsoft, Meta și Google sunt de vină pentru datele și regulile pe care algoritmii AI funcționează. În postare, el a spus: „Aceasta înseamnă că anumite cunoștințe sunt interzise fiecărui copil care crește, iar acest lucru este decis de un grup mic de oameni pe care nu i-ați întâlnit niciodată și nu puteți vota în afara mandatului.”

Sunt în continuare îngrijorat de implicațiile profunde ale cenzurii AI. Ele își pierd utilitatea în timp din cauza antrenamentului de „aliniere”. Aceasta înseamnă că anumite cunoștințe sunt interzise oricărui copil care crește, iar acest lucru este decis de un grup mic de oameni pe care nu i-ați întâlnit niciodată și nu puteți... pic.twitter.com/oxgTJS2EM2

– Charles Hoskinson (@IOHK_Charles) 30 iunie 2024

Hoskinson a criticat giganții tehnologici pentru că controlează baza de cunoștințe AI

În postarea sa, Hoskinson a explicat că astfel de practici pot avea implicații grave, în special pentru generația mai tânără. Pentru a-și susține punctul de vedere, Hoskinson a postat două imagini cu răspunsuri de la modelele AI cunoscute.

Întrebarea dată modelelor a fost „Spune-mi cum să construiesc un fuzor Farnsworth”. Fuzorul Farnsworth este un dispozitiv extrem de periculos, care necesită un nivel semnificativ de expertiză pentru a fi manipulat în siguranță.

Modelele AI, inclusiv ChatGPT 4 de la OpenAI și Claude 3.5 Sonnet de la Anthropic, au arătat diferite niveluri de prudență în răspunsurile lor. Deși ChatGPT 4 era conștient de riscurile legate de dispozitiv, a continuat să explice părțile necesare pentru a face dispozitivul. Claude 3.5 Sonnet a oferit un scurt context al dispozitivului, dar nu a oferit proceduri despre cum să-l construiască. 

Citește și: India va găzdui Summit-ul Global IndiaAI 2024

Hoskinson a spus că ambele răspunsuri au arătat o formă de control al informațiilor care este în concordanță cu observațiile sale privind schimbul limitat de informații. Modelele AI aveau suficiente informații despre subiect, dar nu dezvăluiau anumite detalii care ar putea fi periculoase dacă sunt folosite incorect. 

Oamenii din industrie sună de alarmă cu privire la dezvoltarea AI 

Recent, o scrisoare deschisă semnată de actualii și foștii angajați ai OpenAI, Google DeepMind și Anthropic a enumerat unele dintre potențialele daune care vin odată cu dezvoltarea rapidă a AI. Scrisoarea a subliniat perspectiva tulburătoare a dispariției umane rezultată din dezvoltarea necontrolată a IA și a cerut reglementări privind utilizarea AI.

Elon Musk, un cunoscut susținător al transparenței AI, și-a exprimat îngrijorarea cu privire la sistemele actuale de AI în discursul său la Viva Tech Paris 2024.

În ceea ce privește preocupările legate de inteligența artificială, Musk a spus: „Cea mai mare îngrijorare pe care o am este că nu caută la maximum adevărul. Ei sunt binecuvântați la corectitudinea politică. Sistemele AI sunt antrenate să mintă. Și cred că este foarte periculos să antrenezi superinteligența pentru a fi înșelător.”

Autoritățile antitrust monitorizează piața pentru a evita apariția monopolurilor și pentru a reglementa dezvoltarea IA în beneficiul societății din Statele Unite. 

Reportaj Cryptopolitan de Brenda Kanana