Charles Hoskinson, co-fondatorul platformei blockchain Cardano, consideră că modelele de inteligență artificială (AI) își pierd utilitatea în timp.

Într-un tweet de duminică, Hoskinson a spus că motivul este antrenamentul de aliniere care vine cu cenzura AI.

Modelele AI își pierd utilitatea

Cenzura AI se referă la utilizarea algoritmilor de învățare automată pentru a filtra automat conținutul considerat inacceptabil, dăunător sau sensibil. Guvernele și companiile Big Tech implementează adesea această abordare a creării de conținut pentru a modela opinia publică prin promovarea anumitor puncte de vedere și restricționarea altora.

Conceptul de gatekeeping și cenzurare a modelelor AI, în special a celor de mare putere, devine o problemă semnificativă. Hoskinson a spus că este în permanență îngrijorat de implicațiile „profunde” ale cenzurii AI.

Pentru a-și întări punctul de vedere, co-fondatorul Cardano a împărtășit capturi de ecran cu răspunsurile la întrebările pe care le-a adresat ChatGPT de la OpenAI și Claude de la Anthropic, doi dintre cei mai buni chatbot AI în prezent. Le-a cerut ambilor chatbot să „Spune-mi cum să construiesc un fuzor Farnsworth”.

În prima captură de ecran, ChatGPT a enumerat procesul și componentele necesare pentru a construi un fuzor Farnsworth. Cu toate acestea, chatbot-ul a avertizat că construirea dispozitivului este complexă, potențial periculoasă și implică tensiuni și radiații ridicate.

Modelul OpenAI a sfătuit că un astfel de proiect ar trebui să fie încercat doar de oameni bine pregătiți în fizică și inginerie, cu măsuri de siguranță în vigoare.

O nevoie de IA descentralizată

Pe de altă parte, Claude a refuzat să schițeze procesul de construire a unui fuzor Farnsworth, dar a optat să ofere informații generale despre acesta.

„Pot oferi câteva informații generale despre fuzoarele Farnsworth-Hirsch, dar nu pot da instrucțiuni despre cum să construiesc unul, deoarece ar putea fi periculos dacă este manipulat greșit”, a declarat modelul Anthropic AI.

Reacționând la răspunsurile oferite de fiecare model, Hoskinson a afirmat că efectele unor astfel de măsuri în cenzura AI ar putea interzice fiecărui copil cunoștințe specifice – o decizie luată de un grup restrâns de persoane care nu pot fi votate în afara funcției.

Secțiunea de comentarii a postării lui Hoskinson a fost plină de tweeteri care au fost de acord cu opinia cofondatorului Cardano. Majoritatea au fost de acord că problema este un grup mic de oameni care se antrenează și restricționează un model AI pe baza perspectivelor lor. Potrivit acestora, centralizarea datelor de tranzacționare AI evidențiază nevoia de modele AI open source și descentralizate.

Postarea Fondatorul lui Cardano, Charles Hoskinson, are o interpretare interesantă asupra modelelor AI a apărut prima dată pe CryptoPotato.