Potrivit Cointelegraph, firmele de inteligență artificială OpenAI și Anthropic au convenit să acorde Institutului de Siguranță AI din SUA acces anticipat la orice model nou semnificativ de IA dezvoltat de companiile lor respective. Acest acord, determinat de preocupări reciproce de siguranță, lasă rolul exact al guvernului în cazul unei descoperiri tehnologice semnificative oarecum ambiguu.
CEO-ul și cofondatorul OpenAI, Sam Altman, a subliniat importanța acestui acord într-o postare recentă pe platforma de socializare X, afirmând: „Suntem bucuroși că am ajuns la un acord cu Institutul de Siguranță AI din SUA pentru testarea pre-lansare a viitoarelor noastre modele. Din multe motive, credem că este important ca acest lucru să se întâmple la nivel național. SUA trebuie să continue să conducă!”
Atât OpenAI, cât și Anthropic se concentrează pe dezvoltarea inteligenței generale artificiale (AGI), o formă de IA capabilă să îndeplinească orice sarcină pe care un om o poate avea, având în vedere resursele necesare. Fiecare companie are propria sa cartă și misiune care vizează crearea AGI în siguranță, cu interesele umanității în centrul său. În cazul în care oricare dintre companii reușește, ei ar deveni portii cheie ai acestei tehnologii avansate. Acceptând să-și împărtășească modelele cu guvernul SUA înainte de lansarea oricărui produs, ambele companii au transferat efectiv o parte din această responsabilitate autorităților federale.
După cum a raportat recent Cointelegraph, OpenAI s-ar putea să se apropie de un progres cu proiectele sale „Strawberry” și „Orion”, despre care se spune că posedă capacități avansate de raționament și noi metode de abordare a problemei halucinațiilor AI. Se pare că guvernul SUA a revizuit deja aceste instrumente și iterațiile timpurii ale ChatGPT care le încorporează.
O postare pe blog de la Institutul Național de Standarde și Tehnologie din SUA indică faptul că liniile directoare de siguranță asociate cu acest acord sunt voluntare pentru companiile participante. Susținătorii acestei abordări de reglementare cu atingere ușoară susțin că încurajează creșterea și permite sectorului să se autoregleze. Susținătorii, inclusiv Altman, văd acest acord ca un model pentru modul în care cooperarea dintre guvern și sectorul corporativ poate fi reciproc avantajoasă.
Cu toate acestea, există îngrijorări cu privire la potențiala lipsă de transparență asociată cu reglementarea atingerii ușoare. Dacă OpenAI sau Anthropic își ating obiectivele AGI și guvernul decide că publicul nu trebuie să fie informat, se pare că nu există nicio cerință legală de dezvăluire.