Fostul om de știință al OpenAI, Ilya Sutskever, înființează o nouă companie AI, la doar o lună după ce și-a anunțat plecarea de la OpenAI. „Încep o nouă companie”, numită Safe Superintelligence Inc. (SSI), a anunțat el miercuri seara.

Citește și: Omul de știință șef al OpenAI, Ilya Sutskever, își dă rămas bun

SSI are sediul în America și are birouri în Palo Alto și Tel Aviv. Într-o postare oficială, startup-ul a spus că are „un singur scop și un singur produs: o superinteligență sigură”.

„Vom urmări superinteligența sigură într-o lovitură dreaptă, cu un singur focus, un singur obiectiv și un singur produs. O vom face prin descoperiri revoluționare produse de o mică echipă spartă”, a spus Sutskever. 

„Concentrarea noastră singulară nu înseamnă distragere a atenției”, spune SSI

SSI este condusă în prezent de Sutskever, Daniel Gross și un alt fost cercetător OpenAI, Daniel Levy. Investitorii din spatele startup-ului rămân necunoscuți la momentul scrierii acestui articol. 

Cu toate acestea, compania a remarcat în anunț că întreaga „echipă, investitorii și modelul de afaceri sunt toate aliniate pentru a obține „o superinteligență sigură”. Remarca este oarecum o nuanță la OpenAI, care a fost dat în judecată odată de Elon Musk pentru că a pus profitul pe primul loc înaintea umanității și a abandonat misiunea sa inițială. 

„Concentrarea noastră singulară înseamnă că nu distrage atenția din cauza cheltuielilor generale de management sau a ciclurilor de produs, iar modelul nostru de afaceri înseamnă că siguranța, securitatea și progresul sunt toate izolate de presiunile comerciale pe termen scurt.”

SSI

Sutskever a anunțat că va părăsi OpenAI pe 15 mai, după ce a lucrat timp de aproape un deceniu la cea mai importantă companie AI. Înainte de atunci, a tăcut radio după o încercare eșuată de a-l înlătura pe CEO-ul Sam Altman de la OpenAI în decembrie anul trecut. 

După aproape un deceniu, am luat decizia de a părăsi OpenAI.  Traiectoria companiei a fost deloc miraculoasă și sunt încrezător că OpenAI va construi AGI care este atât sigur, cât și benefic sub conducerea @sama, @gdb, @miramurati și acum, sub...

— Ilya Sutskever (@ilyasut) 14 mai 2024

Un alt director al OpenAI, Jan Leike, a demisionat în urma lui Sutskever. Ambii au co-condus echipa de Superalignment de la OpenAI, care este responsabilă pentru prevenirea ca modelele AI superinteligente să devină necinstite.

Citește și: Un alt director OpenAI, Jan Leike renunță

Sutskever nu și-a spus clar motivele pentru care a părăsit OpenAI. Cu toate acestea, Leike a citat preocupările legate de siguranță ale companiei, spunând că „în ultimii ani, cultura și procesele de siguranță au trecut pe planul din spate față de produsele strălucitoare”.

„M-am alăturat pentru că am crezut că OpenAI ar fi cel mai bun loc din lume pentru a face această cercetare”, a spus Leike. „Cu toate acestea, am fost în dezacord cu conducerea OpenAI cu privire la prioritățile de bază ale companiei de ceva timp până când am ajuns în sfârșit la un punct de rupere”, a adăugat el.

SSI nu este primul care se ramifică din OpenAI

Leike s-a alăturat concurentului OpenAI, Anthropic, în calitate de cercetător ML pe 28 mai, în timp ce Sutskever a plecat să-și construiască noua companie de AI – ceea ce a devenit o reapariție.

De remarcat, SSI nu va fi prima companie care se va ramifica din OpenAI. În 2021, doi foști angajați de la OpenAI au părăsit firma pentru a fonda Anthropic, care este acum evaluat la 18,4 miliarde de dolari, după bani, începând cu 13 mai.

Fondatorii antropici părăsiseră și OpenAI din cauza dezacordurilor cu Sam Altman cu privire la dezvoltarea sigură a AI.

Reportaj Cryptopolitan de Ibiam Wayas