Angajații care pleacă de la OpenAI sunt obligați să semneze un acord restrictiv de excludere. Directorul executiv al OpenAI, Sam Altman, a spus că o parte a acordului nu ar fi trebuit să existe niciodată și este una dintre rarele ocazii în care gestionarea OpenAI l-a stânjenit cu adevărat.

După plecarea unor angajați ai echipei de siguranță OpenAI de profil înalt, a ieșit la iveală faptul că acordul include prevederi de nedisprețuire și nedezvăluire care restricționează angajații care ieșesc să critice OpenAI pentru tot restul vieții, a raportat Vox sâmbătă.

Și nu este doar atât; acordul continuă să revoce chiar și capitalul investit al angajaților în firmă dacă aceștia își critică vreodată fostul angajator într-un mod în care OpenAI consideră că le diminuează valoarea. De asemenea, ei nu pot vorbi despre termenii de ieșire, deoarece asta le va revoca și capitalul propriu.

Ce se întâmplă la OpenAI?

În anunțul recent al ChatGPT-4o, produsul emblematic al companiei a dobândit capacitatea de a vorbi și de a recunoaște imaginile, dar pentru tocilarii și adepții tehnologiei, toată zarva în jurul upgrade-ului produsului a fost preluată de realitatea că angajații care pleacă ai companiei ar putea recunosc imaginile, dar nu au voie să vorbească.

„În ultimii ani, cultura și procesele de siguranță au trecut pe planul din spate față de produsele strălucitoare.” Jan Leike.

La scurt timp după debutul ChatGPT-4o, co-fondatorul și om de știință șef al OpenAI, Ilya Sutskever, a părăsit compania. Sutskever conducea și echipa de Superalignment, care se ocupă de problemele de siguranță legate de produsul AI al companiei.

Citește și: OpenAI dezvăluie Chatgpt-4o: Acces gratuit cu limitări

La câteva ore după plecarea lui Sutskever, a plecat și un alt co-lider al echipei Superalignment, Jan Leike. Plecarea ambilor experți în siguranță a sugerat posibilitatea ca OpenAI să-și schimbe preferințele în materie de siguranță și au început speculațiile că aceștia ar fi putut demisiona în semn de protest.

Altman și-a cerut scuze pentru pași greșiți în politica de capitaluri proprii

Mulți observatori îl acuză pe Altman că este un jucător bun la emiterea de declarații publice, dar îl critică pentru că practic lucrează complet împotriva a ceea ce spune.

Astăzi, Altman a postat pe X despre modul în care compania gestionează capitalul propriu al angajaților săi. El a menționat că a existat o prevedere cu privire la potențiala anulare a capitalului propriu în documentele lor anterioare, dar nu au revendicat niciodată nimic înapoi. El a spus că nu ar fi trebuit să fie niciodată acolo în niciunul dintre documentele lor.

în ceea ce privește lucrurile recente despre modul în care openai gestionează capitalul propriu: nu am recuperat niciodată capitalul propriu al nimănui și nici nu vom face asta dacă oamenii nu semnează un acord de separare (sau nu sunt de acord cu un acord de non-dispreț). capitalul propriu este capital propriu, punct. a fost...

— Sam Altman (@sama) 18 mai 2024

Altman a mai spus că echipa lor a reparat deja documentele de ieșire în ultima lună, iar oricine a părăsit compania cu documente vechi semnate îl poate contacta pentru corectare. El a mai spus că este una dintre puținele ori în care îi este jenă să gestioneze compania.

Dar privind istoria, așa cum am spus mai devreme, Altman a fost acuzat de contradicții în cuvintele și practicile sale; de exemplu, el este criticat pentru că a convins Arabia Saudită să investească miliarde în fabricarea acceleratoarelor AI. Știind că țara este o monarhie și că oamenii puternici pot folosi tehnologia pentru a controla societatea. 

Acest lucru s-a întâmplat în același timp când a aplaudat siguranța AI și a semnat o scrisoare către guvernul SUA pentru a opri dezvoltarea rapidă a AI pentru a salva umanitatea de la rău. De asemenea, a fost suficient de inteligent încât a transformat o organizație non-profit într-un startup tehnocrat și apoi a pus comercializarea pe turbo boost. Nu este simplu și necesită un fel de înșelăciune pentru a se întâmpla.

Nu totul este simplu la OpenAI

Există, de asemenea, ceva istoric implicat. Când CEO-ul Sam Altman a fost concediat de consiliul companiei anul trecut, înainte de a reveni rapid la poziția sa, Sutskever a fost și el în consiliul care a luat decizia. 

Dar Sutskever și-a schimbat rapid atitudinea și a regretat decizia sa; chiar a început să lucreze cu angajații care îl doreau pe Altman înapoi la companie. Sutskever a semnat și scrisoarea care cerea întoarcerea lui Altman. 

De când Altman s-a întors în companie, poziția lui Sutskever a rămas neclară și a fost, de asemenea, eliminat din consiliu, la fel ca mulți alții după întoarcerea lui Altman. În timp ce Altman și-a arătat durerea față de plecarea lui Sutskever, spunând:

„Ilya și OpenAI se vor despărți. Acest lucru este foarte trist pentru mine; Ilya este cu ușurință una dintre cele mai mari minți ale generației noastre, o lumină călăuzitoare a domeniului nostru și un prieten drag.” Sursa: OpenAI.

Fostul om de știință șef a spus că pleacă pentru ceva care este important pentru el personal. Deși nu știm care este acel lucru sau proiect, se pare că poate este problema de siguranță AI, despre care se crede că este punctul central al preferinței lui Sutskever pentru tot timpul în care a lucrat la OpenAI.

Citește și: CEO-ul OpenAI analizează potențiala rețea de siguranță socială bazată pe inteligență artificială

Pe de altă parte, anunțul lui Leike a fost simplu, deoarece tocmai a spus: „Am demisionat”, iar mai târziu și-a explicat preocupările într-o serie de postări despre X. Altman spune că lucrează la corectarea actelor de ieșire, dar un alt fost angajat al companiei. Compania, Daniel Kokotaijlo, a declarat că și-a renunțat la capitalul propriu pentru că nu a semnat acordul. El a anunțat că a părăsit compania pentru că și-a pierdut „încrederea că se va comporta responsabil în timpul AGI”.

În timp ce Altman a spus că orice fost angajat poate să-i contacteze și că va căuta să remedieze problema, nu putem fi siguri cum se conturează acest lucru într-o scenă în care un exod al angajaților este în desfășurare și angajații ridică întrebări cu privire la schimbarea siguranței AI a companiei. practici.

Reportaj criptopolitan de Aamir Sheikh