TLDR

  • Ilya Sutskever, co-fondator și fost om de știință șef al OpenAI, a lansat un nou startup AI numit Safe Superintelligence Inc. (SSI).

  • SSI își propune să creeze un sistem AI sigur și puternic, dând prioritate siguranței față de presiunile comerciale și ciclurile produselor.

  • Sutskever începe compania cu Daniel Gross, un fost lider AI la Apple, și Daniel Levy, care a lucrat anterior la OpenAI.

  • Unicul accent al companiei este pe dezvoltarea superinteligenței sigure și intenționează să avanseze capabilitățile, asigurându-se în același timp că siguranța rămâne o prioritate de top.

  • Plecarea lui Sutskever de la OpenAI vine în urma unui dezacord cu CEO-ul Sam Altman cu privire la abordarea companiei cu privire la siguranța AI.

Ilya Sutskever, unul dintre co-fondatorii și fostul om de știință șef al OpenAI, a lansat un nou startup AI numit Safe Superintelligence Inc. (SSI).

Compania, pe care Sutskever a anunțat-o miercuri, 19 iunie 2024, își propune să creeze un sistem AI sigur și puternic, dând prioritate siguranței față de presiunile comerciale și ciclurile produselor.

Superinteligența este la îndemână.

Construirea superinteligenței sigure (SSI) este cea mai importantă problemă tehnică a timpului nostru.

Am început primul laborator SSI direct din lume, cu un singur scop și un singur produs: o superinteligență sigură.

Se numește Superintelligence sigură...

— SSI Inc. (@ssi) 19 iunie 2024

Sutskever, care a părăsit OpenAI în mai în urma unui dezacord cu CEO-ul Sam Altman cu privire la abordarea companiei cu privire la siguranța AI, începe SSI cu Daniel Gross, un fost lider AI la Apple, și Daniel Levy, care a lucrat anterior ca membru al personalului tehnic la OpenAI.

Compania are birouri în Palo Alto, California, și Tel Aviv, Israel, unde în prezent recrutează talent tehnic.

Într-o postare care anunță lansarea SSI, Sutskever a subliniat concentrarea singulară a companiei pe dezvoltarea superinteligenței sigure, afirmând că este „misiunea noastră, numele nostru și întreaga noastră foaie de parcurs pentru produse”.

Compania intenționează să avanseze capabilitățile AI cât mai repede posibil, asigurându-se în același timp că siguranța rămâne o prioritate de top, permițându-le să „scaleze în pace”.

Abordarea SSI cu privire la dezvoltarea AI îl deosebește de alte companii proeminente de AI, cum ar fi OpenAI, Google și Microsoft, care se confruntă adesea cu presiuni externe pentru a livra produse și a satisface cerințele comerciale.

Concentrându-se exclusiv pe superintelligence sigură, SSI își propune să evite distragerile de la cheltuielile generale de management și ciclurile de produs, asigurându-se că siguranța, securitatea și progresul sunt izolate de presiunile comerciale pe termen scurt.

Decizia lui Sutskever de a lansa SSI vine după plecarea sa de la OpenAI, unde a jucat un rol cheie în eforturile companiei de a îmbunătăți siguranța AI alături de Jan Leike, care a co-condus echipa de Superalignment a OpenAI.

Atât Sutskever, cât și Leike au părăsit compania în mai, în urma unui dezacord cu Altman cu privire la abordarea companiei cu privire la siguranța AI. De atunci, Leike s-a alăturat companiei rivale AI Anthropic.

Pe măsură ce SSI își începe călătoria pentru dezvoltarea superinteligenței sigure, este probabil ca compania să atragă un interes semnificativ din partea investitorilor, având în vedere cererea tot mai mare de sisteme AI avansate și acreditările impresionante ale echipei sale fondatoare.

În timp ce Sutskever a refuzat să discute situația de finanțare sau evaluarea SSI într-un interviu cu Bloomberg, cofondatorul Daniel Gross a declarat că strângerea de capital nu este de așteptat să fie o provocare pentru companie.

Postarea Cofondatorul OpenAI Ilya Sutskever lansează un nou startup AI, Safe Superintelligence Inc. a apărut prima dată pe Blockonomi.