L'ex capo scienziato di OpenAI, Ilya Sutskever, sta avviando una nuova società di intelligenza artificiale, appena un mese dopo aver annunciato la sua partenza da OpenAI. "Sto fondando una nuova società", chiamata Safe Superintelligence Inc. (SSI), ha annunciato mercoledì scorso.

Leggi anche: Il capo scienziato di OpenAI, Ilya Sutskever, dice addio

SSI ha sede in America e ha uffici a Palo Alto e Tel Aviv. In un post ufficiale, la startup ha affermato di avere “un obiettivo e un prodotto: una superintelligenza sicura”.

“Perseguiremo una superintelligenza sicura in un colpo solo, con un focus, un obiettivo e un prodotto. Lo faremo attraverso scoperte rivoluzionarie prodotte da un piccolo team di esperti”, ha affermato Sutskever. 

"Il nostro obiettivo unico significa nessuna distrazione", afferma SSI

SSI è attualmente guidata da Sutskever, Daniel Gross e un altro ex ricercatore di OpenAI, Daniel Levy. Gli investitori dietro la startup rimangono sconosciuti al momento in cui scrivo.

Tuttavia, l'azienda ha osservato nell'annuncio che l'intero "team, gli investitori e il modello di business sono tutti allineati per raggiungere "una superintelligenza sicura". L'osservazione sembra in qualche modo un'ombra per OpenAI, che una volta è stata citata in giudizio da Elon Musk per aver messo il profitto al primo posto prima dell'umanità e aver abbandonato la sua missione originale.

"Il nostro obiettivo unico significa nessuna distrazione da parte delle spese generali di gestione o dei cicli di prodotto, e il nostro modello aziendale significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine".

SSI

Sutskever ha annunciato che lascerà OpenAI il 15 maggio dopo aver lavorato per quasi un decennio presso la principale azienda di intelligenza artificiale. Prima di allora, era rimasto in silenzio radio in seguito a un fallito tentativo di estromettere il CEO Sam Altman da OpenAI nel dicembre dell'anno scorso.

Dopo quasi un decennio, ho preso la decisione di lasciare OpenAI. La traiettoria dell'azienda è stata a dir poco miracolosa e sono sicuro che OpenAI creerà un'intelligenza artificiale intelligente (AGI) sicura e vantaggiosa sotto la guida di @sama, @gdb, @miramurati e ora, sotto la...

— Ilya Sutskever (@ilyasut) 14 maggio 2024

Un altro dirigente di OpenAI, Jan Leike, si è dimesso dopo Sutskever. Entrambi hanno co-diretto il team Superalignment di OpenAI, che è responsabile di impedire che i modelli di IA superintelligenti diventino canaglia.

Leggi anche: Un altro dirigente di OpenAI, Jan Leike, si dimette

Sutskever non ha dichiarato chiaramente le sue ragioni per lasciare OpenAI. Tuttavia, Leike ha citato preoccupazioni sulla sicurezza presso l'azienda, affermando che "negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti brillanti".

"Mi sono unito perché pensavo che OpenAI sarebbe stato il posto migliore al mondo per fare questa ricerca", ha detto Leike. "Tuttavia, sono stato in disaccordo con la dirigenza di OpenAI sulle priorità principali dell'azienda per un bel po' di tempo, finché non abbiamo finalmente raggiunto un punto di rottura", ha aggiunto.

SSI non è la prima a diversificarsi da OpenAI

Il 28 maggio Leike si è unito al concorrente di OpenAI, Anthropic, come ricercatore ML, mentre Sutskever è andato a fondare la sua nuova azienda di intelligenza artificiale, che è diventata una ricorrenza.

È degno di nota che SSI non sarà la prima azienda a diversificarsi da OpenAI. Nel 2021, due ex dipendenti di OpenAI hanno lasciato l'azienda per co-fondare Anthropic, che ora è valutata 18,4 miliardi di dollari, post-money, al 13 maggio.

Anche i fondatori di Anthropic avevano abbandonato OpenAI a causa di disaccordi con Sam Altman in merito allo sviluppo sicuro dell'intelligenza artificiale.

Reportage di Cryptopolitan di Ibiam Wayas