Ilya Sutskever, co-fondatore ed ex capo scienziato di OpenAI, insieme all'ex ingegnere di OpenAI Daniel Levy e all'investitore Daniel Gross, in precedenza partner dell'acceleratore di startup Y Combinator, hanno lanciato Safe Superintelligence, Inc. (SSI). L’azienda, con sede a Palo Alto e Tel Aviv, mira a far avanzare l’intelligenza artificiale (AI) dando priorità sia alla sicurezza che alle capacità. In un annuncio online del 19 giugno, i fondatori hanno sottolineato il loro impegno:

“Fin dall’inizio, la nostra attenzione rimane costante sulla sicurezza e sulle capacità dell’IA. Questo focus unico garantisce che non siamo distratti dalle spese generali di gestione o dai cicli di prodotto, mentre il nostro modello di business protegge la sicurezza, la protezione e il progresso dalle pressioni commerciali a breve termine”.

Sutskever e Gross sono da tempo sostenitori della sicurezza dell’IA.

Sutskever ha lasciato OpenAI il 14 maggio, in seguito al suo coinvolgimento nel licenziamento del CEO Sam Altman. Il suo ruolo nella società è diventato ambiguo dopo che si è dimesso dal consiglio al ritorno di Altman. Poco dopo la partenza di Sutskever, anche Daniel Levy, insieme a molti altri ricercatori, lasciò OpenAI.

Sutskever e Jan Leike hanno co-guidato il team Superalignment di OpenAI, formato nel luglio 2023 per esplorare metodi per guidare e gestire sistemi di intelligenza artificiale più intelligenti degli umani, noti come intelligenza generale artificiale (AGI). All'inizio, OpenAI ha stanziato il 20% delle sue risorse informatiche per supportare il team di Superalignment.

A maggio, Leike ha lasciato OpenAI per dirigere un team presso Anthropic, una startup di intelligenza artificiale sostenuta da Amazon. In seguito alla partenza dei suoi ricercatori chiave, OpenAI ha sciolto il team di Superalignment. Greg Brockman, presidente dell’azienda, ha difeso i suoi protocolli di sicurezza in un post dettagliato su X.

Anche altre figure di spicco del settore tecnologico condividono le preoccupazioni

Ex ricercatori di OpenAI, insieme a numerosi scienziati, esprimono profonde preoccupazioni sulla traiettoria futura dell’IA. Vitalik Buterin, co-fondatore di Ethereum, ha etichettato AGI come "rischiosa" nel contesto dei recenti cambiamenti di personale presso OpenAI. Tuttavia, ha anche osservato che “tali modelli comportano rischi di rovina molto inferiori rispetto alla megalomania aziendale e alle applicazioni militari”.

Fonte: Ilya Sutskever

Il CEO di Tesla Elon Musk, ex sostenitore di OpenAI, e il co-fondatore di Apple Steve Wozniak si sono uniti a oltre 2.600 leader e ricercatori tecnologici nel chiedere una pausa di sei mesi nella formazione dei sistemi di intelligenza artificiale. Hanno sottolineato la necessità che l’umanità rifletta sui “profondi rischi” posti da queste tecnologie.

Il post L'ex scienziato OpenAI Ilya Sutskever avvia SSI per la sicurezza dell'intelligenza artificiale è apparso per la prima volta su Baffic.