Cosa sta succedendo in OpenAI? Metà del team di sicurezza se n'è andata!

Ci sono partenze nel team di sicurezza AGI di OpenAI. Sono emerse preoccupazioni sulla sicurezza dei sistemi di intelligenza artificiale (AGI).

C'è stata una partenza importante dal team di sicurezza #AGI di OpenAI, che è responsabile di garantire che i sistemi di intelligenza artificiale generale (AGI) che sviluppa non rappresentino una minaccia per l'umanità. Quasi la metà dei ricercatori di quel team ha lasciato l'azienda negli ultimi mesi, secondo l'ex ricercatore di governance di OpenAI Daniel Kokotajlo.

Dal 2024, il team AGI del gigante dell'intelligenza artificiale OpenAI, che conosciamo dai modelli GPT del linguaggio come #ChatGPT , è diminuito da circa 30 persone a 16 persone. Ciò ha sollevato preoccupazioni sul fatto che OpenAI presti sufficiente attenzione alla sicurezza.

Secondo Kokotajlo, queste partenze non sono state il risultato di un movimento organizzato, ma piuttosto di singoli ricercatori che hanno deciso di lasciare l'azienda. #OpenAI ha affermato in una dichiarazione di essere fiduciosa nella sua capacità di fornire i sistemi di intelligenza artificiale più sicuri al mondo.

Tuttavia, non si può ignorare che queste importanti partenze sollevano interrogativi sul futuro dell'azienda nella ricerca sulla sicurezza. Questo sviluppo solleva interrogativi come il modo in cui #OpenAI affronterà la sicurezza dei futuri sistemi AGI e su quali nuovi progetti si concentreranno i ricercatori che lasciano questo team.