Il CEO di OpenAI, Sam Altman, si è dimesso dal Safety and Security Committee interno dell'azienda, un gruppo istituito a maggio per supervisionare le decisioni critiche in materia di sicurezza. Le dimissioni di Altman giungono in un momento in cui i legislatori statunitensi e gli ex dipendenti di OpenAI hanno sollevato preoccupazioni sulla sicurezza e la conformità legale dell'azienda.
Il Safety and Security Committee lavorerà ora come un comitato separato a livello di consiglio che monitora i problemi di sicurezza e protezione. Questo cambiamento ha nominato Zico Kolter, un professore della Carnegie Mellon University, come suo presidente, insieme al CEO di Quora Adam D'Angelo, al generale in pensione dell'esercito americano Paul Nakasone e all'ex dirigente Sony Nicole Seligman. Tutti loro sono membri attuali del consiglio di OpenAI. Il gruppo avrà ancora il potere di trattenere il rilascio di modelli di intelligenza artificiale fino a quando non saranno risolti i problemi di sicurezza.
I critici mettono in discussione le priorità di OpenAI mentre il personale chiave se ne va
In un post sul blog dopo la partenza di Altman, OpenAI ha ribadito la sua attenzione sulla sicurezza e ha osservato che il comitato aveva precedentemente approvato la sicurezza del modello più recente, o1. Il gruppo riceverà inoltre regolarmente ulteriori informazioni dal personale addetto alla sicurezza e alla protezione dell'azienda per tenere aggiornati e informati i membri sulle future versioni dei modelli AI. Ha inoltre affermato che intende migliorare le misure di sicurezza adottando revisioni tecniche e obiettivi ben delineati per i lanci dei modelli.
Ciò avviene sulla scia delle critiche, in particolare da parte di cinque senatori statunitensi che hanno espresso preoccupazione per le misure di sicurezza dell'azienda in estate. I critici hanno anche notato che più della metà del personale incaricato di gestire le conseguenze a lungo termine dell'IA ha lasciato l'azienda. Alcuni hanno affermato che Altman è più preoccupato per l'aspetto commerciale dell'IA che per la regolamentazione della tecnologia.
Le spese di OpenAI sono in aumento. Nella prima metà del 2024, la società ha speso 800.000 $ in attività di lobbying federale, un aumento significativo rispetto ai 260.000 $ spesi per l'intero 2023. All'inizio di quest'anno, Altman è diventato membro dell'Artificial Intelligence Safety and Security Board del Dipartimento della sicurezza interna degli Stati Uniti. Il comitato dovrebbe fornire consulenza sull'uso dell'IA nei sistemi critici del paese.
Ci sono ancora domande sull'autoregolamentazione del gigante dell'intelligenza artificiale. In un articolo di opinione per The Economist, gli ex membri del consiglio di amministrazione di OpenAI Helen Toner e Tasha McCauley hanno sollevato dubbi sulla capacità dell'azienda di autocontrollarsi. Hanno affermato che gli incentivi al profitto potrebbero minare l'autogoverno di OpenAI, che ritengono possa essere in contrasto con gli obiettivi di sicurezza a lungo termine.
OpenAI cerca finanziamenti massicci e pianifica il passaggio al modello a scopo di lucro
OpenAI starebbe discutendo per assicurarsi un nuovo massiccio round di finanziamenti che potrebbe spingere la sua valutazione a 150 miliardi di $. In un recente rapporto di Cryptopolitan, OpenAI prevede di assicurarsi 6,5 miliardi di $ dagli investitori alla sua valutazione attuale. OpenAI starebbe pianificando di trasformare il suo attuale modello operativo verso un modello tradizionale a scopo di lucro entro il 2025.
Il CEO di OpenAI, Sam Altman, ha rivelato i cambiamenti allo staff durante un recente incontro, ma non ha rivelato molto su cosa aspettarsi. Altman ha affermato che l'azienda era "cresciuta troppo" per la struttura attuale ed era pronta ad abbandonare il modello non-profit.