Odaily Planet Daily News Il 14 maggio (martedì scorso), ora di New York, il capo scienziato di OpenAI Ilya Sutskever ha annunciato ufficialmente le sue dimissioni. Lo stesso giorno anche Jan Leike, uno dei leader del team OpenAI Super Alignment, ha annunciato le sue dimissioni. Venerdì, OpenAI ha anche confermato che il "Superintelligence Alignment Team" co-guidato da Suzkovo e Jan Lake è stato sciolto. La mattina presto del 18 maggio, Jane Lake ha pubblicato 13 tweet sulla piattaforma social X, rivelando il vero motivo delle sue dimissioni e ulteriori informazioni privilegiate. In risposta alle ultime informazioni di Jane Lake, Altman ha anche rilasciato una risposta urgente il 18 maggio: "Sono molto grato a Jane Lake per il suo contributo alla ricerca sul superallineamento dell'IA e alla cultura della sicurezza di OpenAI, e sono molto triste che abbia lasciato il Purtroppo ha notato che abbiamo ancora molto lavoro da fare e siamo d'accordo sul fatto che ci impegniamo a portare avanti questo lavoro, scriverò un articolo più dettagliato su questo problema nei prossimi giorni Musk ha commentato la notizia dello scioglimento del team "Super Alignment": "Ciò dimostra che la sicurezza non è la massima priorità di OpenAI. In sintesi, uno è che le risorse di calcolo non sono sufficienti, e l'altro è che OpenAI non paga abbastanza attenzione alla sicurezza. Jane Lake ha affermato che si dovrebbero investire più risorse ed energie nella preparazione della nuova generazione di modelli di intelligenza artificiale, ma l'attuale percorso di sviluppo non può raggiungere con successo l'obiettivo e il suo team ha dovuto affrontare enormi sfide negli ultimi mesi. È difficile ottenere risorse informatiche sufficienti. Jane Lake ha anche sottolineato che la creazione di macchine che superino l'intelligenza umana è piena di rischi e OpenAI si sta assumendo questa responsabilità, ma la cultura e i processi di sicurezza devono essere emarginati nel perseguimento dello sviluppo del prodotto trasformarsi in un'azienda. L'AGI mette la sicurezza al primo posto. Il sito americano Vox ha dichiarato il 17 novembre dello scorso anno che il consiglio di amministrazione di OpenAI ha tentato di licenziare l'amministratore delegato Altman. Da allora, Altman ha ripreso rapidamente il potere dei massimi dirigenti dell’azienda sono stati sostituiti. I dipendenti attenti alla sicurezza si sono dimessi o sono stati licenziati, ha affermato il Wall Street Journal. tecnologie.La rivista Wired ha detto che Suzkweil è stato uno dei quattro membri del consiglio che hanno licenziato Altman lo scorso novembre. Fonti dell'azienda hanno detto a Vox.com che i dipendenti attenti alla sicurezza hanno perso la fiducia in Ultraman "Questo è un processo di fiducia che crolla poco a poco, proprio come le tessere del domino che cadono una dopo l'altra". Credono che Ultraman affermi di mettere la sicurezza al primo posto, ma si contraddice nel suo comportamento. Il sito web del blog tecnologico statunitense TechCrunch ha dichiarato il 18 che OpenAI ha abbandonato la ricerca sulla sicurezza e ha lanciato invece nuovi prodotti come GPT-4o, che alla fine hanno portato alle dimissioni dei due leader del team "Super Alignment". Non è chiaro quando o se l’industria tecnologica raggiungerà le scoperte necessarie per creare un’intelligenza artificiale in grado di completare qualsiasi compito umano. (World Wide Web)