Secondo Cointelegraph, OpenAI, la società di ricerca e implementazione dell'intelligenza artificiale (AI) dietro ChatGPT, ha annunciato la creazione di un nuovo team dedicato al monitoraggio, valutazione, previsione e protezione da potenziali rischi catastrofici derivanti dall'intelligenza artificiale. La nuova divisione, chiamata “Preparazione”, si concentrerà sulle minacce legate all’intelligenza artificiale legate a minacce chimiche, biologiche, radiologiche e nucleari, persuasione individualizzata, sicurezza informatica e replica e adattamento autonomi.

Guidato da Aleksander Madry, il team di preparazione tenterà di rispondere a domande come quanto siano pericolosi i sistemi di intelligenza artificiale di frontiera se utilizzati in modo improprio e se gli autori malintenzionati potrebbero implementare pesi di modelli di intelligenza artificiale rubati. OpenAI riconosce che, sebbene i modelli di intelligenza artificiale di frontiera abbiano il potenziale per apportare benefici all’umanità, comportano anche rischi sempre più gravi. L’azienda è impegnata ad affrontare l’intero spettro dei rischi per la sicurezza legati all’intelligenza artificiale, dai sistemi attuali fino ai confini più remoti della superintelligenza.

OpenAI è attualmente alla ricerca di talenti con diversi background tecnici per il suo nuovo team di preparazione e sta lanciando una sfida di preparazione all'intelligenza artificiale per la prevenzione di abusi catastrofici, offrendo 25.000 dollari in crediti API ai suoi 10 migliori iscritti. I rischi associati all’intelligenza artificiale sono stati spesso evidenziati, con la preoccupazione che l’intelligenza artificiale possa diventare più intelligente di qualsiasi essere umano. Nonostante questi rischi, aziende come OpenAI continuano a sviluppare nuove tecnologie di intelligenza artificiale, suscitando ulteriori preoccupazioni. Nel maggio 2023, l’organizzazione no-profit Center for AI Safety ha pubblicato una lettera aperta sul rischio dell’IA, esortando la comunità a mitigare i rischi di estinzione dell’IA come priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare.