William Saunders, ex dipendente di OpenAI e membro del "team di superallineamento" dell'azienda, ha recentemente rivelato di aver lasciato l'azienda perché sentiva che era in rotta di collisione con la tragedia, proprio come lo sfortunato R.M.S. Titanic nel 1912.

Come notato da Business Insider, Saunders ha rilasciato il suo commento durante un episodio del podcast del giornalista tecnologico Alex Kantrowitz.

Saunders ha detto a Kantrowitz che durante i suoi tre anni presso OpenAI, a volte si chiedeva se la società stesse seguendo un percorso che fosse "più simile al programma Apollo o più simile al Titanic".

Il suo ragionamento sembra essere che, grazie a un cauto sforzo scientifico, il programma spaziale Apollo fu un successo, nonostante i suoi insuccessi, mentre il Titanic fu un fallimento nonostante i suoi successi.

Per Saunders:

“È stato necessario molto lavoro per rendere la nave sicura e costruire compartimenti stagni in modo che potessero dire che era inaffondabile. Ma allo stesso tempo non c’erano abbastanza scialuppe di salvataggio per tutti”.

OpenAI come il Titanic

Saunders descrive l’etica generale dell’azienda come quella che attribuisce una priorità maggiore allo sviluppo del prodotto piuttosto che all’implementazione di ragionevoli precauzioni di sicurezza.

Dipinge l’immagine di un ufficio in cui i dipendenti che sollevano problemi di sicurezza vengono puniti e la leadership è focalizzata sul profitto.

"Col tempo", ha detto Saunders, "ha iniziato a sembrare davvero che le decisioni prese dalla leadership fossero più simili a quelle della White Star Line che costruiva il Titanic".

L'iceberg

Saunders non è la prima persona a non essere d'accordo con il modo in cui OpenAI presumibilmente fa affari. Elon Musk, uno dei cofondatori dell'azienda, ha recentemente citato in giudizio l'azienda sostenendo che si era allontanata troppo dalla sua missione originale. Questo, nonostante il fatto che Musk non abbia alcun coinvolgimento con OpenAI da anni e attualmente gestisca il proprio concorrente diretto, xAI. La causa è stata successivamente ritirata.

La società rivale di intelligenza artificiale Anthropic è stata fondata nel 2021 da ex dipendenti e cofondatori di OpenAI perché temevano che OpenAI non fosse sufficientemente focalizzata sulla fiducia e sulla sicurezza. 

D'altro canto, Ilya Sutskever, un altro cofondatore ormai estraneo ed ex capo scienziato, che ha lasciato l'azienda nel maggio 2024 per avviare la propria azienda, ha scritto all'epoca che era "fiducioso" che il team OpenAI sarebbe stato in grado di lavorare in sicurezza raggiungere i suoi obiettivi.

Con così tanti dipendenti che abbandonano la nave e l’analogia con il Titanic viene sbandierata da almeno uno, la domanda è: chi o cosa è l’iceberg?

Se i passeggeri dell’analogia siamo noi – tutta l’umanità – allora l’iceberg rappresenta la minaccia esistenziale che ChatGPT e sistemi simili pongono a una società impreparata. Se l’intelligenza artificiale diventasse più intelligente e capace di noi, e non avessimo abbastanza “scialuppe di salvataggio” per proteggere tutti dai suoi potenziali danni, allora potremmo andare incontro a una tragedia.

Ma se i passeggeri sono azionisti e stakeholder che aspettano che OpenAI crei un’intelligenza artificiale intelligente quanto gli esseri umani, e ciò non accade mai, allora forse l’iceberg rappresenta lo scoppio della bolla dell’intelligenza artificiale generativa.

Correlato: la Big Tech dovrà affrontare una resa dei conti finanziaria se l’intelligenza artificiale a livello umano non verrà implementata presto