Secondo Odaily, tredici ex e attuali dipendenti di OpenAI (ChatGPT), Anthropic (Claude) e DeepMind (Google), insieme ai principali esperti di intelligenza artificiale, stanno sostenendo una maggiore protezione degli informatori. L’obiettivo è quello di aumentare la consapevolezza del pubblico sui rischi associati ai sistemi avanzati di intelligenza artificiale.

Queste persone, che sono in prima linea nello sviluppo e nella ricerca sull’intelligenza artificiale, ritengono che sia fondamentale una maggiore protezione per coloro che espongono potenziali pericoli e pratiche non etiche nel settore. Questo per garantire che il pubblico sia ben informato sui potenziali rischi e sulle sfide che i sistemi avanzati di intelligenza artificiale possono porre.

La richiesta di una maggiore protezione degli informatori arriva in un momento in cui la tecnologia dell’intelligenza artificiale sta avanzando rapidamente e la sua integrazione in vari settori della società sta diventando sempre più diffusa. Pertanto, la necessità di trasparenza e responsabilità nel settore è più importante che mai. I sostenitori ritengono che, proteggendo coloro che sono disposti a parlare apertamente di questi problemi, il pubblico sarà meglio attrezzato per comprendere e navigare nelle complessità dei sistemi avanzati di intelligenza artificiale.