Diversi dipendenti attuali ed ex di OpenAI e Google DeepMind hanno accusato le loro aziende di nascondere i rischi dell’IA che potrebbero potenzialmente innescare l’estinzione umana. In una lettera aperta, i lavoratori hanno affermato che le aziende di intelligenza artificiale stanno mettendo al primo posto il profitto evitando “un’efficace supervisione [governativa]”.

Leggi anche: OpenAI allinea il successore di GPT-4 tra preoccupazioni sulla sicurezza

La lettera aperta è stata firmata da 11 ex dipendenti di OpenAI, due di Google DeepMind, e approvata dal “padrino dell’intelligenza artificiale” Geoffrey Hinton, ex Google. Ha affermato che le motivazioni del profitto e le scappatoie normative consentono alle aziende di nascondere le minacce poste dall’intelligenza artificiale avanzata.

L’intelligenza artificiale potrebbe portare all’estinzione umana

Secondo la lettera, aziende di intelligenza artificiale come OpenAI e Google DeepMind, creatrice di Gemini, non hanno condiviso pubblicamente informazioni sulle garanzie inadeguate e sui livelli di rischio dei loro sistemi perché non sono obbligate a farlo.

Senza un controllo normativo, i programmi di intelligenza artificiale potrebbero causare gravi danni agli esseri umani. I dipendenti hanno avvertito:

“Questi rischi vanno dall’ulteriore radicamento delle disuguaglianze esistenti… alla perdita di controllo dei sistemi di intelligenza artificiale autonomi, con conseguente potenziale estinzione umana”.

Come notato dai firmatari della lettera, le stesse aziende di intelligenza artificiale hanno riconosciuto questi rischi. Nel maggio 2023, i CEO di OpenAI, Anthropic e Google DeepMind hanno firmato una lettera aperta da parte del Center for AI Safety. La lettera diceva semplicemente: “Mitigare il rischio di estinzione dovuta all’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”.

Le aziende di intelligenza artificiale sono sempre più sotto esame per aver anteposto nuovi prodotti e profitti alla sicurezza. OpenAI, produttore di ChatGPT, ha preso atto delle preoccupazioni sollevate nella lettera e ha affermato che sta lavorando per sviluppare un'intelligenza artificiale sicura.

“Siamo orgogliosi della nostra esperienza nel fornire l’A.I. più capace e sicura. sistemi e crediamo nel nostro approccio scientifico per affrontare il rischio”, ha detto al New York Times la portavoce di OpenAI Lindsey Held.

“Siamo d’accordo sul fatto che un dibattito rigoroso sia fondamentale data l’importanza di questa tecnologia, e continueremo a impegnarci con i governi, la società civile e altre comunità in tutto il mondo”.

Gli informatori temono ritorsioni

Gli ex dipendenti di OpenAI e Google hanno affermato che vorrebbero ricoprire il ruolo di supervisione mentre i regolatori elaborano leggi che obblighino gli sviluppatori di intelligenza artificiale a divulgare pubblicamente maggiori informazioni sui loro programmi.

Tuttavia, gli accordi di riservatezza e il rischio di ritorsioni da parte dei datori di lavoro scoraggiano i lavoratori dall’esprimere pubblicamente le proprie preoccupazioni. Secondo la lettera:

“Alcuni di noi temono ragionevolmente varie forme di ritorsione, data la storia di casi simili in tutto il settore. Non siamo i primi a incontrare o a parlare di questi problemi”.

Negli Stati Uniti gli informatori sono protetti dalla legge, ma coloro che denunciano i pericoli dell’intelligenza artificiale non sono coperti perché la tecnologia non è ancora regolamentata.

Leggi anche: ChatGPT diffonde ancora falsità, afferma il garante dei dati dell'UE

La lettera invita le società di intelligenza artificiale a facilitare un feedback anonimo e verificabile, a sostenere una cultura di critica aperta e a non compiere ritorsioni contro gli informatori.

Il ricercatore di intelligenza artificiale Lance B. Eliot ha affermato che le aziende adottano un approccio “bastone e carota” nei confronti delle critiche. I dipendenti che non si pronunciano contro i rischi vengono ricompensati con promozioni di lavoro e aumenti di stipendio.

D’altro canto, informatori e critici perdono le loro stock option e potrebbero essere costretti a lasciare l’azienda e inseriti silenziosamente nella lista nera dalla comunità dirigente dell’IA.

Reporting criptopolita di Jeffrey Gogo