Secondo U.Today, il CEO di Tether Paolo Ardoino ha espresso preoccupazione per i rischi associati ai grandi modelli linguistici centralizzati (LLM). I commenti di Ardoino sono arrivati ​​sulla scia delle segnalazioni di una significativa violazione della sicurezza presso OpenAI, una delle principali società di intelligenza artificiale generativa, all'inizio del 2023. Ha descritto l'incidente come "spaventoso" e ha criticato OpenAI per non aver rivelato la violazione, che ha portato all'esposizione di alcuni informazione sensibile.

Anche l’ex ricercatore di OpenAI Leopold Aschenbrenner ha criticato l’azienda per le sue misure di sicurezza inadeguate, che a suo avviso potrebbero renderla vulnerabile ad attori malintenzionati legati a governi stranieri. Aschenbrenner ha affermato di essere stato licenziato dalla società per motivi politici, affermazione che OpenAI ha negato. La società ha dichiarato che la violazione era stata scoperta prima dell'assunzione di Aschenbrenner e che il suo licenziamento non era correlato all'incidente.

Nonostante le assicurazioni di OpenAI, persistono preoccupazioni sul fatto che i segreti dell'azienda possano cadere nelle mani della Cina. Tuttavia, OpenAI sostiene che non vi sono rischi per la sicurezza nazionale associati alla loro attuale tecnologia.

Oltre agli incidenti di sicurezza, i modelli di intelligenza artificiale centralizzata sono stati criticati anche per l’utilizzo non etico dei dati e la censura. Ardoino ritiene che la soluzione a questi problemi risieda nello sbloccare la potenza dei modelli di intelligenza artificiale locale. Ha affermato che "i modelli di intelligenza artificiale eseguibili localmente sono l'unico modo per proteggere la privacy delle persone e garantire resilienza/indipendenza". Ardoino ha inoltre osservato che i moderni smartphone e laptop hanno una potenza sufficiente per mettere a punto i LLM generali.