Cover Image

Il CEO di Tether, Paolo Ardoino, si è recentemente rivolto al social network X per mettere in guardia sulle insidie ​​dei modelli linguistici di grandi dimensioni (LLM) centralizzati. 

Ardoino ha sottolineato i rapporti secondo cui OpenAI, la principale società di intelligenza artificiale generativa, ha subito una grave violazione della sicurezza all'inizio del 2023, descrivendo l'incidente come "spaventoso". 

Secondo un recente rapporto del New York Times, OpenAI ha scelto di non rivelare la violazione nonostante il fatto che alcune informazioni sensibili siano state scoperte. 

carta

L'ex ricercatore di OpenAI Leopold Aschenbrenner ha criticato l'azienda per le sue misure di sicurezza inadeguate che potrebbero renderla vulnerabile ad attori malintenzionati legati a governi stranieri. Aschenbrenner ha affermato che il leader dell’AI ha scelto di recidere i legami con lui a causa della politica. Tuttavia, la società ha negato che l’incidente di cui sopra sia stato il motivo per cui il ricercatore è stato licenziato, aggiungendo che la violazione è stata resa nota ancor prima che fosse assunto da OpenAI. 

Tuttavia, ci sono alcune preoccupazioni sul fatto che i segreti di OpenAI finiscano nelle mani della Cina, nonostante la società affermi che non ci sono rischi per la sicurezza nazionale con la loro attuale tecnologia. 

carta

Oltre agli incidenti di sicurezza, i modelli di intelligenza artificiale centralizzata devono affrontare anche critiche per l’utilizzo non etico dei dati e la censura. Il capo di Tether ritiene che sbloccare il potere dei modelli di intelligenza artificiale locale sia “l’unico modo” per affrontare i problemi di privacy e garantire resilienza e indipendenza.  

"I modelli di intelligenza artificiale eseguibili localmente sono l'unico modo per proteggere la privacy delle persone e garantire resilienza/indipendenza", ha affermato Ardoino in un post sul social network X. 

Ha aggiunto che i moderni smartphone e laptop sono abbastanza potenti per mettere a punto i LLM generali.