Cover Image

Paolo Ardoino, PDG de Tether, s'est récemment rendu sur le réseau social X pour mettre en garde contre les pièges des grands modèles de langage centralisés (LLM). 

Ardoino a souligné les informations selon lesquelles OpenAI, la principale société d'IA générative, aurait subi une faille de sécurité majeure début 2023, qualifiant l'incident d'"effrayant". 

OpenAI a choisi de ne pas divulguer la violation malgré le fait que certaines informations sensibles ont fini par être exposées, selon un récent rapport du New York Times. 

carte

Leopold Aschenbrenner, ancien chercheur d'OpenAI, a critiqué l'entreprise pour ses mesures de sécurité inadéquates qui pourraient la rendre vulnérable à des acteurs malveillants liés à des gouvernements étrangers. Aschenbrenner a affirmé que le leader d’AI avait choisi de rompre les liens avec lui pour des raisons politiques. Cependant, la société a nié que l'incident susmentionné ait été la raison pour laquelle le chercheur a été licencié, ajoutant que la violation avait été divulguée avant même qu'il ne soit embauché par OpenAI. 

Il existe néanmoins certaines inquiétudes quant au fait que les secrets d'OpenAI finissent entre les mains de la Chine, bien que la société affirme qu'il n'y a aucun risque pour la sécurité nationale avec sa technologie actuelle. 

carte

Outre les incidents de sécurité, les modèles d’IA centralisés sont également critiqués pour leur utilisation contraire à l’éthique des données et leur censure. Le patron de Tether estime que libérer la puissance des modèles d'IA locaux est « le seul moyen » de répondre aux problèmes de confidentialité tout en garantissant la résilience et l'indépendance.  

"Les modèles d'IA exécutables localement sont le seul moyen de protéger la vie privée des personnes et de garantir leur résilience/indépendance", a déclaré Ardoino dans un message publié sur le réseau social X. 

Il a ajouté que les smartphones et ordinateurs portables modernes sont suffisamment puissants pour affiner les LLM généraux.