Selon U.Today, Paolo Ardoino, PDG de Tether, a exprimé ses inquiétudes quant aux risques associés aux grands modèles de langage centralisés (LLM). Les commentaires d'Ardoino font suite à des informations faisant état d'une faille de sécurité importante chez OpenAI, l'une des principales sociétés d'IA générative, début 2023. Il a qualifié l'incident d'« effrayant » et a critiqué OpenAI pour ne pas avoir divulgué la faille, ce qui a entraîné la révélation de certains information sensible.

Leopold Aschenbrenner, ancien chercheur d'OpenAI, a également critiqué l'entreprise pour ses mesures de sécurité inadéquates, qui, selon lui, pourraient la rendre vulnérable à des acteurs malveillants liés à des gouvernements étrangers. Aschenbrenner a affirmé avoir été licencié de l'entreprise pour des raisons politiques, une affirmation qu'OpenAI a démentie. L'entreprise a déclaré que le manquement avait été révélé avant l'embauche d'Aschenbrenner et que son licenciement n'était pas lié à l'incident.

Malgré les assurances d'OpenAI, des inquiétudes persistent quant au risque que les secrets de l'entreprise tombent entre les mains de la Chine. Cependant, OpenAI maintient qu’il n’y a aucun risque pour la sécurité nationale associé à leur technologie actuelle.

Outre les incidents de sécurité, les modèles d’IA centralisés ont également été critiqués pour leur utilisation contraire à l’éthique des données et leur censure. Ardoino estime que la solution à ces problèmes réside dans la libération de la puissance des modèles d’IA locaux. Il a déclaré que « les modèles d'IA exécutables localement sont le seul moyen de protéger la vie privée des personnes et de garantir la résilience/l'indépendance ». Ardoino a également noté que les smartphones et ordinateurs portables modernes disposent de suffisamment de puissance pour affiner les LLM généraux.