Según U.Today, el director ejecutivo de Tether, Paolo Ardoino, ha expresado su preocupación por los riesgos asociados con los modelos de lenguajes grandes (LLM) centralizados. Los comentarios de Ardoino se produjeron a raíz de informes sobre una importante violación de seguridad en OpenAI, una empresa líder en inteligencia artificial generativa, a principios de 2023. Describió el incidente como "aterrador" y criticó a OpenAI por no revelar la violación, lo que resultó en la exposición de algunos información sensible.

El ex investigador de OpenAI, Leopold Aschenbrenner, también criticó a la empresa por sus medidas de seguridad inadecuadas, que cree que podrían hacerla vulnerable a actores maliciosos vinculados a gobiernos extranjeros. Aschenbrenner afirmó que fue despedido de la empresa por motivos políticos, afirmación que OpenAI ha negado. La empresa afirmó que el incumplimiento fue revelado antes del empleo de Aschenbrenner y que su despido no estaba relacionado con el incidente.

A pesar de las garantías de OpenAI, persisten las preocupaciones sobre la posibilidad de que los secretos de la empresa caigan en manos de China. Sin embargo, OpenAI sostiene que no existen riesgos de seguridad nacional asociados con su tecnología actual.

Además de los incidentes de seguridad, los modelos centralizados de IA también han sido criticados por el uso poco ético de datos y la censura. Ardoino cree que la solución a estos problemas radica en desbloquear el poder de los modelos locales de IA. Afirmó que "los modelos de IA ejecutables localmente son la única manera de proteger la privacidad de las personas y garantizar la resiliencia/independencia". Ardoino también señaló que los teléfonos inteligentes y portátiles modernos tienen potencia suficiente para ajustar los LLM generales.