Cover Image

El director ejecutivo de Tether, Paolo Ardoino, acudió recientemente a la red social X para advertir sobre los peligros de los modelos de lenguajes grandes (LLM) centralizados. 

Ardoino señaló los informes sobre OpenAI, la empresa líder en inteligencia artificial generativa, que sufrió una importante violación de seguridad a principios de 2023, y describió el incidente como "aterrador". 

OpenAI decidió no revelar la violación a pesar de que cierta información confidencial terminó siendo expuesta, según un informe reciente del New York Times. 

tarjeta

El ex investigador de OpenAI, Leopold Aschenbrenner, criticó a la empresa por sus medidas de seguridad inadecuadas que podrían hacerla vulnerable a actores maliciosos vinculados a gobiernos extranjeros. Aschenbrenner afirmó que el líder de AI decidió cortar los lazos con él por motivos políticos. Sin embargo, la compañía negó que el incidente antes mencionado fuera la razón por la cual el investigador fue despedido, y agregó que la infracción se reveló incluso antes de que OpenAI lo contratara. 

Aún así, existen algunas preocupaciones sobre que los secretos de OpenAI terminen en manos de China a pesar de que la compañía afirma que no existen riesgos para la seguridad nacional con su tecnología actual. 

tarjeta

Además de los incidentes de seguridad, los modelos centralizados de IA también enfrentan críticas por el uso poco ético de datos y la censura. El jefe de Tether cree que desbloquear el poder de los modelos locales de IA es "la única manera" de abordar las preocupaciones sobre la privacidad, además de garantizar la resiliencia y la independencia.  

"Los modelos de IA ejecutables localmente son la única manera de proteger la privacidad de las personas y garantizar la resiliencia/independencia", dijo Ardoino en una publicación en la red social X. 

Ha añadido que los teléfonos inteligentes y portátiles modernos son lo suficientemente potentes como para perfeccionar los LLM generales.