Cover Image

O CEO da Tether, Paolo Ardoino, recentemente acessou a rede de mídia social X para alertar sobre as armadilhas dos grandes modelos de linguagem centralizados (LLMs). 

Ardoino apontou para os relatórios sobre a OpenAI, a empresa líder em IA generativa, que sofreu uma grande violação de segurança no início de 2023, descrevendo o incidente como “assustador”. 

A OpenAI optou por não divulgar a violação, apesar de algumas informações confidenciais terem sido expostas, de acordo com um relatório recente do The New York Times. 

cartão

O ex-pesquisador da OpenAI Leopold Aschenbrenner criticou a empresa por suas medidas de segurança inadequadas que poderiam torná-la vulnerável a atores maliciosos ligados a governos estrangeiros. Aschenbrenner afirmou que o líder da IA ​​​​escolheu romper os laços com ele por causa da política. No entanto, a empresa negou que o referido incidente tenha sido o motivo da demissão do pesquisador, acrescentando que a violação foi divulgada antes mesmo de ele ser contratado pela OpenAI. 

Ainda assim, existem algumas preocupações sobre os segredos da OpenAI acabarem nas mãos da China, apesar da empresa alegar que não há riscos de segurança nacional com a sua tecnologia atual. 

cartão

Além dos incidentes de segurança, os modelos centralizados de IA também enfrentam críticas pelo uso antiético de dados e pela censura. O chefe do Tether acredita que desbloquear o poder dos modelos locais de IA é “a única maneira” de abordar questões de privacidade, bem como garantir resiliência e independência.  

“Modelos de IA executáveis ​​localmente são a única maneira de proteger a privacidade das pessoas e garantir resiliência/independência”, disse Ardoino em um post na rede social X. 

Ele acrescentou que smartphones e laptops modernos são poderosos o suficiente para ajustar LLMs gerais.