O CEO da plataforma blockchain Tether, Paolo Ardoino afirma que somente se os modelos de inteligência artificial (IA) forem localizados as pessoas e a privacidade serão protegidas. 

Ardoino disse que os modelos de IA executáveis ​​localmente também garantirão a resiliência e independência dos modelos.

Ele apontou para a tecnologia mais recente disponível para usuários, como smartphones e laptops, dizendo que eles contêm energia suficiente para “ajustar modelos gerais de linguagem grande (LLMs) com os próprios dados do usuário, preservando melhorias localmente no dispositivo”.

A postagem X terminava com “WIP”, o acrônimo comum para “trabalho em andamento”.

Falando ao Cointelegraph, Ardoino disse que os modelos de IA executáveis ​​localmente representam uma “mudança de paradigma” na privacidade e independência do usuário.

“Ao rodar diretamente no dispositivo do usuário, seja um smartphone ou laptop, esses modelos eliminam a necessidade de servidores de terceiros. Isto não só garante que os dados permaneçam locais, aumentando a segurança e a privacidade, mas também permite o uso offline.”

Ele disse que isso permite que os usuários desfrutem de “experiências poderosas e análises de dados baseadas em IA”, mantendo ao mesmo tempo controle total sobre suas informações.

A Tether anunciou recentemente sua expansão para IA, ao que Ardoino disse que está “explorando ativamente” a integração de modelos executáveis ​​localmente em suas soluções de IA.

Isso é uma resposta a um anúncio recente de um hack experimentado pelo desenvolvedor de IA OpenAI, o cérebro por trás do popular chatbot ChatGPT.

Segundo relatos, no início de 2023, um hacker recuperou o acesso aos sistemas internos de mensagens da OpenAI. Através deste acesso, eles conseguiram comprometer detalhes do design de IA da empresa.

As duas fontes próximas ao assunto disseram que o hacker roubou detalhes de discussões delicadas entre funcionários da OpenAI sobre as tecnologias da empresa.

Relacionado: Big Tech enfrentará um acerto de contas financeiro se a IA de nível humano não acontecer logo

Além disso, os usuários do ChatGPT foram alertados depois que foi revelado que as conversas dos usuários no macOS não eram criptografadas, mas armazenadas em arquivos de texto simples. 

Isso ocorre logo após o anúncio da integração do ChatGPT pela Apple com sua nova linha “Apple Intelligence” de produtos e serviços baseados em IA.

O problema já foi resolvido, embora a comunidade ainda esteja questionando por que isso aconteceu. Algumas hipóteses são de que seria fácil para a OpenAI acessar os logs de chat para desenvolver e treinar ainda mais o ChatGPT.

OpenAI está entre um dos principais desenvolvedores de IA que atualmente lança modelos de IA de alto nível, ao lado de Google, Meta e Microsoft. Os analistas da indústria, e até mesmo os governos de todo o mundo, têm-se preocupado com o que um monopólio da Big Tech sobre os modelos de IA poderia significar para os utilizadores em termos de privacidade e controlo de dados.

Muitos até apelaram à descentralização da IA, com iniciativas como a 6079 que defendem desafiar explicitamente o domínio da Big Tech na indústria da IA ​​para um futuro mais justo.

Revista: Investidores ‘Raider’ estão saqueando DAOs – Nouns e Aragon compartilham lições aprendidas