Os participantes do Web3 devem se concentrar em cenários segmentados e aproveitar ao máximo suas vantagens únicas em resistência à censura, transparência e verificabilidade social.

Autor: David & Goliath

Compilação: Deep Tide TechFlow

Atualmente, as etapas de computação e treinamento na indústria de IA são dominadas por gigantes centralizados da Web2. Essas empresas, com seu forte poder de capital, equipamentos de hardware de última geração e grandes recursos de dados, dominam o mercado. Embora essa situação possa persistir na busca pelo desenvolvimento dos modelos de aprendizado de máquina (ML) mais poderosos, para modelos de médio porte ou personalizados, a rede Web3 pode gradualmente se tornar uma fonte de recursos computacionais mais econômica e acessível.

Da mesma forma, quando a demanda por inferência excede a capacidade dos dispositivos de borda individuais, alguns consumidores podem optar por redes Web3 para obter saídas com menos censura e mais diversidade. Em vez de tentar reverter completamente toda a pilha de tecnologia de IA, os participantes do Web3 devem se concentrar nesses cenários segmentados e aproveitar ao máximo suas vantagens únicas em resistência à censura, transparência e verificabilidade social.

Os recursos de hardware necessários para treinar modelos fundamentais de próxima geração (como GPT ou BERT) são escassos e caros, e a demanda por chips de alto desempenho continuará superando a oferta. Essa escassez de recursos resulta na concentração de hardware nas mãos de algumas empresas de ponta com capital suficiente, que utilizam esse hardware para treinar e comercializar modelos fundamentais de desempenho ideal e complexidade elevada.

No entanto, a velocidade de atualização do hardware é muito rápida. Então, como será que o hardware de médio ou baixo desempenho, que está obsoleto, será utilizado?

Esse hardware provavelmente será usado para treinar modelos mais simples ou mais direcionados. Ao combinar diferentes categorias de modelos com hardware de diferentes desempenhos, é possível otimizar a alocação de recursos. Nesse caso, o protocolo Web3 pode desempenhar um papel crucial ao coordenar o acesso a recursos computacionais diversificados e de baixo custo. Por exemplo, os consumidores podem usar modelos de médio porte treinados com conjuntos de dados pessoais, escolhendo apenas modelos de alto desempenho treinados e hospedados por empresas centralizadas ao lidar com tarefas mais complexas, garantindo ao mesmo tempo que a identidade do usuário seja ocultada e os dados de prompt sejam criptografados.

Além das questões de eficiência, as preocupações sobre preconceitos e possíveis censuras em modelos centralizados estão crescendo. O ambiente Web3 é conhecido por sua transparência e verificabilidade, podendo oferecer suporte ao treinamento de modelos que foram ignorados ou considerados sensíveis demais no Web2. Embora esses modelos possam não ser competitivos em termos de desempenho e inovação, ainda assim têm um valor significativo para certos grupos na sociedade. Assim, os protocolos Web3 podem abrir um mercado único nesse campo ao oferecer serviços de treinamento de modelos mais abertos, confiáveis e resistentes à censura.

Inicialmente, as duas abordagens, centralizada e descentralizada, podem coexistir, atendendo a diferentes casos de uso. No entanto, à medida que o Web3 continua a melhorar a experiência do desenvolvedor e a compatibilidade da plataforma, e os efeitos de rede da IA de código aberto começam a se manifestar, o Web3 pode eventualmente competir nos principais domínios das empresas centralizadas. Especialmente à medida que os consumidores se tornam cada vez mais cientes das limitações dos modelos centralizados, as vantagens do Web3 se tornarão ainda mais evidentes.

Além do treinamento de modelos de médio porte ou de nicho, os participantes do Web3 também têm a vantagem de fornecer soluções de inferência mais transparentes e flexíveis. Os serviços de inferência descentralizados podem trazer diversos benefícios, como tempo de inatividade zero, combinação modular de modelos, avaliações de desempenho de modelos públicas e saídas mais diversificadas e sem censura. Esses serviços também podem evitar efetivamente o problema de "lock-in" do fornecedor que os consumidores enfrentam ao depender de alguns poucos provedores centralizados. Semelhante ao treinamento de modelos, a vantagem competitiva da camada de inferência descentralizada não reside na capacidade computacional em si, mas na solução de problemas de longa data, como a transparência dos parâmetros de ajuste fino de código fechado, a falta de verificabilidade e os altos custos.

Dan Olshansky apresentou uma ideia promissora de criar mais oportunidades para pesquisadores e engenheiros de IA através da rede de roteamento de inferência de IA da POKT, permitindo que eles coloquem suas descobertas em prática e ganhem renda adicional por meio de modelos personalizados de aprendizado de máquina (ML) ou inteligência artificial (IA). Mais importante ainda, essa rede pode promover uma concorrência mais justa no mercado de serviços de inferência ao integrar resultados de inferência de diferentes fontes (incluindo provedores descentralizados e centralizados).

Embora previsões otimistas sugiram que toda a pilha de tecnologia de IA pode migrar completamente para a blockchain no futuro, esse objetivo ainda enfrenta enormes desafios de centralização de dados e recursos computacionais, pois esses recursos proporcionam uma vantagem competitiva significativa para os atuais gigantes do setor. No entanto, redes de coordenação e computação descentralizadas mostram um valor único na oferta de serviços de IA mais personalizados, econômicos, com competição mais aberta e resistência à censura. Ao se concentrar nesses mercados segmentados, onde esses valores são mais críticos, o Web3 pode estabelecer suas próprias barreiras competitivas, garantindo que as tecnologias mais influentes desta era possam evoluir em várias direções, beneficiando um espectro mais amplo de partes interessadas, em vez de serem monopolizadas por alguns poucos gigantes tradicionais.

Por fim, gostaria de agradecer especialmente a todos os membros da equipe da Placeholder Investment, bem como a Kyle Samani da Multicoin Capital, Anand Iyer da Canonical VC, Keccak Wong da Nectar AI, Alpin Yukseloglu da Osmosis Labs e Cameron Dennis da NEAR Foundation, que forneceram revisão e feedback valiosos durante a redação deste artigo.