Autor: David & Goliath

Compilado por: 深潮TechFlow

Atualmente, as etapas de computação e treinamento na indústria de IA são dominadas por gigantes do Web2 centralizados. Essas empresas ocupam uma posição dominante devido ao seu forte poder de capital, hardware de ponta e vastos recursos de dados. Embora essa situação possa persistir ao desenvolver os modelos de aprendizado de máquina (ML) mais poderosos, para modelos intermediários ou personalizados, a rede Web3 pode gradualmente se tornar uma fonte de recursos computacionais mais econômica e acessível.

Da mesma forma, quando a demanda por inferência excede a capacidade dos dispositivos de borda individuais, alguns consumidores podem optar pela rede Web3, em busca de saídas mais diversificadas e com menos censura. Em vez de tentar revolucionar completamente toda a pilha de tecnologia de IA, os participantes do Web3 devem se concentrar nesses cenários de nicho e tirar proveito de suas vantagens únicas em resistência à censura, transparência e verificabilidade social.

Os recursos de hardware necessários para treinar modelos fundamentais de próxima geração (como GPT ou BERT) são escassos e caros, e a demanda por chips de alto desempenho continuará a superar a oferta. Essa escassez de recursos resulta na concentração de hardware nas mãos de um pequeno número de empresas líderes com capital suficiente, que utilizam esse hardware para treinar e comercializar os modelos fundamentais mais otimizados e mais complexos.

No entanto, a velocidade de atualização do hardware é extremamente rápida. Então, como os hardwares intermediários ou de baixo desempenho que estão desatualizados serão utilizados?

Esses hardwares provavelmente serão utilizados para treinar modelos mais simples ou com foco mais específico. Ao combinar diferentes categorias de modelos com hardwares de diferentes desempenhos, é possível otimizar a alocação de recursos. Nesse caso, o protocolo Web3 pode desempenhar um papel crucial ao coordenar o acesso a recursos computacionais diversificados e de baixo custo. Por exemplo, os consumidores podem usar modelos intermediários simples treinados com conjuntos de dados pessoais e optar pelos modelos de alto desempenho treinados e hospedados por empresas centralizadas apenas ao lidar com tarefas mais complexas, garantindo ao mesmo tempo que a identidade do usuário seja oculta e os dados de entrada sejam criptografados.

Além das questões de eficiência, as preocupações sobre preconceitos e a potencial censura em modelos centralizados estão crescendo. O ambiente Web3 é conhecido por sua transparência e verificabilidade, podendo oferecer suporte ao treinamento de modelos que foram ignorados ou considerados sensíveis demais pelo Web2. Embora esses modelos possam não ser competitivos em desempenho e inovação, ainda possuem um valor significativo para certos grupos sociais. Assim, o protocolo Web3 pode abrir um mercado único nesse espaço ao oferecer serviços de treinamento de modelos mais abertos, confiáveis e resistentes à censura.

Inicialmente, os métodos centralizados e descentralizados podem coexistir, cada um servindo a diferentes casos de uso. No entanto, à medida que o Web3 continua a melhorar a experiência do desenvolvedor e a compatibilidade da plataforma, e os efeitos de rede da IA de código aberto começam a se manifestar, o Web3 pode eventualmente competir nos domínios centrais das empresas centralizadas. Especialmente quando os consumidores se tornam cada vez mais conscientes das limitações dos modelos centralizados, as vantagens do Web3 se tornam mais evidentes.

Além do treinamento de modelos intermediários ou de nicho, os participantes do Web3 também têm a vantagem de oferecer soluções de inferência mais transparentes e flexíveis. Os serviços de inferência descentralizados podem trazer uma variedade de benefícios, como zero tempo de inatividade, combinação modular de modelos, avaliação pública de desempenho de modelos e saídas mais diversificadas e sem censura. Esses serviços também ajudam a evitar efetivamente o problema de 'lock-in' de fornecedores que os consumidores enfrentam ao depender de um pequeno número de provedores centralizados. Semelhante ao treinamento de modelos, a vantagem competitiva da camada de inferência descentralizada não reside apenas na capacidade computacional, mas na solução de alguns problemas de longa data, como a transparência dos parâmetros de ajuste de código fechado, a falta de verificabilidade e os altos custos.

Dan Olshansky apresentou uma ideia promissora de criar mais oportunidades para pesquisadores e engenheiros de IA por meio da rede de roteamento de inferência de IA do POKT, permitindo que eles coloquem suas descobertas em prática e ganhem receita adicional através de modelos de aprendizado de máquina (ML) ou inteligência artificial (IA) personalizados. Mais importante ainda, essa rede pode promover uma competição mais justa no mercado de serviços de inferência ao integrar resultados de inferência de diferentes fontes (incluindo provedores descentralizados e centralizados).

Embora previsões otimistas sugiram que toda a pilha de tecnologia de IA pode migrar completamente para a blockchain no futuro, atualmente, esse objetivo ainda enfrenta enormes desafios devido à concentração de dados e recursos computacionais, que conferem uma vantagem competitiva significativa aos gigantes existentes. No entanto, redes descentralizadas de coordenação e computação demonstraram um valor único ao oferecer serviços de IA mais personalizados, econômicos, competitivos e resistentes à censura. Ao se concentrar nesses mercados de nicho onde esses valores são mais críticos, o Web3 pode estabelecer suas próprias barreiras competitivas, garantindo que as tecnologias mais impactantes desta era possam evoluir em múltiplas direções, beneficiando uma gama mais ampla de partes interessadas, em vez de serem monopolizadas por um pequeno número de gigantes tradicionais.

Por fim, gostaria de agradecer especialmente a todos os membros da equipe da Placeholder Investment, assim como Kyle Samani da Multicoin Capital, Anand Iyer da Canonical VC, Keccak Wong da Nectar AI, Alpin Yukseloglu da Osmosis Labs e Cameron Dennis da NEAR Foundation, que forneceram revisão e feedback valiosos durante a redação deste artigo.