Alex Xu - Mint Ventures

Horário de publicação original: 08/04/2024 10h23

Link original: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-análise-of-upcoming-tokenlaunch-io-net /

introdução

No meu último artigo, mencionei que, em comparação com os dois ciclos anteriores, este ciclo de alta do mercado criptográfico carece de novos negócios suficientemente influentes e de novas narrativas de ativos. AI é uma das poucas novas narrativas nesta rodada do campo Web3. O autor deste artigo tentará resolver meus pensamentos sobre as duas questões a seguir com base no projeto de IA deste ano, IO.NET:

  • A necessidade comercial de AI+Web3

  • A necessidade e os desafios dos serviços de computação distribuída

Em segundo lugar, o autor irá classificar as principais informações do projeto IO.NET, um projeto representativo do poder de computação distribuída de IA, incluindo lógica do produto, produtos competitivos e histórico do projeto, e deduzir a avaliação do projeto.

Parte das reflexões deste artigo sobre a combinação de IA e Web3 foram inspiradas em "The Real Merge", escrito pelo pesquisador da Delphi Digital, Michael Rinko. Algumas das opiniões deste artigo foram resumidas e citadas do artigo. Recomenda-se aos leitores que leiam o artigo original.

Este artigo é o pensamento encenado do autor no momento da publicação. Ele pode mudar no futuro e as opiniões são altamente subjetivas. Também pode haver erros nos fatos, dados e raciocínio. Comentários e discussões de colegas são bem-vindos.

A seguir está o texto principal.

1. Lógica de negócios: a combinação de IA e Web3

1.1 2023: O novo “ano milagroso” criado pela IA

Olhando para trás, para a história do desenvolvimento humano, uma vez que a tecnologia alcance um avanço, mudanças tremendas seguir-se-ão na vida quotidiana individual, nas várias estruturas industriais e em toda a civilização humana.

Existem dois anos importantes na história da humanidade, nomeadamente 1666 e 1905. São agora conhecidos como os dois “anos milagrosos” na história da ciência e da tecnologia.

1666 é considerado o Ano dos Milagres porque as realizações científicas de Newton surgiram de forma concentrada naquele ano. Neste ano, ele abriu o ramo físico da óptica, fundou o ramo matemático do cálculo e derivou a fórmula da gravidade, a lei básica da ciência natural moderna. Cada um destes será uma contribuição fundamental para o desenvolvimento da ciência humana nos próximos cem anos, acelerando enormemente o desenvolvimento da ciência em geral.

O segundo ano milagroso foi 1905. Naquela época, Einstein, que tinha apenas 26 anos, publicou quatro artigos consecutivos nos "Anais da Física", cobrindo o efeito fotoelétrico (estabelecendo as bases da mecânica quântica) e o movimento browniano (tornando-se um método para analisar processos aleatórios). Referências importantes), relatividade especial e a equação massa-energia (ou seja, a famosa fórmula E=MC^2). Na avaliação das gerações posteriores, cada um destes quatro artigos excedeu o nível médio do Prémio Nobel de Física (o próprio Einstein também ganhou o Prémio Nobel pelo seu artigo sobre o efeito fotoelétrico), e o processo histórico da civilização humana foi mais uma vez grandemente avançado. Vários passos.

O ano de 2023 que acaba de passar provavelmente será chamado de mais um “ano milagroso” por causa do ChatGPT.

Consideramos 2023 como um "ano milagroso" na história da ciência e tecnologia humanas, não apenas por causa do enorme progresso da GPT na compreensão e geração de linguagem natural, mas também porque os humanos descobriram o crescimento de grandes capacidades de modelos de linguagem a partir da evolução de A regra GPT - ou seja, ao expandir os parâmetros do modelo e os dados de treinamento, as capacidades do modelo podem ser melhoradas exponencialmente - e não há gargalos nesse processo no curto prazo (desde que o poder computacional seja suficiente).

Essa habilidade está longe de compreender a linguagem e gerar diálogo. Também pode ser amplamente utilizada em diversos campos científicos e tecnológicos. Tomemos como exemplo a aplicação de grandes modelos de linguagem no campo biológico.

  • Em 2018, o ganhador do Prêmio Nobel de Química Francis Arnold disse na cerimônia de premiação: “Hoje podemos ler, escrever e editar qualquer sequência de DNA em aplicações práticas, mas ainda não podemos compô-la cinco anos depois de seu discurso, em 2023, os pesquisadores”. da Universidade de Stanford e da startup de IA do Vale do Silício, Salesforce Research, publicou um artigo na "Nature-Biotechnology". Eles usaram um grande modelo de linguagem ajustado com base em GPT3 para ir de 0 a um milhão de novas proteínas, e duas proteínas com completamente diferentes foram criadas. foram encontradas estruturas, mas ambas com capacidade bactericida. Espera-se que se tornem uma solução para combater bactérias além dos antibióticos. Em outras palavras: com a ajuda da IA, o gargalo da “criação” de proteínas foi rompido.

  • Anteriormente, o algoritmo de inteligência artificial AlphaFold previu a estrutura de quase todas as 214 milhões de proteínas da Terra em 18 meses. Este resultado foi centenas de vezes o trabalho de todos os biólogos estruturais humanos no passado.

Com vários modelos baseados em IA, tudo, desde tecnologias duras, como a biotecnologia, a ciência dos materiais e a investigação e desenvolvimento de medicamentos, até aos campos das humanidades, como o direito e a arte, darão início a mudanças abaladoras, e 2023 é o primeiro ano de tudo isto.

Todos sabemos que a capacidade da humanidade para criar riqueza cresceu exponencialmente no século passado, e a rápida maturidade da tecnologia de IA irá inevitavelmente acelerar ainda mais este processo.

Gráfico de tendências do PIB global, fonte de dados: Banco Mundial

1.2 A combinação de IA e criptografia

Para compreender essencialmente a necessidade de combinar IA e criptografia, podemos partir das características complementares das duas.

Recursos complementares de IA e criptografia

A IA tem três atributos:

  • Aleatoriedade: a IA é aleatória por trás de seu mecanismo de produção de conteúdo, há uma caixa preta que é difícil de reproduzir e detectar, portanto os resultados também são aleatórios.

  • Uso intensivo de recursos: a IA é uma indústria que exige muitos recursos e requer muita energia, chips e poder de computação.

  • Inteligência semelhante à humana: a IA (em breve) será capaz de passar no teste de Turing e, a partir de então, os humanos serão indistinguíveis das máquinas*

※Em 30 de outubro de 2023, a equipe de pesquisa da Universidade da Califórnia, San Diego, divulgou os resultados do teste Turing (relatório de teste) em GPT-3.5 e GPT-4.0. A pontuação GPT4.0 é de 41%, o que está a apenas 9% da linha de aprovação de 50%. A pontuação do teste humano do mesmo projeto é de 63%. O significado deste teste de Turing é quantos por cento das pessoas pensam que a pessoa com quem estão conversando é uma pessoa real. Se ultrapassar 50%, significa que pelo menos metade das pessoas na multidão pensa que o interlocutor é um ser humano, não uma máquina, o que é considerado como tendo passado no teste de Turing.

Embora a IA crie um novo salto de produtividade para a humanidade, os seus três atributos também trazem enormes desafios para a sociedade humana, nomeadamente:

  • Como verificar e controlar a aleatoriedade da IA ​​para que a aleatoriedade se torne uma vantagem e não uma falha

  • Como atender à enorme lacuna de energia e poder de computação exigida pela IA

  • Como saber a diferença entre humanos e máquinas

As características da criptografia e da economia blockchain podem ser o remédio certo para resolver os desafios trazidos pela IA. A economia criptográfica tem as três características a seguir:

  • Determinismo: O negócio funciona com base em blockchain, código e contratos inteligentes. As regras e limites são claros.

  • Alocação eficiente de recursos: A criptoeconomia construiu um enorme mercado livre global. A fixação de preços, a recolha e a circulação de recursos são muito rápidas e, devido à existência de tokens, os incentivos podem ser usados ​​para acelerar a correspondência entre a oferta e a procura do mercado. e acelerar o alcance do ponto crítico.

  • Livre de confiança: o livro-razão é aberto, o código é de código aberto e todos podem verificá-lo facilmente, trazendo um sistema "sem confiança", enquanto a tecnologia ZK evita a exposição da privacidade ao mesmo tempo que a verificação.

A seguir, serão utilizados três exemplos para ilustrar a complementaridade da IA ​​e da criptoeconomia.

Exemplo A: Resolvendo a Aleatoriedade, Agente de IA Baseado em Criptoeconomia

AI Agent é um programa de inteligência artificial responsável por realizar trabalho para humanos com base na vontade humana (projetos representativos incluem Fetch.AI). Suponha que queiramos que nosso agente de IA processe uma transação financeira, como “Compre US$ 1.000 em BTC”. Os agentes de IA podem enfrentar duas situações:

Cenário 1: Quer se conectar com instituições financeiras tradicionais (como BlackRock) e comprar ETFs BTC. Enfrenta um grande número de problemas de adaptação entre agentes de IA e instituições centralizadas, como KYC, revisão de informações, login, verificação de identidade, etc. Ainda é muito problemático no momento.

No segundo caso, ele funciona com base na economia de criptografia nativa, e a situação se tornará muito mais simples. Ele usará diretamente sua conta para assinar e fazer um pedido para concluir a transação por meio do Uniswap ou de uma plataforma de negociação agregada e receber WBTC (ou). outro encapsulamento) formato BTC), todo o processo é rápido e fácil. Na verdade, é isso que vários BOTs de negociação estão fazendo. Eles desempenharam o papel de um agente júnior de IA, mas seu trabalho está focado na negociação. No futuro, com a integração e evolução da IA, vários tipos de BOTs comerciais serão inevitavelmente capazes de executar intenções comerciais mais complexas. Por exemplo: rastrear 100 endereços de dinheiro inteligente na rede, analisar suas estratégias de negociação e taxas de sucesso, usar 10% dos fundos em meu endereço para executar transações semelhantes dentro de uma semana e parar quando os resultados não forem bons e resumir as possibilidades da razão do fracasso.

A IA funcionará melhor em um sistema blockchain, essencialmente devido à clareza das regras criptoeconômicas e ao acesso sem permissão ao sistema. Ao realizar tarefas sob regras limitadas, os riscos potenciais trazidos pela aleatoriedade da IA ​​também serão menores. Por exemplo, o desempenho da IA ​​em competições de xadrez e cartas e em videogames ultrapassou os humanos porque o xadrez e os jogos de cartas são caixas de areia fechadas com regras claras. O progresso da IA ​​na condução autónoma será relativamente lento, porque os desafios do ambiente externo aberto são maiores e é mais difícil para nós tolerar a aleatoriedade dos problemas de processamento da IA.

Exemplo B: Moldar recursos e reunir recursos através de incentivos simbólicos

O atual poder computacional total da rede global de poder computacional por trás do BTC (taxa de hash: 576,70 EH/s) excede o poder computacional abrangente dos supercomputadores de qualquer país. A sua motivação para o desenvolvimento advém de incentivos de rede simples e justos.

Tendência de poder de computação em rede BTC, fonte: https://www.coinwarz.com/

Além disso, os projetos DePIN, incluindo Mobile, também estão tentando usar incentivos simbólicos para moldar um mercado bilateral em ambos os lados da oferta e da demanda para obter efeitos de rede. IO.NET, no qual este artigo se concentrará a seguir, é uma plataforma projetada para reunir poder de computação de IA. Espera-se que, por meio do modelo de token, seja estimulado mais potencial de poder de computação de IA.

Exemplo C: Código-fonte aberto, introduzindo ZK, distinguindo humanos e máquinas e protegendo a privacidade

Como um projeto Web3 participado pelo fundador da OpenAI, Sam Altman, o Worldcoin usa o dispositivo de hardware Orb para gerar valores de hash exclusivos e anônimos com base na biometria da íris humana e na tecnologia ZK para verificar a identidade e distinguir entre humanos e máquinas. No início de março deste ano, o projeto de arte Web3 Drip começou a usar IDs Worldcoin para verificar usuários reais e emitir recompensas.

Além disso, a Worldcoin também abriu recentemente o código do programa de seu hardware de íris Orb para fornecer garantias de segurança e privacidade da biometria do usuário.

De modo geral, devido à certeza do código e da criptografia, às vantagens da circulação de recursos e da arrecadação de fundos trazidas pelo mecanismo sem permissão e de token, e aos atributos sem confiança baseados em código-fonte aberto e livros-razão públicos, a criptoeconomia tornou-se um grande desafio de IA para sociedade humana. Uma importante solução potencial.

E entre eles, o desafio mais urgente e com a maior procura comercial é a extrema fome de produtos de IA em recursos computacionais, cercando a enorme procura por chips e poder computacional.

Esta é também a principal razão pela qual o crescimento dos projetos de poder de computação distribuída excede o caminho geral da IA ​​neste ciclo de alta do mercado.


A necessidade comercial da computação descentralizada

A IA requer enormes recursos computacionais, tanto para treinar modelos quanto para realizar inferências.

Na prática de treinamento de grandes modelos de linguagem, um fato foi confirmado: enquanto a escala dos parâmetros de dados for grande o suficiente, surgirão grandes modelos de linguagem com alguns recursos que não estavam disponíveis antes. O salto exponencial nas capacidades de cada geração de GPT em comparação com a geração anterior se deve ao aumento exponencial na quantidade de cálculos necessários para o treinamento do modelo.

Uma pesquisa da DeepMind e da Universidade de Stanford mostra que quando diferentes modelos de linguagem grande enfrentam tarefas diferentes (operações, resposta a perguntas em persa, compreensão da linguagem natural, etc.), eles só precisam aumentar o tamanho dos parâmetros do modelo durante o treinamento do modelo (correspondentemente, treinamento O quantidade de cálculo também aumentou), até que a quantidade de treinamento não atinja 10 ^ 22 FLOPs (FLOPs se referem a operações de ponto flutuante por segundo, usadas para medir o desempenho da computação), o desempenho de qualquer tarefa é quase o mesmo que dar respostas aleatoriamente. ; E uma vez que a escala do parâmetro excede o valor crítico dessa escala, o desempenho da tarefa melhora drasticamente, independentemente do modelo de linguagem.

来源: Habilidades emergentes de grandes modelos de linguagem

来源: Habilidades emergentes de grandes modelos de linguagem

Foi também a verificação da lei e da prática de "grandes milagres" no poder da computação que levou o fundador da OpenAI, Sam Altman, a propor arrecadar US$ 7 trilhões para construir uma fábrica avançada de chips que seja 10 vezes maior que o tamanho atual da TSMC (esta parte Espera-se que custe 1,5 trilhão) e use os fundos restantes para produção de chips e treinamento de modelos.

Além do poder computacional necessário para o treinamento de modelos de IA, o processo de inferência do próprio modelo também requer muito poder computacional (embora a quantidade de cálculos seja menor que a do treinamento), portanto, a fome por chips e poder computacional tornou-se um fator importante na participação na pista de IA do estado normal da pessoa.

Em comparação com fornecedores centralizados de poder de computação de IA, como Amazon Web Services, Google Cloud Platform, Microsoft Azure, etc., as principais propostas de valor da computação de IA distribuída incluem:

  • Acessibilidade: obter acesso a chips de computação usando serviços em nuvem como AWS, GCP ou Azure geralmente leva semanas, e os modelos populares de GPU geralmente estão esgotados. Além disso, para obter poder computacional, os consumidores muitas vezes precisam assinar contratos inflexíveis e de longo prazo com essas grandes empresas. A plataforma de computação distribuída pode fornecer seleção flexível de hardware e maior acessibilidade.

  • Preços baixos: Devido ao uso de chips ociosos, juntamente com os subsídios de tokens da parte do protocolo de rede para chips e fornecedores de energia computacional, a rede de poder computacional distribuído pode ser capaz de fornecer poder computacional mais barato.

  • Resistência à censura: Atualmente, os chips e suprimentos de poder de computação de ponta são monopolizados por grandes empresas de tecnologia, e o governo representado pelos Estados Unidos está aumentando o escrutínio dos serviços de poder de computação de IA. O poder de computação de IA pode ser distribuído de forma flexível e gratuita. Tornando-se gradualmente uma demanda explícita, esta é também a proposta de valor central da plataforma de serviços de poder de computação baseada em web3.

Se a energia fóssil é o sangue da era industrial, então o poder da computação pode ser o sangue da nova era digital aberta pela IA, e o fornecimento de poder da computação se tornará a infraestrutura da era da IA. Assim como as stablecoins se tornaram um ramo secundário próspero da moeda legal na era Web3, o mercado de poder de computação distribuído se tornará um ramo secundário do mercado de poder de computação de IA em rápido crescimento?

Como este ainda é um mercado bastante inicial, tudo ainda está para ser visto. No entanto, os seguintes fatores podem estimular a narrativa ou a adoção pelo mercado do poder de computação distribuído:

  • A oferta e a demanda de GPU continuam restritas. A contínua oferta restrita de GPUs pode levar alguns desenvolvedores a experimentar plataformas de computação distribuídas.

  • Expansão regulatória. Se você deseja obter serviços de poder de computação de IA de uma grande plataforma de poder de computação em nuvem, você deve passar por KYC e camadas de análises. Em vez disso, isto poderá promover a adopção de plataformas informáticas distribuídas, especialmente em áreas sujeitas a restrições e sanções.

  • Estímulo de preço simbólico. O aumento dos preços dos tokens durante o ciclo de alta do mercado aumentará o valor do subsídio da plataforma para o lado da oferta de GPU, atraindo assim mais fornecedores para entrar no mercado, aumentando o tamanho do mercado e reduzindo o preço real de compra dos consumidores.

Mas, ao mesmo tempo, os desafios das plataformas de computação distribuída também são bastante óbvios:

  • Desafios técnicos e de engenharia

    • Problema de verificação do trabalho: Devido à estrutura hierárquica do cálculo do modelo de aprendizagem profunda, a saída de cada camada é utilizada como entrada da camada subsequente. não podem ser verificados de forma fácil e eficaz. Para resolver este problema, as plataformas de computação distribuída precisam desenvolver novos algoritmos ou utilizar técnicas de verificação aproximada que possam fornecer garantias probabilísticas da correção dos resultados, em vez de certeza absoluta.

    • Problema de paralelização: A plataforma de poder de computação distribuída reúne um suprimento de chips de cauda longa, o que significa que o poder de computação fornecido por um único dispositivo é relativamente limitado. Um único fornecedor de chip pode quase completar as tarefas de treinamento ou raciocínio do modelo de IA. de forma independente em um curto espaço de tempo, portanto, a paralelização deve ser usada para desmontar e distribuir tarefas para reduzir o tempo total de conclusão. A paralelização enfrentará inevitavelmente uma série de problemas, como a decomposição de tarefas (especialmente tarefas complexas de aprendizagem profunda), dependências de dados e custos adicionais de comunicação entre dispositivos.

    • Questão de proteção de privacidade: Como garantir que os dados e modelos do comprador não sejam expostos ao destinatário da tarefa?

  • Desafios de conformidade regulatória

    • A plataforma de computação distribuída pode ser usada como um ponto de venda para atrair alguns clientes devido à sua natureza não autorizada do mercado bilateral de fornecimento e aquisição. Por outro lado, à medida que os padrões regulamentares da IA ​​forem melhorados, esta poderá tornar-se alvo de retificação governamental. Além disso, alguns fornecedores de GPU também estão preocupados se os recursos computacionais que alugam serão fornecidos a empresas ou indivíduos sancionados.

Em geral, a maioria dos consumidores de plataformas de computação distribuída são desenvolvedores profissionais ou instituições de pequeno e médio porte. Ao contrário dos investidores em criptomoedas que compram criptomoedas e NFTs, esses usuários têm uma compreensão limitada dos serviços que o protocolo pode fornecer. e sustentabilidade, e o preço pode não ser a principal motivação para a sua tomada de decisão. Atualmente, as plataformas de computação distribuída ainda têm um longo caminho a percorrer para obter o reconhecimento desses usuários.

A seguir, classificamos e analisamos as informações do projeto IO.NET, um novo projeto de poder de computação distribuída neste ciclo, e com base nos atuais projetos de IA e projetos de computação distribuída na mesma faixa do mercado, calculamos seu possível potencial após nível de avaliação.

2. Plataforma de poder de computação de IA distribuída: IO.NET

2.1 Posicionamento do projeto

IO.NET é uma rede de computação descentralizada que constrói um mercado bilateral em torno de chips. O lado da oferta é o poder de computação dos chips distribuídos em todo o mundo (principalmente GPUs, mas também CPUs e iGPUs da Apple, etc.) e o lado da demanda. espera concluir os engenheiros de inteligência artificial para treinamento de modelos de IA ou tarefas de inferência.

No site oficial do IO.NET, escreve:

Nossa missão

Reunir um milhão de GPUs em uma DePIN – rede de infraestrutura física descentralizada.

Sua missão é integrar milhões de GPUs à sua rede DePIN.

Em comparação com os provedores de serviços de poder de computação em nuvem existentes, seus principais pontos de venda enfatizados são:

  • Combinação flexível: os engenheiros de IA podem selecionar e combinar livremente os chips necessários para formar um "cluster" para completar suas próprias tarefas de computação.

  • Implantação rápida: não há necessidade de semanas de aprovação e espera (atualmente a situação com fornecedores centralizados como AWS), a implantação pode ser concluída e as tarefas podem ser iniciadas em dezenas de segundos

  • Serviços de baixo preço: O custo dos serviços é 90% inferior ao dos principais fabricantes

Além disso, a IO.NET também planeja lançar uma loja de modelos de IA e outros serviços no futuro.

2.2 Mecanismo de produto e dados de negócios

Mecanismo de produto e experiência de implantação

Assim como Amazon Cloud, Google Cloud e Alibaba Cloud, o serviço de computação fornecido pela IO.NET é denominado IO Cloud. IO Cloud é uma rede de chips distribuída e descentralizada capaz de executar código de aprendizado de máquina baseado em Python e executar programas de IA e aprendizado de máquina.

O módulo de negócios básico do IO Cloud é chamado de Clusters. Clusters são um grupo de GPUs que podem se autocoordenar para concluir tarefas de computação. Os engenheiros de inteligência artificial podem personalizar o cluster desejado de acordo com suas próprias necessidades.

A interface do produto IO.NET é muito amigável. Se você deseja implantar seu próprio cluster de chips para concluir tarefas de computação de IA, após entrar na página do produto Clusters, você pode começar a configurar o cluster de chips desejado.

Informações da página: https://cloud.io.net/cloud/clusters/create-cluster, as mesmas abaixo

Primeiro você precisa escolher seu próprio cenário de missão. Atualmente, existem três tipos para escolher:

  1. Geral: Fornece um ambiente mais geral, adequado para fases iniciais do projeto onde os requisitos de recursos específicos são incertos.

  2. Train: Um cluster projetado para treinamento e ajuste fino de modelos de aprendizado de máquina. Esta opção pode fornecer mais recursos de GPU, maior capacidade de memória e/ou conexões de rede mais rápidas para lidar com essas tarefas de computação intensivas.

  3. Inferência: um cluster projetado para inferência de baixa latência e cargas de trabalho pesadas. No contexto do aprendizado de máquina, a inferência refere-se ao uso de um modelo treinado para fazer previsões ou analisar novos dados e fornecer feedback. Portanto, esta opção se concentrará na otimização da latência e da taxa de transferência para dar suporte às necessidades de processamento de dados em tempo real ou quase em tempo real.

Então, você precisa escolher o fornecedor do cluster de chips. Atualmente, o IO.NET alcançou a cooperação com a Render Network e a rede de mineração do Filecoin, para que os usuários possam escolher o IO.NET ou chips das outras duas redes como fornecedores de seu próprio cluster de computação. . É equivalente ao IO.NET desempenhar o papel de agregador (mas no momento em que este artigo foi escrito, o serviço Filecon estava temporariamente offline). Vale ressaltar que de acordo com a página, o número de GPUs disponíveis para IO.NET é atualmente de mais de 200.000, enquanto o número de GPUs disponíveis para Render Network é de mais de 3.700.

Em seguida, entramos no processo de seleção de hardware de chip de cluster Atualmente, os únicos tipos de hardware listados pelo IO.NET para seleção são GPUs, excluindo CPUs ou iGPUs da Apple (M1, M2, etc.), e GPUs são principalmente produtos NVIDIA.

Entre as opções de hardware de GPU oficialmente listadas e disponíveis, de acordo com os dados testados pelo autor no dia, o número de GPUs disponíveis na rede IO.NET é de 206.001. Entre elas, a GeForce RTX 4090 (45.250 fotos) tem o maior número de dados disponíveis, seguida pela GeForce RTX 3090 Ti (30.779 fotos).

Além disso, o chip A100-SXM4-80GB (preço de mercado de 15.000$+), que é mais eficiente no processamento de tarefas de computação de IA, como aprendizado de máquina, aprendizado profundo e computação científica, possui 7.965 fotos online.

A placa gráfica H100 80GB HBM3 da NVIDIA (preço de mercado 40.000$+), que foi projetada especificamente para IA desde o início do design de hardware, tem um desempenho de treinamento 3,3 vezes maior que o do A100 e um desempenho de inferência 4,5 vezes maior que o do A100 O número real de imagens online é 86.

Após selecionar o tipo de hardware do cluster, o usuário também precisa selecionar a região do cluster, velocidade de comunicação, número e tempo de GPUs alugadas e outros parâmetros.

Por fim, o IO.NET fornecerá uma fatura baseada em seleções abrangentes. Veja a configuração do cluster do autor como exemplo:

  • Cenário de tarefa geral

  • 16 chips A100-SXM4-80GB

  • Velocidade máxima de conexão (ultra alta velocidade)

  • Localização Estados Unidos

  • O período de aluguel é de 1 semana

O preço total da fatura é 3311,6$ e o preço do aluguel por hora de um único cartão é 1.232$

Os preços de aluguel por hora de cartão único do A100-SXM4-80GB na Amazon Cloud, Google Cloud e Microsoft Azure são 5,12$, 5,07$ e 3,67$ respectivamente (fonte de dados: https://cloud-gpus.com/, o preço real será baseado nos detalhes do Contrato e nas alterações dos termos).

Portanto, apenas em termos de preço, o poder de computação do chip da IO.NET é de fato muito mais barato do que o dos principais fabricantes, e a combinação de fornecimento e aquisição também é muito flexível, e a operação também é fácil de começar.

Condições comerciais

Situação do lado da oferta

Em 4 de abril deste ano, de acordo com dados oficiais, o fornecimento total de GPUs da IO.NET no lado da oferta era de 371.027 e o fornecimento de CPU era de 42.321. Além disso, a Render Network é sua parceira, e 9.997 GPUs e 776 CPUs estão conectadas ao fornecimento de rede.

Fonte de dados: https://cloud.io.net/explorer/home, a mesma abaixo

Quando o autor escreveu este artigo, 214.387 do número total de GPUs conectadas ao IO.NET estavam online e a taxa online atingiu 57,8%. A taxa online da GPU da Render Network é de 45,1%.

O que significam os dados do lado da oferta acima?

Para efeito de comparação, apresentamos a Akash Network, outro projeto de computação distribuída estabelecido que está online há mais tempo.

A Akash Network lançou sua rede principal já em 2020, inicialmente com foco em serviços distribuídos para CPU e armazenamento. Em junho de 2023, lançou a rede de teste de serviços GPU e lançou a rede principal de poder de computação distribuída GPU em setembro do mesmo ano.

Fonte de dados: https://stats.akash.network/provider-graph/graphics-gpu

De acordo com os dados oficiais de Akash, embora o lado da oferta tenha continuado a crescer desde o lançamento da sua rede GPU, o número total de ligações GPU até agora é de apenas 365.

A julgar pelo fornecimento de GPUs, o IO.NET é várias ordens de magnitude superior à Rede Akash e já é a maior rede de fornecimento no circuito de potência de computação GPU distribuída.

Situação do lado da demanda

No entanto, do lado da demanda, o IO.NET ainda está nos estágios iniciais de cultivo do mercado. Atualmente, o número total de usuários reais que utilizam o IO.NET para realizar tarefas de computação não é grande. A carga de tarefas da maioria das GPUs online é de 0%, e apenas quatro chips – A100 PCIe 80GB K8S, RTX A6000 K8S, RTX A4000 K8S e H100 80GB HBM3 – estão processando tarefas. E com exceção do A100 PCIe 80GB K8S, a capacidade de carga dos outros três chips é inferior a 20%.

O valor oficial de pressão da rede divulgado naquele dia foi de 0%, o que significa que a maior parte do fornecimento de chips está em modo de espera online.

Em termos de escala de custos de rede, a IO.NET incorreu em taxas de serviço de 586.029$, e o custo no dia anterior foi de 3.200$.

Fonte de dados: https://cloud.io.net/explorer/clusters

A escala das taxas de liquidação de rede acima, tanto em termos de valor total quanto de volume de transações diárias, é da mesma ordem de grandeza do Akash. No entanto, a maior parte da receita da rede do Akash vem da parte da CPU, e o fornecimento de CPU do Akash é superior. 20.000.

Fonte de dados: https://stats.akash.network/

Além disso, a IO.NET também divulgou os dados de negócios das tarefas de raciocínio de IA processadas pela rede. Até o momento, ela processou e verificou mais de 230.000 tarefas de raciocínio. No entanto, a maior parte desse volume de negócios é gerada pelo projeto patrocinado pela IO.NET. BC8.AI.

Fonte de dados: https://cloud.io.net/explorer/inferences

A julgar pelos dados de negócios atuais, o lado da oferta da IO.NET está se expandindo suavemente, estimulado pelas expectativas de lançamento aéreo e pelas atividades da comunidade com o codinome "Ignition", e rapidamente reuniu uma grande quantidade de poder de computação de chips de IA. A sua expansão do lado da procura ainda está numa fase inicial e a procura orgânica é atualmente insuficiente. Quanto às actuais deficiências do lado da procura, seja porque a expansão do lado do consumidor ainda não começou, ou porque a actual experiência de serviço ainda não é estável e, portanto, carece de adopção em larga escala, isto ainda precisa de ser avaliado.

No entanto, considerando que a lacuna no poder de computação da IA ​​é difícil de preencher a curto prazo, há um grande número de engenheiros e projetos de IA à procura de alternativas e podem estar interessados ​​em fornecedores de serviços descentralizados. ainda realizou o desenvolvimento econômico do lado da demanda Com o estímulo às atividades, a melhoria gradual da experiência do produto e a subsequente correspondência gradual entre oferta e demanda, ainda vale a pena esperar.

2.3 Histórico da equipe e situação financeira

Situação da equipe

A equipe principal da IO.NET foi fundada na área de negociação quantitativa. Antes de junho de 2022, eles se concentravam no desenvolvimento de sistemas de negociação quantitativa em nível institucional para ações e ativos criptográficos. Devido à demanda por poder computacional no backend do sistema, a equipe começou a explorar a possibilidade de computação descentralizada e, finalmente, concentrou-se na questão específica da redução do custo dos serviços de computação GPU.

Fundador e CEO: Ahmad Shadid

Ahmad Shadid esteve envolvido em trabalhos relacionados à engenharia quantitativa e financeira antes da IO.NET e também é voluntário na Fundação Ethereum.

CMO e Diretor de Estratégia: Garrison Yang

Garrison Yang ingressou oficialmente na IO.NET em março deste ano. Anteriormente, ele foi vice-presidente de estratégia e crescimento da Avalanche e se formou na Universidade da Califórnia, em Santa Bárbara.

COO:Tory Green

Tory Green é COO da io.net. Anteriormente, foi COO da Hum Capital, Diretor de Desenvolvimento Corporativo e Estratégia do Fox Mobile Group e formou-se em Stanford.

A julgar pelas informações do Linkedin da IO.NET, a equipe está sediada em Nova York, EUA, com filial em São Francisco. O tamanho atual da equipe é de mais de 50 pessoas.

Situação de financiamento

A IO.NET divulgou apenas uma rodada de financiamento até o momento, ou seja, o financiamento Série A concluído em março deste ano com avaliação de US$ 1 bilhão, arrecadando um total de US$ 30 milhões, liderado por Hack VC, e outros investidores participantes incluem Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures e ArkStream Capital, entre outros.

Vale ressaltar que, talvez pelo investimento recebido da Fundação Aptos, o projeto BC8.AI, originalmente utilizado para liquidação e contabilização em Solana, foi convertido para o mesmo Aptos L1 de alto desempenho.

2.4 Cálculo de avaliação

De acordo com o fundador e CEO anterior, Ahmad Shadid, a IO.NET lançará o token no final de abril.

IO.NET possui dois projetos alvo que podem ser usados ​​como referência para avaliação: Render Network e Akash Network, ambos projetos representativos de computação distribuída.

Podemos deduzir a faixa de valor de mercado do IO.NET de duas maneiras: 1. Relação mercado-vendas, ou seja: relação valor de mercado/receita 2. Relação valor de mercado/número de chips de rede;

Vejamos primeiro a dedução da avaliação com base na relação preço/vendas:

Do ponto de vista da relação preço/vendas, Akash pode ser usado como o limite inferior da faixa de avaliação da IO.NET, enquanto Render pode ser usado como uma referência de preços de ponta, com uma faixa de FDV de US$ 1,67 bilhão a US$ 5,93. bilhão.

No entanto, considerando que o projeto IO.NET está atualizado, a narrativa é mais quente, juntamente com o menor valor de mercado de circulação inicial e a atual maior escala do lado da oferta, a possibilidade de seu FDV superar o Render não é pequena.

Vejamos outro ângulo para comparar as avaliações, nomeadamente a “relação preço/núcleo”.

Em um contexto de mercado onde a demanda por poder de computação de IA excede a oferta, o elemento mais importante de uma rede de poder de computação de IA distribuída é a escala do lado da oferta de GPU. Portanto, podemos fazer uma comparação horizontal com o "market-to-core". proporção" e usar o "valor total de mercado do projeto e o número de chips na rede "Relação de Quantidade" para deduzir a possível faixa de avaliação do IO.NET para os leitores usarem como referência de valor de mercado.

Se a faixa de valor de mercado do IO.NET for calculada com base na relação mercado-núcleo, a IO.NET usará a relação mercado-núcleo da Render Network como limite superior e da Akash Network como limite inferior. é de US$ 20,6 bilhões a US$ 197,5 bilhões.

Acredito que por mais otimistas que sejam os leitores em relação ao projeto IO.NET, eles pensarão que este é um cálculo de valor de mercado extremamente otimista.

E precisamos levar em conta que o grande número atual de chips online da IO.NET é estimulado pelas expectativas de lançamento aéreo e atividades de incentivo. O número real de chips online do lado da oferta ainda precisa ser observado após o lançamento oficial do projeto. .

Portanto, em geral, os cálculos de avaliação na perspectiva do rácio preço/vendas podem ser mais informativos.

Como um projeto com a aura tripla da ecologia AI+DePIN+Solana, o IO.NET esperará para ver qual será o seu desempenho em valor de mercado após o seu lançamento.

3. Informações de referência

  • Delphi Digital: A verdadeira fusão

  • Galáxia: Compreendendo a interseção entre criptografia e IA

Link original: https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-análise-of-upcoming-tokenlaunch-io-net /

Reimpresso pela comunidade io.net Binance Square, os direitos autorais originais e a responsabilidade do conteúdo pertencem ao autor original. A reimpressão por io.net e Binance Square não significa que ela certifica ou apoia algumas ou todas as visualizações do conteúdo reimpresso.