Por Alex Xu, parceiro de pesquisa da Mint Ventures
Introdução
Este ciclo do mercado cripto-touro tem sido o menos inspirador em termos de inovação comercial. Ao contrário do mercado altista anterior, que viu tendências fenomenais como DeFi, NFTs e GameFi, este ciclo carece de pontos críticos significativos da indústria. Consequentemente, tem havido um crescimento lento na base de usuários, no investimento da indústria e na atividade dos desenvolvedores.
Esta tendência também é evidente no preço dos criptoativos. Ao longo de todo o ciclo, a maioria das altcoins, incluindo o ETH, perderam consistentemente valor em relação ao BTC. A valorização das plataformas de contratos inteligentes é em grande parte impulsionada pela prosperidade das suas aplicações. Quando a inovação no desenvolvimento de aplicações estagna, torna-se um desafio aumentar a valorização das cadeias públicas.
No entanto, a inteligência artificial (IA), como um setor relativamente novo no cenário de negócios de cripto, pode se beneficiar do crescimento explosivo e dos hotspots atuais no mundo comercial mais amplo. Isso dá aos projetos de IA dentro do espaço de cripto o potencial de atrair atenção incremental significativa.
No relatório IO.NET publicado pela Mint Ventures em abril, a necessidade de integrar IA com cripto foi analisada minuciosamente. As vantagens das soluções criptoeconômicas — como determinismo, alocação eficiente de recursos e falta de confiança — poderiam potencialmente abordar os três principais desafios da IA: aleatoriedade, intensidade de recursos e a dificuldade de distinguir entre humano e máquina.
No setor de IA da criptoeconomia, quero discutir e explorar diversas questões críticas neste artigo, incluindo:
Existem narrativas emergentes ou potencialmente explosivas no setor de IA de criptomoedas.
Os caminhos catalíticos e as estruturas lógicas dessas narrativas.
Projetos de Criptomoedas + IA.
Os riscos e incertezas envolvidos no desenvolvimento do setor de criptomoedas + IA.
Observe que este artigo reflete meu pensamento atual e pode evoluir. As opiniões aqui são subjetivas e pode haver erros em fatos, dados e raciocínio lógico. Este não é um conselho financeiro, mas feedback e discussões são bem-vindos.
A próxima onda de narrativas no setor de IA criptográfica
Antes de mergulhar nas tendências emergentes no setor de cripto IA, vamos primeiro examinar as narrativas líderes atuais. Com base na capitalização de mercado, aqueles com uma avaliação superior a US$ 1 bilhão incluem:
Poder de computação
Render Network ($RNDR): com capitalização de mercado circulante de US$ 3,85 bilhões,
Akash: com uma capitalização de mercado circulante de US$ 1,2 bilhão
IO.NET: avaliada recentemente em US$ 1 bilhão em sua última rodada de financiamento.
Redes de Algoritmos
Bittensor ($TAO): Possui uma capitalização de mercado circulante de US$ 2,97 bilhões.
Agentes de IA
Fetch.ai ($FET): atinge uma capitalização de mercado circulante pré-fusão de US$ 2,1 bilhões
*Data atualizada: 24 de maio de 2024.
Além dos campos mencionados acima, qual setor de IA produzirá o próximo projeto com uma capitalização de mercado superior a US$ 1 bilhão?
Acredito que isso pode ser especulado a partir de duas perspectivas: a narrativa do “lado da oferta industrial” e a narrativa do “momento do GPT”.
Analisando as oportunidades no campo de energia e dados da perspectiva do lado da oferta industrial
Da perspectiva da oferta industrial, quatro principais forças motrizes por trás do desenvolvimento da IA são:
Algoritmos: Algoritmos de alta qualidade podem executar tarefas de treinamento e inferência com mais eficiência.
Poder de Computação: Tanto o treinamento de modelos quanto a inferência exigem poder de computação substancial fornecido pelo hardware da GPU. Esse requisito representa um grande gargalo industrial, com a atual escassez de chips elevando os preços de chips de médio a alto padrão.
Energia: data centers de IA exigem um consumo significativo de energia. Além da eletricidade necessária para que as GPUs executem tarefas computacionais, energia substancial também é necessária para resfriar as GPUs. Em grandes data centers, os sistemas de resfriamento sozinhos respondem por cerca de 40% do consumo total de energia.
Dados: melhorar o desempenho de grandes modelos exige a expansão dos parâmetros de treinamento, o que leva a uma demanda enorme por dados de alta qualidade.
Em relação às quatro forças motrizes industriais mencionadas acima, os setores de algoritmo e poder de computação já têm projetos de cripto com capitalização de mercado circulante excedendo US$ 1 bilhão. No entanto, os setores de energia e dados ainda precisam ver projetos atingirem capitalizações de mercado semelhantes.
Na verdade, a escassez no fornecimento de energia e dados pode surgir em breve, o que pode se tornar o próximo ponto crítico do setor e impulsionar o surgimento de projetos relacionados no setor de criptomoedas.
Vamos começar com a parte energética.
Em 29 de fevereiro de 2024, Elon Musk comentou na conferência Bosch ConnectedWorld 2024: “Eu previ a escassez de chips há mais de um ano, e a próxima escassez será de eletricidade. Acho que no ano que vem você verá que eles simplesmente não conseguem encontrar eletricidade suficiente para executar todos os chips.”
De acordo com dados específicos, o Instituto de Inteligência Artificial Centrada no Homem da Universidade de Stanford, liderado por Fei-Fei Li, publica anualmente o “AI Index Report”. Em seu relatório de 2022 sobre a indústria de IA para 2021, o grupo de pesquisa estimou que o consumo de energia da IA naquele ano foi responsável por apenas 0,9% da demanda global de eletricidade, colocando pressão limitada sobre a energia e o meio ambiente. No entanto, em 2023, a Agência Internacional de Energia (AIE) resumiu 2022 afirmando que os data centers globais consumiram aproximadamente 460 terawatts-hora (TWh) de eletricidade, respondendo por 2% da demanda global de eletricidade. Eles também previram que até 2026, o consumo global de energia do data center será de pelo menos 620 TWh, potencialmente atingindo até 1050 TWh.
Na realidade, as estimativas da Agência Internacional de Energia permanecem conservadoras, uma vez que vários projetos de IA prestes a serem lançados exigirão significativamente mais energia do que o previsto em 2023.
Por exemplo, a Microsoft e a OpenAI estão planejando o projeto Stargate. Esta iniciativa ambiciosa está programada para começar em 2028 e ser concluída por volta de 2030. O projeto visa construir um supercomputador equipado com milhões de chips de IA dedicados, fornecendo à OpenAI um poder de computação sem precedentes para avançar sua pesquisa em inteligência artificial, particularmente modelos de grandes linguagens. O custo estimado deste projeto excede US$ 100 bilhões, o que é 100 vezes o custo dos grandes data centers atuais.
Espera-se que o consumo de energia somente do projeto Stargate chegue a 50 TWh.
Como resultado, o fundador da OpenAI, Sam Altman, declarou no Fórum de Davos em janeiro: “A inteligência artificial do futuro exigirá avanços energéticos, pois a eletricidade consumida pela IA excederá em muito as expectativas”.
Depois do poder de computação e da energia, a próxima grande escassez no setor de IA em rápido crescimento provavelmente serão os dados.
De fato, a escassez de dados de alta qualidade necessários para a IA já se tornou uma realidade.
Por meio da evolução contínua do GPT, nós compreendemos amplamente o padrão de aprimoramento das capacidades de grandes modelos de linguagem — expandindo parâmetros de modelo e dados de treinamento, as capacidades desses modelos podem ser exponencialmente aumentadas. Esse processo não mostra nenhum gargalo técnico imediato.
No entanto, dados de alta qualidade e disponíveis publicamente provavelmente se tornarão cada vez mais escassos no futuro. Produtos de IA podem enfrentar conflitos de oferta e demanda semelhantes aos experimentados com chips e energia.
Primeiro, há um aumento nas disputas sobre propriedade de dados.
Em 27 de dezembro de 2023, o The New York Times entrou com uma ação judicial contra a OpenAI e a Microsoft no Tribunal Distrital dos EUA, alegando que elas usaram milhões de seus artigos sem permissão para treinar o modelo GPT. O The New York Times está buscando bilhões de dólares em danos estatutários e reais pela “cópia e uso ilegal de obras de valor único” e está exigindo a destruição de todos os modelos e dados de treinamento que incluem seus materiais protegidos por direitos autorais.
No final de março de 2024, o The New York Times emitiu uma nova declaração, expandindo suas acusações além da OpenAI para incluir o Google e o Meta. A declaração alegou que a OpenAI havia usado uma ferramenta de reconhecimento de fala chamada Whisper para transcrever um grande número de vídeos do YouTube em texto, que foi então usado para treinar o GPT-4. O New York Times argumentou que se tornou uma prática comum para grandes empresas empregar táticas desonestas no treinamento de seus modelos de IA. Eles também apontaram que o Google está envolvido em práticas semelhantes, convertendo conteúdo de vídeo do YouTube em texto para o treinamento de seus modelos, essencialmente infringindo os direitos dos criadores de conteúdo de vídeo.
O processo entre o The New York Times e a OpenAI, apelidado de primeiro “caso de direitos autorais de IA”, provavelmente não será resolvido rapidamente devido à sua complexidade e ao profundo impacto que pode ter no futuro do conteúdo e da indústria de IA. Um resultado potencial é um acordo extrajudicial, com a Microsoft e a OpenAI, com seus bolsos fundos, pagando uma quantia significativa em compensação. No entanto, disputas futuras sobre direitos autorais de dados inevitavelmente aumentarão o custo geral de dados de alta qualidade.
Além disso, o Google, como o maior mecanismo de busca do mundo, está considerando cobrar taxas por seus serviços de busca — não para o público em geral, mas para empresas de IA.
Fonte: Reuters
Os servidores do mecanismo de busca do Google armazenam grandes quantidades de conteúdo — essencialmente, todo o conteúdo que apareceu em páginas da web desde o século XXI. Produtos de busca orientados por IA, como Perplexity e Kimi e Meta Sota desenvolvidos por empresas chinesas, processam os dados recuperados dessas buscas por meio de IA e os entregam aos usuários. Introduzir cobranças para empresas de IA acessarem dados de mecanismos de busca sem dúvida aumentará o custo de obtenção de dados.
Além disso, os gigantes da IA não estão se concentrando apenas em dados públicos; eles também estão mirando dados internos não públicos.
O Photobucket, um site de hospedagem de imagens e vídeos de longa data, já teve 70 milhões de usuários e quase metade da participação no mercado de fotos online dos EUA no início dos anos 2000. No entanto, com a ascensão das mídias sociais, a base de usuários do Photobucket diminuiu significativamente, agora com apenas 2 milhões de usuários ativos, cada um pagando uma alta taxa anual de US$ 399. De acordo com seu contrato de usuário e política de privacidade, contas inativas por mais de um ano são recuperadas, concedendo ao Photobucket o direito de usar as imagens e vídeos enviados. O CEO do Photobucket, Ted Leonard, revelou que seus 1,3 bilhão de fotos e vídeos são extremamente valiosos para treinar modelos de IA generativos. Ele está atualmente negociando com várias empresas de tecnologia para vender esses dados, com preços que variam de 5 centavos a 1 dólar por foto e mais de 1 dólar por vídeo. Leonard estima que os dados do Photobucket podem valer mais de 1 bilhão de dólares.
A equipe de pesquisa EPOCH, especializada em tendências de desenvolvimento de IA, publicou um relatório intitulado “Ficaremos sem dados? Uma análise dos limites do dimensionamento de conjuntos de dados em Machine Learning”. Este relatório, com base no uso de dados em machine learning em 2022 e na geração de novos dados, ao mesmo tempo em que considera o crescimento dos recursos de computação, concluiu que dados de texto de alta qualidade podem se esgotar entre fevereiro de 2023 e 2026, e dados de imagem podem acabar entre 2030 e 2060. Sem melhorias significativas na eficiência de utilização de dados ou o surgimento de novas fontes de dados, a tendência atual de grandes modelos de machine learning que dependem de conjuntos de dados massivos pode desacelerar.
Considerando a tendência atual de gigantes da IA comprarem dados a preços altos, parece que os dados de texto gratuitos e de alta qualidade realmente acabaram, validando a previsão da EPOCH de dois anos atrás.
Ao mesmo tempo, estão surgindo soluções para a “escassez de dados de IA”, especificamente dados de IA como serviço.
Defined.ai é uma dessas empresas que oferece dados reais personalizados e de alta qualidade para empresas de IA.
Exemplos de tipos de dados em Defined.ai
O modelo de negócios da Defined.ai funciona da seguinte forma: empresas de IA especificam seus requisitos de dados, como a necessidade de imagens com uma certa qualidade de resolução, livres de desfoque e superexposição, e com conteúdo autêntico. As empresas também podem solicitar temas específicos com base em suas tarefas de treinamento, como fotos noturnas de cones de trânsito, estacionamentos e placas de sinalização para aprimorar o reconhecimento de cenas noturnas da IA. O público pode aceitar essas tarefas, enviar suas fotos, que são então revisadas pela Defined.ai. As imagens aprovadas são pagas, normalmente US$ 1-2 por imagem de alta qualidade, US$ 5-7 por videoclipe curto e US$ 100-300 por um vídeo de alta qualidade com mais de 10 minutos. O texto é compensado em US$ 1 por mil palavras, com os concluintes de tarefas ganhando cerca de 20% das taxas. Essa abordagem para o fornecimento de dados pode se tornar um novo negócio de crowdsourcing semelhante à "etiquetagem de dados".
Distribuição global de tarefas, incentivos econômicos, precificação de ativos de dados, circulação e proteção de privacidade, com todos podendo participar, soam muito como um modelo de negócios adequado ao paradigma Web3.
Analisando os projetos de criptografia + IA da perspectiva do fornecimento industrial
A atenção gerada pela escassez de chips se estendeu à indústria de criptomoedas, posicionando o poder computacional descentralizado como o setor de IA mais popular e mais valorizado até o momento.
Se os conflitos de oferta e demanda no setor de IA por energia e dados se tornarem agudos nos próximos 1 a 2 anos, quais projetos relacionados à narrativa estão atualmente presentes no setor de criptomoedas?
Vamos começar com projetos de conceito de energia.
Atualmente, os projetos de energia listados nas principais bolsas centralizadas (CEX) são muito escassos, sendo o Power Ledger e seu token nativo $POWR o único exemplo.
A Power Ledger foi criada em 2017 como uma plataforma de energia abrangente baseada em blockchain com o objetivo de descentralizar o comércio de energia. Ela promove o comércio direto de eletricidade entre indivíduos e comunidades, apoia a adoção generalizada de energia renovável e garante transparência e eficiência nas transações por meio de contratos inteligentes. Inicialmente, a Power Ledger operou em uma cadeia de consórcio adaptada do Ethereum. No segundo semestre de 2023, a Power Ledger atualizou seu whitepaper e lançou sua própria cadeia pública abrangente, com base na estrutura técnica da Solana, para lidar com microtransações de alta frequência no mercado de energia distribuída. As principais áreas de negócios da Power Ledger atualmente incluem:
Negociação de energia: permitindo que os usuários comprem e vendam eletricidade diretamente de forma ponto a ponto, principalmente de fontes renováveis.
Negociação de Produtos Ambientais: Facilitar a negociação de créditos de carbono e certificados de energia renovável, bem como financiamento baseado em produtos ambientais.
Operações de cadeia pública: atraindo desenvolvedores de aplicativos para desenvolver na blockchain Power Ledger, com taxas de transação pagas em tokens $POWR.
O valor de mercado circulante atual do Power Ledger é de US$ 170 milhões, com um valor de mercado totalmente diluído de US$ 320 milhões.
Em comparação com projetos de criptomoedas com conceito de energia, há uma variedade maior de alvos no setor de dados.
Abaixo estão listados os projetos do setor de dados que estou acompanhando atualmente, que foram listados em pelo menos uma grande CEX, como Binance, OKX ou Coinbase, organizados por avaliação totalmente diluída (FDV) do menor para o maior:
1. Streamr ($DADOS)
A proposta de valor da Streamr é construir uma rede de dados descentralizada em tempo real onde os usuários podem negociar e compartilhar dados livremente, mantendo controle total sobre suas próprias informações. Por meio de seu mercado de dados, a Streamr visa permitir que os produtores de dados vendam fluxos de dados diretamente aos consumidores interessados, eliminando a necessidade de intermediários, reduzindo assim os custos e aumentando a eficiência.
Fonte: https://streamr.network/hub/projects
Em aplicações do mundo real, a Streamr colaborou com outro projeto de hardware de veículo Web3, o DIMO, para coletar dados como temperatura e pressão do ar por meio de sensores de hardware DIMO instalados em veículos. Esses dados são então transmitidos como fluxos de dados meteorológicos para organizações que precisam deles.
Ao contrário de outros projetos de dados, o Streamr foca mais em dados de sensores de hardware e IoT. Além dos dados de veículos DIMO, outros projetos notáveis incluem fluxos de dados de tráfego em tempo real em Helsinque. Consequentemente, o token do Streamr, $DATA, experimentou um aumento significativo, dobrando seu valor em um único dia durante o pico do conceito Depin em dezembro passado.
Atualmente, o valor de mercado circulante da Streamr é de US$ 44 milhões, com um valor de mercado totalmente diluído de US$ 58 milhões.
2. Covalente ($CQT)
Diferentemente de outros projetos de dados, a Covalent foca em fornecer dados de blockchain. A rede Covalent lê dados de nós de blockchain via RPC, processa e organiza, e cria um banco de dados de consulta eficiente. Isso permite que os usuários da Covalent recuperem rapidamente as informações de que precisam sem executar consultas complexas diretamente em nós de blockchain. Esses serviços são chamados de “indexação de dados de blockchain”.
A Covalent atende principalmente clientes empresariais, incluindo vários protocolos DeFi e muitas empresas de criptomoedas centralizadas, como Consensys (a empresa controladora da MetaMask), CoinGecko (um conhecido site de rastreamento de ativos de criptomoedas), Rotki (uma ferramenta de impostos) e Rainbow (uma carteira de criptomoedas). Além disso, gigantes tradicionais da indústria financeira como Fidelity e Ernst & Young também estão entre os clientes da Covalent. De acordo com as divulgações oficiais da Covalent, a receita do projeto com serviços de dados já ultrapassou a do projeto líder no mesmo campo, The Graph.
A indústria Web3, com seus dados on-chain integrados, transparentes, autênticos e em tempo real, está pronta para se tornar uma fonte de dados de alta qualidade para cenários de IA especializados e “pequenos modelos de IA” específicos. A Covalent, como provedora de dados, já começou a oferecer dados para vários cenários de IA e introduziu dados estruturados verificáveis personalizados para aplicações de IA.
Fonte: Soluções em Covalente
Por exemplo, a Covalent fornece dados para a plataforma de negociação inteligente on-chain SmartWhales, que usa IA para identificar padrões e endereços de negociação lucrativos. A Entendre Finance alavanca os dados estruturados da Covalent, processados pela tecnologia de IA para insights em tempo real, detecção de anomalias e análise preditiva.
Atualmente, os principais cenários de aplicação para os serviços de dados on-chain da Covalent estão predominantemente no campo financeiro. No entanto, como os produtos e tipos de dados Web3 continuam a se diversificar, espera-se que os casos de uso para dados on-chain se expandam ainda mais.
O valor de mercado circulante da Covalent é de US$ 150 milhões, com um valor de mercado totalmente diluído de US$ 235 milhões, oferecendo uma vantagem de avaliação notável em comparação ao The Graph, um projeto líder no setor de indexação de dados de blockchain.
3. Hivemapper ($Honey)
Entre todos os tipos de dados, os dados de vídeo normalmente comandam o preço mais alto. O Hivemapper pode fornecer às empresas de IA informações de vídeo e mapa. O Hivemapper é um projeto de mapeamento global descentralizado que visa criar um sistema de mapas detalhado, dinâmico e acessível por meio da tecnologia blockchain e contribuições da comunidade. Os participantes capturam dados de mapas usando dashcams e os adicionam à rede de dados Hivemapper de código aberto, ganhando tokens $HONEY como recompensas por suas contribuições. Para aprimorar os efeitos de rede e reduzir os custos de interação, o Hivemapper é construído no Solana.
A Hivemapper foi fundada em 2015 com a visão original de criar mapas usando drones. No entanto, essa abordagem provou ser difícil de escalar, levando a empresa a mudar para o uso de dashcams e smartphones para capturar dados geográficos, reduzindo assim o custo da criação de mapas globais.
Comparado ao Street View e ao software de mapeamento como o Google Maps, o Hivemapper utiliza uma rede de incentivos e um modelo de crowdsourcing para expandir a cobertura do mapa de forma mais eficiente, manter a atualização dos dados do mapa do mundo real e melhorar a qualidade do vídeo.
Antes do aumento na demanda de dados por IA, os principais clientes da Hivemapper incluíam os departamentos de direção autônoma de empresas automotivas, provedores de serviços de navegação, governos, seguradoras e imobiliárias. Hoje, a Hivemapper pode fornecer dados ambientais e de estradas extensivos para IA e grandes modelos por meio de APIs. Ao atualizar continuamente os fluxos de dados de imagens e características de estradas, os modelos de IA e ML estarão mais bem equipados para traduzir esses dados em recursos aprimorados, permitindo que eles executem tarefas relacionadas à localização geográfica e julgamento visual de forma mais eficaz.
Fonte: Blog Hivemapper
Atualmente, o valor de mercado circulante do $Honey, o token nativo do Hivemapper, é de US$ 120 milhões, com um valor de mercado totalmente diluído de US$ 496 milhões.
Além dos projetos mencionados acima, outros projetos notáveis no setor de dados incluem:
1. The Graph ($GRT): Com uma capitalização de mercado circulante de US$ 3,2 bilhões e uma avaliação totalmente diluída (FDV) de US$ 3,7 bilhões, a The Graph fornece serviços de indexação de dados de blockchain semelhantes aos da Covalent.
2. Ocean Protocol ($OCEAN): O Ocean Protocol tem uma capitalização de mercado circulante de $ 670 milhões e um FDV de $ 1,45 bilhão. O projeto visa facilitar a troca e a monetização de dados e serviços relacionados a dados por meio de seu protocolo de código aberto. O Ocean Protocol conecta consumidores de dados com provedores de dados, garantindo confiança, transparência e rastreabilidade no compartilhamento de dados. O projeto está definido para se fundir com Fetch.ai e SingularityNET, com o token convertendo para $ ASI.
O Reaparecimento do Momento GPT e o Advento da Inteligência Artificial Geral
Na minha opinião, o “setor de IA” na indústria de cripto começou verdadeiramente em 2023, o ano certo em que o ChatGPT chocou o mundo. O rápido aumento de projetos de IA de cripto foi amplamente impulsionado pela “onda de entusiasmo” após o crescimento explosivo da indústria de IA.
Apesar das atualizações contínuas em capacidades com modelos como GPT-4 e GPT-turbo, e as impressionantes habilidades de criação de vídeo demonstradas por Sora, bem como o rápido desenvolvimento de grandes modelos de linguagem além do OpenAI, é inegável que os avanços tecnológicos em IA estão causando choque cognitivo decrescente ao público. As pessoas estão gradualmente adotando ferramentas de IA, e substituições de empregos em larga escala ainda não se materializaram.
Será que testemunharemos outro “momento GPT” no futuro, um salto no desenvolvimento que chocará o público e o fará perceber que suas vidas e trabalho serão fundamentalmente alterados?
Este momento pode ser a chegada da inteligência artificial geral (AGI).
AGI, ou inteligência geral artificial, refere-se a máquinas que possuem habilidades cognitivas gerais semelhantes às humanas, capazes de resolver uma ampla gama de problemas complexos, em vez de serem limitadas a tarefas específicas. Os sistemas AGI têm altos níveis de pensamento abstrato, amplo conhecimento de fundo, raciocínio abrangente de senso comum, compreensão causal e habilidades de aprendizagem de transferência interdisciplinar. AGI tem desempenho no nível dos melhores humanos em vários campos e, em termos de capacidade geral, supera completamente até mesmo os grupos humanos mais destacados.
Na verdade, seja retratado em romances de ficção científica, jogos, filmes ou através das expectativas do público após a rápida ascensão do GPT, a sociedade há muito antecipou o surgimento da AGI que ultrapassa os níveis cognitivos humanos. Em outras palavras, o próprio GPT é um precursor da AGI, um prenúncio da inteligência artificial geral.
A razão pela qual o GPT tem um impacto industrial tão profundo e um choque psicológico é que sua implantação e desempenho excederam em muito as expectativas do público. As pessoas não previram que um sistema de IA capaz de passar no teste de Turing chegaria tão rapidamente e com capacidades tão impressionantes.
Na verdade, a inteligência geral artificial (AGI) pode mais uma vez criar um “momento GPT” dentro dos próximos 1-2 anos: assim como as pessoas estão se acostumando a usar o GPT como um assistente, elas podem descobrir em breve que a IA evoluiu além de ser apenas um assistente. Ela poderia lidar de forma independente com tarefas altamente criativas e desafiadoras, incluindo a resolução de problemas que têm confundido os principais cientistas humanos por décadas.
Em 8 de abril deste ano, Elon Musk foi entrevistado por Nicolai Tangen, o diretor de investimentos do fundo soberano da Noruega, e ele discutiu o cronograma para o surgimento da AGI.
Musk afirmou: “Se definirmos a AGI como sendo mais inteligente do que os humanos mais inteligentes, acho que é muito provável que ela apareça por volta de 2025.”
De acordo com a previsão de Elon Musk, levaria no máximo mais um ano e meio para a AGI chegar. No entanto, ele acrescentou uma condição: “desde que a eletricidade e o hardware consigam acompanhar”.
Os benefícios da chegada da AGI são óbvios.
Isso significa que a produtividade humana dará um salto significativo, e muitos problemas científicos que nos deixaram perplexos por décadas serão resolvidos. Se definirmos “os humanos mais inteligentes” como ganhadores do Prêmio Nobel, isso significa que, desde que tenhamos energia, poder de computação e dados suficientes, poderemos ter inúmeros “laureados do Nobel” incansáveis trabalhando dia e noite para enfrentar os problemas científicos mais desafiadores.
No entanto, os vencedores do Prêmio Nobel não são tão raros quanto um em centenas de milhões. Suas habilidades e intelecto estão frequentemente no nível dos melhores professores universitários. No entanto, devido à probabilidade e sorte, eles escolheram a direção certa, persistiram e alcançaram resultados. Muitos de seus pares igualmente capazes podem ter ganho o Prêmio Nobel em um universo paralelo de pesquisa científica. Infelizmente, ainda não há professores universitários de ponta suficientes envolvidos em descobertas científicas, então a velocidade de “explorar todas as direções corretas na pesquisa científica” continua muito lenta.
Com AGI, e dada energia e poder de computação suficientes, poderíamos ter um número ilimitado de AGIs de “nível Nobel” conduzindo exploração aprofundada em qualquer direção potencial para avanços científicos. A velocidade do avanço tecnológico aumentaria exponencialmente. Essa aceleração levaria a um aumento de cem vezes nos recursos que atualmente consideramos caros e escassos nos próximos 10 a 20 anos, como produção de alimentos, novos materiais, medicamentos e educação de alta qualidade. O custo de aquisição desses recursos diminuiria drasticamente. Seríamos capazes de sustentar uma população maior com menos recursos, e a riqueza per capita aumentaria rapidamente.
Tendência do PIB global feita pelo Banco Mundial
Isso pode soar um tanto sensacionalista, então vamos considerar dois exemplos. Esses exemplos também foram usados no meu relatório de pesquisa anterior sobre IO.NET:
Em 2018, a ganhadora do Prêmio Nobel de Química, Frances Arnold, disse durante sua cerimônia de premiação: “Hoje, podemos, para todos os propósitos práticos, ler, escrever e editar qualquer sequência de DNA, mas não podemos compô-la”. Avançando cinco anos para 2023, uma equipe de pesquisadores da Universidade de Stanford e da Salesforce Research, uma startup focada em IA, fez uma publicação na “Nature Biotechnology”. Utilizando um grande modelo de linguagem refinado do GPT-3, eles geraram um catálogo inteiramente novo de 1 milhão de proteínas. Entre elas, eles descobriram duas proteínas com estruturas distintas, ambas dotadas de função antibacteriana, potencialmente abrindo caminho para novas estratégias de resistência bacteriana além dos antibióticos tradicionais. Isso significa um salto monumental na superação dos obstáculos da criação de proteínas com a assistência da IA.
Antes disso, o algoritmo de inteligência artificial AlphaFold previu as estruturas de quase todos os 2,14 bilhões de tipos de proteínas na Terra em 18 meses — um marco que amplia as conquistas dos biólogos estruturais ao longo da história em várias magnitudes.
A transformação está a caminho, e a chegada da AGI acelerará ainda mais esse processo.
No entanto, a chegada da AGI também apresenta enormes desafios.
A AGI não só substituirá um grande número de trabalhadores do conhecimento, mas também aqueles em indústrias de serviços físicos, que atualmente são consideradas "menos impactadas pela IA". À medida que a tecnologia robótica amadurece e novos materiais reduzem os custos de produção, a proporção de empregos substituídos por máquinas e software aumentará rapidamente.
Quando isso acontece, duas questões que antes pareciam muito distantes rapidamente surgirão:
Os desafios do emprego e do rendimento de uma grande população desempregada
Como distinguir entre IA e humanos em um mundo onde a IA é onipresente
A Worldcoin e a Worldchain estão tentando fornecer soluções implementando um sistema de renda básica universal (RBU) para garantir renda básica para o público e usando biometria baseada em íris para distinguir entre humanos e IA.
Na verdade, o UBI não é apenas um conceito teórico; ele foi testado na prática do mundo real. Países como Finlândia e Inglaterra conduziram experimentos de UBI, enquanto partidos políticos no Canadá, Espanha e Índia estão ativamente propondo e promovendo iniciativas semelhantes.
A vantagem de usar um modelo de identificação biométrica e blockchain para distribuição de UBI está em seu alcance global, fornecendo cobertura mais ampla da população. Além disso, a rede de usuários expandida por meio da distribuição de renda pode dar suporte a outros modelos de negócios, como serviços financeiros (DeFi), redes sociais e crowdsourcing de tarefas, criando sinergia dentro do ecossistema comercial da rede.
Um dos projetos notáveis que abordam o impacto da chegada da AGI é o Worldcoin ($WLD), com uma capitalização de mercado circulante de US$ 1,03 bilhão e uma capitalização de mercado totalmente diluída de US$ 47,2 bilhões.
Riscos e incertezas nas narrativas de IA criptográfica
Ao contrário de muitos relatórios de pesquisa divulgados anteriormente pela Mint Ventures, este artigo contém um grau significativo de subjetividade em suas previsões e previsões narrativas. Os leitores devem ver o conteúdo deste artigo como uma discussão especulativa em vez de uma previsão do futuro. As previsões narrativas mencionadas acima enfrentam inúmeras incertezas que podem levar a suposições incorretas. Esses riscos ou fatores de influência incluem, mas não estão limitados a:
Risco de energia: rápida redução no consumo de energia devido a atualizações de GPU
Apesar da crescente demanda de energia para IA, fabricantes de chips como a NVIDIA estão continuamente atualizando seu hardware para fornecer maior poder de computação com menor consumo de energia. Por exemplo, em março de 2024, a NVIDIA lançou a nova geração de placa de computação de IA GB200, que integra duas GPUs B200 e uma CPU Grace. Seu desempenho de treinamento é quatro vezes maior que o da GPU de IA convencional anterior H100, e seu desempenho de inferência é sete vezes maior que o do H100, enquanto requer apenas um quarto do consumo de energia do H100. No entanto, o apetite por energia impulsionada por IA continua a crescer. Com a diminuição do consumo de energia da unidade e a expansão adicional de cenários de aplicação e demanda de IA, o consumo total de energia pode realmente aumentar.
Risco de Dados: Projeto Q* e “Dados Autogerados”
Há rumores de um projeto dentro da OpenAI conhecido como “Q*”, mencionado em comunicações internas aos funcionários. De acordo com a Reuters, citando fontes internas da OpenAI, isso pode representar um avanço significativo no caminho da OpenAI para alcançar a superinteligência ou inteligência geral artificial (AGI). Há rumores de que o Q* resolve problemas matemáticos nunca antes vistos por meio da abstração e gera seus próprios dados para treinar grandes modelos, sem precisar de entrada de dados do mundo real. Se esse rumor for verdade, o gargalo do treinamento de grandes modelos de IA sendo restringido pela falta de dados de alta qualidade seria eliminado.
Chegada da AGI: Preocupações da OpenAI
Se a AGI realmente chegará até 2025, como Musk prevê, permanece incerto, mas é apenas uma questão de tempo. A Worldcoin, como beneficiária direta da narrativa da AGI, enfrenta sua maior preocupação da OpenAI, dado que é amplamente considerada como o “token sombra da OpenAI”.
Nas primeiras horas de 14 de maio, a OpenAI apresentou o desempenho mais recente do GPT-4o e de outras 19 versões de grandes modelos de linguagem em pontuações de tarefas abrangentes em seu Spring New Product Launch. De acordo com a tabela, o GPT-4o pontuou 1310, o que visualmente parece significativamente mais alto do que os outros. No entanto, em termos de pontuação total, é apenas 4,5% maior do que o segundo colocado GPT-4 turbo, 4,9% maior do que o Gemini 1.5 Pro do Google em quarto lugar e 5,1% maior do que o Claude3 Opus da Anthropic em quinto lugar.
Desde que o GPT-3.5 surpreendeu o mundo pela primeira vez, apenas um pouco mais de um ano se passou, e os concorrentes da OpenAI já diminuíram a diferença significativamente (apesar do GPT-5 ainda não ter sido lançado, o que deve acontecer este ano). A questão se a OpenAI pode manter sua posição de liderança no setor no futuro está se tornando cada vez mais incerta. Se a vantagem e o domínio da OpenAI forem diluídos ou mesmo superados, o valor narrativo da Worldcoin como token sombra da OpenAI também diminuirá.
Além da solução de autenticação de íris da Worldcoin, mais e mais concorrentes estão entrando no mercado. Por exemplo, o projeto de ID de escaneamento de palma Humanity Protocol concluiu recentemente uma nova rodada de financiamento, levantando US$ 30 milhões em uma avaliação de US$ 1 bilhão. A LayerZero Labs também anunciou que operará na Humanity e se juntará à sua rede de nós validadores, usando provas ZK para autenticar credenciais.
Conclusão
Concluindo, embora eu tenha extrapolado narrativas futuras potenciais para o setor de IA de criptomoedas, é importante reconhecer que ele difere de setores de criptomoedas nativos como DeFi. É em grande parte um produto do hype de IA se espalhando para o mundo das criptomoedas. Muitos dos projetos atuais ainda não provaram seus modelos de negócios, e muitos projetos são mais como memes temáticos de IA (por exemplo, $RNDR se assemelha a um meme da NVIDIA, Worldcoin se assemelha a um meme da OpenAI). Os leitores devem abordar isso com cautela.