Em 2022, a OpenAI lançou o ChatGPT baseado no modelo GPT-3.5, que desde então lançou ondas de narrativas de IA. No entanto, embora o ChatGPT possa lidar eficazmente com problemas na maioria dos casos, o seu desempenho ainda pode ser limitado quando é necessário conhecimento específico do domínio ou dados em tempo real. Por exemplo, quando questionado sobre o histórico de negociação de tokens de Vitalik Buterin nos últimos 18 meses, não foi possível fornecer informações confiáveis ​​e detalhadas. Para esse fim, a equipe principal de desenvolvimento do Graph, Semiotic Labs, combinou a pilha de software de índice The Graph e OpenAI para lançar o projeto Agentc, que pode fornecer aos usuários análises de tendências do mercado de criptomoedas e serviços de consulta de dados de transações.

Quando a Agentc foi questionada sobre o histórico de negociação de tokens de Vitalik Buterin nos últimos 18 meses, ela forneceu uma resposta mais detalhada. No entanto, o layout de IA do The Graph não se limita a isso. No white paper "The Graph as AI Infrastructure" divulgado, afirma-se que o objetivo não é lançar uma aplicação específica, mas sim aproveitá-la ao máximo como um índice de dados descentralizado. Vantagens do protocolo, fornecendo aos desenvolvedores ferramentas para construir aplicativos de IA nativos da Web3. Para apoiar esse objetivo, o Semiotic Labs também abrirá o código-fonte da base de código Agentc, permitindo que os desenvolvedores criem dapps de IA com funções semelhantes ao Agentc, como agentes de análise de tendências de mercado NFT e agentes assistentes de negociação DeFi.

O roteiro de IA descentralizada do Graph

Lançado em julho de 2018, o The Graph é um protocolo descentralizado para indexação e consulta de dados de blockchain. Através deste protocolo, os desenvolvedores podem usar APIs abertas para criar e publicar índices de dados chamados subgráficos, permitindo que os aplicativos recuperem dados on-chain com eficiência. Até o momento, o The Graph apoiou mais de 50 redes, hospedou mais de 75.000 projetos e processou mais de 1,26 trilhão de consultas.

A capacidade do Graph de lidar com grandes quantidades de dados é inseparável do suporte da equipe principal por trás dele, incluindo Edge & Node, Streamingfast, Semiotic, The Guild, GraphOps, Messari e Pinax. Entre eles, Streamingfast fornece principalmente tecnologia de arquitetura cross-chain para fluxo de dados blockchain, enquanto Semiotic AI se concentra na aplicação de IA e criptografia ao The Graph. The Guild, GraphOps, Messari e Pinax se concentram em áreas como desenvolvimento GraphQL, serviços de indexação, desenvolvimento de subgráficos e soluções de fluxo de dados.

O layout gráfico AI não é uma ideia nova. Em março do ano passado, o The Graph Blog publicou um artigo descrevendo o potencial de alavancar seus recursos de indexação de dados para aplicações de inteligência artificial. Em dezembro do ano passado, o The Graph lançou um novo roteiro chamado “New Era”, planejando adicionar consultas assistidas por IA para grandes modelos de linguagem. Seu roteiro de IA ficou mais claro com o recente lançamento de um white paper. O white paper apresenta dois serviços de IA: Inferência e Serviço de Agente, que permitem aos desenvolvedores integrar diretamente funções de IA no front-end do aplicativo. Todo o processo é suportado pelo The Graph.

Serviço de inferência: oferece suporte a vários modelos de IA de código aberto

Nos serviços de inferência tradicionais, os modelos fazem previsões sobre os dados de entrada por meio de recursos centralizados de computação em nuvem. Por exemplo, quando você faz uma pergunta ao ChatGPT, ele raciocina e retorna uma resposta. Contudo, esta abordagem centralizada não só aumenta os custos como também cria riscos de censura. O Graph espera resolver esse problema construindo um mercado de hospedagem de modelos descentralizado, permitindo que os desenvolvedores de dApp sejam mais flexíveis ao implantar e hospedar modelos de IA.

O Graph dá um exemplo em seu white paper de como criou um aplicativo para ajudar os usuários do Farcaster a entender se suas postagens receberiam muitas curtidas. Primeiro, use o serviço de dados de subgráfico do The Graph para indexar o número de comentários e curtidas nas postagens de Farcaster. Em seguida, uma rede neural é treinada para prever se um novo comentário do Farcaster será apreciado, e a rede neural é implantada no serviço de inferência do Graph. O dApp resultante foi desenvolvido para ajudar os usuários a escrever postagens que obtenham mais curtidas.

Essa abordagem permite que os desenvolvedores aproveitem facilmente a infraestrutura do The Graph, hospedem modelos pré-treinados na rede The Graph e os integrem aos aplicativos por meio de interfaces API, para que os usuários possam experimentar diretamente esses recursos ao usar dApps.

Para fornecer aos desenvolvedores mais opções e flexibilidade, o Serviço de Inferência do Graph oferece suporte à maioria dos modelos populares existentes. Ele escreveu no white paper: “No estágio MVP, o serviço de inferência do Graph oferecerá suporte a um conjunto selecionado de modelos populares de IA de código aberto, incluindo Difusão Estável, Difusão de Vídeo Estável, LLaMA, Mixtral, Grok e Whisper, etc.” No futuro, quaisquer modelos abertos que tenham sido submetidos a testes e operações de indexador suficientes poderão ser implantados no The Graph Inference Service. Além disso, para reduzir a complexidade técnica de implantação de modelos de IA, o The Graph fornece uma interface amigável que simplifica todo o processo, permitindo que os desenvolvedores carreguem e gerenciem facilmente seus modelos de IA sem se preocupar com a manutenção da infraestrutura.

Para melhorar ainda mais o desempenho do modelo em cenários de aplicação específicos, o The Graph também suporta o ajuste fino do modelo para conjuntos de dados específicos. Mas é importante observar que o ajuste fino geralmente não é feito no The Graph. Os desenvolvedores precisam ajustar os modelos externamente e depois implantá-los usando o serviço de inferência do Graph. Para incentivar os desenvolvedores a tornar públicos modelos ajustados, o The Graph está desenvolvendo incentivos, como a alocação de taxas de consulta entre os criadores dos modelos e os indexadores que fornecem os modelos.

Quando se trata de verificar a execução de tarefas de inferência, o The Graph fornece vários métodos, como autoridade confiável, consenso M-de-N, provas interativas de fraude e zk-SNARKs. Cada um desses quatro métodos tem suas próprias vantagens e desvantagens, entre as quais a autoridade confiável depende de entidades confiáveis. O consenso M-de-N requer verificação múltipla de indexadores, o que aumenta a dificuldade de trapaça e aumenta os custos de cálculo e coordenação interativos à prova de fraude; é mais robusto, mas não é adequado para aplicações que exigem resposta rápida, enquanto o zk-SNARKs é mais complexo na implementação técnica e não é adequado para modelos grandes;

The Graph acredita que os desenvolvedores e usuários devem ter o poder de escolher o nível de segurança apropriado com base em suas necessidades. Portanto, o The Graph planeja oferecer suporte a vários métodos de verificação em seu serviço de inferência para se adaptar a diferentes requisitos de segurança e cenários de aplicação. Por exemplo, quando estão envolvidas transações financeiras ou lógica de negócios importante, pode ser necessário usar métodos de verificação de maior segurança, como zk-SNARKs ou consenso M-de-N. Para alguns aplicativos de baixo risco ou voltados para entretenimento, você pode escolher métodos de verificação de baixo custo e mais simples de implementar, como autoridades confiáveis ​​ou provas interativas de fraude. Além disso, o The Graph planeja explorar tecnologias que melhoram a privacidade para melhorar os problemas de privacidade do modelo e do usuário.

Serviço de agente: ajude os desenvolvedores a criar aplicativos autônomos baseados em IA

Comparado com o Serviço de Inferência, que executa principalmente modelos de IA treinados para raciocínio, o Serviço de Agente é mais complexo e requer vários componentes para trabalharem juntos para que esses Agentes possam executar uma série de tarefas complexas e automatizadas. A proposta de valor do Agent Service do Graph é que a construção, hospedagem e execução do agente sejam todas integradas ao The Graph e atendidas por uma rede de indexadores.

Especificamente, o The Graph fornecerá uma rede descentralizada para apoiar a construção e hospedagem de Agentes. Quando um agente é implantado na rede The Graph, o indexador Graph fornecerá o suporte de execução necessário, incluindo indexação de dados, resposta a eventos na cadeia e outras solicitações interativas.

Como mencionado acima, Semiotic Labs, a principal equipe de desenvolvimento do The Graph, lançou um dos primeiros produtos experimentais do Agent, Agentc, que combina a pilha de software de índice do The Graph e OpenAI. Sua principal função é converter a entrada de linguagem natural em consultas SQL para facilitar os usuários. Consulte dados diretamente em tempo real no blockchain e apresente os resultados da consulta aos usuários em um formato fácil de entender. Para simplificar, o Agentc se concentra em fornecer aos usuários análises convenientes de tendências do mercado de criptomoedas e consulta de dados de transações. Todos os seus dados vêm do Uniswap V2, Uniswap V3, Uniswap X e seus forks no Ethereum, e os preços são atualizados a cada hora.

Além disso, o The Graph também afirmou que o modelo LLM utilizado pelo The Graph tem uma precisão de apenas 63,41%, portanto há um problema de respostas incorretas. Para resolver esse problema, The Graph está desenvolvendo um novo modelo de linguagem grande chamado KGLLM (Modelos de linguagem grande habilitados para Knowledge Graph).

KGLLM pode reduzir significativamente a probabilidade de geração de informações erradas usando os dados estruturados do gráfico de conhecimento fornecidos pelo Geo. Cada reivindicação no sistema Geo é apoiada por carimbos de data/hora na rede e verificação de voto. Depois de integrar o gráfico de conhecimento do Geo, os agentes podem ser aplicados a uma variedade de cenários, incluindo regulamentações médicas, desenvolvimento político, análise de mercado, etc., melhorando assim a diversidade e a precisão dos serviços dos agentes. Por exemplo, a KGLLM pode aproveitar dados políticos para fornecer recomendações de mudança de políticas para organizações autónomas descentralizadas (DAOs), garantindo que se baseiam em informações atuais e precisas.

Os benefícios do KGLLM também incluem:

  • Uso de dados estruturados: KGLLM usa uma base de conhecimento externa estruturada. As informações são modeladas graficamente no gráfico de conhecimento, tornando a relação entre os dados clara à primeira vista, de modo que a consulta e a compreensão dos dados se tornam mais intuitivas;

  • Capacidades de processamento de dados relacionais: KGLLM é particularmente adequado para processar dados relacionais. Por exemplo, pode compreender a relação entre pessoas, a relação entre pessoas e eventos, etc. E usa um algoritmo de passagem de gráfico para encontrar informações relevantes saltando vários nós no gráfico de conhecimento (semelhante a mover-se em um mapa). Desta forma, o KGLLM consegue encontrar as informações mais relevantes para responder à pergunta;

  • Recuperação e geração eficiente de informações: Por meio do algoritmo de travessia de gráfico, os relacionamentos extraídos pelo KGLLM são convertidos em prompts que o modelo pode entender em linguagem natural. Por meio dessas instruções claras, o modelo KGLLM é capaz de gerar respostas mais precisas e relevantes.

Panorama

Como o "Google da Web3", o The Graph usa suas vantagens para compensar o problema de escassez de dados dos atuais serviços de IA e simplifica o processo de desenvolvimento de projetos para desenvolvedores, introduzindo serviços de IA. À medida que mais aplicações de IA são desenvolvidas e utilizadas, espera-se que a experiência do utilizador melhore ainda mais. No futuro, a equipe de desenvolvimento do Graph continuará a explorar a possibilidade de combinar inteligência artificial com Web3. Além disso, outras equipes de seu ecossistema, como Playgrounds Analytics e DappLooker, também estão projetando soluções relacionadas a serviços de proxy.