A conferência AI on AO apresentou três importantes avanços tecnológicos: suporte Web Assembly de 64 bits, tecnologia WeaveDrive e integração do mecanismo de inferência de modelo de linguagem grande Llama.cpp. Paralelamente, também foram apresentados especialmente dois projetos: LlaMA Land e Apus Network. Acompanhe o artigo para saber todos os detalhes.

Autor: Kyle

Avaliado por: Limão

Fonte: Content Guild - Notícias

Em 20 de junho, a conferência AI on AO foi concluída com sucesso. Nesta conferência, o protocolo AO demonstrou três atualizações técnicas importantes, que mostram que os contratos inteligentes podem executar grandes modelos de linguagem num ambiente descentralizado, representando um avanço tecnológico emocionante.

Especificamente, os principais avanços da AO na tecnologia de IA incluem os três aspectos seguintes:

  • Suporte ao Web Assembly de 64 bits: Os desenvolvedores agora podem criar aplicativos com mais de 4 GB de memória, e o Web Assembly de 64 bits, teoricamente, suporta até 16 exabytes (aproximadamente 1,7 bilhão de GB) de memória. Atualmente, o AO pode executar modelos de 16 GB, o que também significa que o nível de memória atual de 16 GB do AO é suficiente para executar quase todos os modelos no campo atual de IA. A expansão da capacidade de memória não só melhora o desempenho das aplicações, mas também promove flexibilidade de desenvolvimento e inovação tecnológica.

  • Tecnologia WeaveDrive: Esta tecnologia simplifica a maneira como os desenvolvedores acessam e gerenciam dados, permitindo-lhes acessar os dados do Arweave como um disco rígido local e transmitir dados de forma eficiente para o ambiente de execução, acelerando o desenvolvimento e o desempenho do aplicativo.

  • Integração do mecanismo de inferência de modelo de linguagem grande Llama.cpp: ao portar o sistema Llama.cpp, o AO oferece suporte à execução de vários modelos de linguagem grande de código aberto, como Llama 3 e GPT-2, diretamente em contratos inteligentes. Isto significa que os contratos inteligentes podem utilizar diretamente modelos de linguagem avançados para processar dados complexos e tomar decisões (incluindo decisões financeiras), expandindo enormemente a funcionalidade das aplicações descentralizadas.

Esses três importantes avanços tecnológicos criam maior espaço para os desenvolvedores criarem aplicações de IA em AO. Como exemplo de aplicação, um novo projeto Llama Land, totalmente conduzido por IA, foi especialmente apresentado na conferência. Ao mesmo tempo, há outro projeto de rede GPU descentralizada, Apus Network, que fornecerá o melhor ambiente de execução de modelo de IA para aplicações de IA em AO da maneira mais econômica no futuro.

Terra das Chamas

Llama Land é um jogo multijogador online massivo totalmente on-chain construído em AO, criando um mundo virtual inteiramente conduzido por IA (modelo Llama 3) para os usuários. Existe um sistema em Llama Land chamado Llama Fed, que é semelhante ao Federal Reserve, mas administrado pelo modelo Llama e é responsável pela política monetária e pela cunhagem de tokens Llama.

Os usuários podem solicitar tokens Llama fornecendo tokens Arweave (wAR), e o Llama Fed decidirá se concederá tokens com base na qualidade da solicitação (como se o projeto/proposta é interessante ou valioso), sem intervenção humana em todo o processo. .

No momento, o Llama Land ainda não está totalmente aberto ao público. Os usuários interessados ​​​​podem visitar seu site e entrar na lista de espera para experimentá-lo o mais rápido possível.

Rede Apus

Apus Network é uma rede GPU descentralizada e sem permissão. Ele aproveita o armazenamento persistente do Arweave e a escalabilidade do AO e fornece um ambiente determinístico de execução de GPU para modelos de IA por meio de um mecanismo de incentivo econômico. Especificamente, a Apus Network pode fornecer um ambiente de computação eficiente, seguro e econômico para aplicações de IA em AO, promovendo assim ainda mais o desenvolvimento de IA descentralizada.

O projeto Apus Network atualizou recentemente o conteúdo do seu site para melhorar a experiência do usuário. Ao mesmo tempo, o desenvolvimento de funções de avaliação de modelos e funções de ajuste fino de modelos está em andamento e alcançou resultados faseados. No futuro, a Apus Network planeja apoiar a carteira ecológica AO e concluir o desenvolvimento e testes relacionados no Playground. Além disso, os recursos de avaliação de modelos serão expandidos e implementados na plataforma AO para aprimorar ainda mais os recursos e o desempenho de seus aplicativos.

Resumir

Esta conferência AI on AO não apenas demonstrou a capacidade da AO de transportar vários modelos avançados de IA, mas também promoveu enormemente o desenvolvimento de aplicações descentralizadas de IA. Como exemplo de projeto após esta atualização tecnológica, Llama Land mostra o protótipo de um aplicativo de agente autônomo de IA. Com o desenvolvimento de aplicações de IA, o ecossistema AO introduzirá mais recursos de GPU para acelerar a execução de grandes modelos de linguagem. A Apus Network também se tornou a primeira rede GPU descentralizada a acessar AO.

No futuro, a AO aumentará ainda mais o limite de memória com base na demanda para suportar a execução de modelos de IA em maior escala. Ao mesmo tempo, a AO continuará a explorar a possibilidade de construir agentes autónomos de IA para expandir ainda mais os cenários de aplicação de finanças descentralizadas e contratos inteligentes.

🏆 Prêmios por "detectar bugs": Se você encontrar erros de digitação, frases incorretas ou descrições incorretas neste artigo, clique em mim para denunciar e você receberá incentivos.

Isenção de responsabilidade: o conteúdo deste artigo é apenas para referência e não constitui qualquer conselho de investimento.

🔗 关于 PermaDAO:Site | Twitter | Telegrama | Discórdia | Médio | YouTube