La conferencia AI on AO presentó tres avances tecnológicos importantes: compatibilidad con Web Assembly de 64 bits, tecnología WeaveDrive y la integración del motor de inferencia de modelos de lenguaje grande Llama.cpp. Al mismo tiempo, también se presentaron especialmente dos proyectos: LlaMA Land y Red Apus. Sigue el artículo para conocer todos los detalles.

Autor: Kyle

Revisado por: Limón

Fuente: Content Guild - Noticias

El 20 de junio, la conferencia AI on AO concluyó con éxito. En esta conferencia, el protocolo AO demostró tres actualizaciones técnicas importantes, que indican que los contratos inteligentes pueden ejecutar grandes modelos de lenguaje en un entorno descentralizado, lo que representa un avance tecnológico apasionante.

Específicamente, los avances clave de AO en tecnología de IA incluyen los siguientes tres aspectos:

  • Compatibilidad con Web Assembly de 64 bits: los desarrolladores ahora pueden crear aplicaciones con más de 4 GB de memoria y, en teoría, Web Assembly de 64 bits admite hasta 16 exabytes (aproximadamente 1,7 mil millones de GB) de memoria. Actualmente, AO puede ejecutar modelos de 16 GB, lo que también significa que el nivel actual de memoria de 16 GB de AO es suficiente para ejecutar casi todos los modelos en el campo actual de la IA. La expansión de la capacidad de la memoria no solo mejora el rendimiento de las aplicaciones, sino que también promueve la flexibilidad del desarrollo y la innovación tecnológica.

  • Tecnología WeaveDrive: esta tecnología simplifica la forma en que los desarrolladores acceden y administran los datos, permitiéndoles acceder a los datos de Arweave como un disco duro local y transmitir datos de manera eficiente al entorno de ejecución, acelerando el desarrollo y el rendimiento de las aplicaciones.

  • Integración del motor de inferencia de modelos de lenguaje grande Llama.cpp: al migrar el sistema Llama.cpp, AO admite la ejecución de múltiples modelos de lenguaje grande de código abierto, como Llama 3 y GPT-2, directamente en contratos inteligentes. Esto significa que los contratos inteligentes pueden utilizar directamente modelos de lenguaje avanzados para procesar datos complejos y tomar decisiones (incluidas decisiones financieras), ampliando enormemente la funcionalidad de las aplicaciones descentralizadas.

Estos tres importantes avances tecnológicos crean un mayor espacio para que los desarrolladores creen aplicaciones de IA en AO. Como ejemplo de aplicación, en la conferencia se presentó especialmente un nuevo proyecto Llama Land, completamente impulsado por IA. Al mismo tiempo, existe otro proyecto de red GPU descentralizada, Apus Network, que proporcionará el mejor entorno de ejecución de modelos de IA para aplicaciones de IA en AO de la manera más rentable en el futuro.

Llama Land

Llama Land es un juego multijugador masivo en línea totalmente en cadena construido sobre AO, que crea un mundo virtual completamente impulsado por IA (modelo Llama 3) para los usuarios. Hay un sistema en Llama Land llamado Llama Fed, que es similar a la Reserva Federal pero administrado según el modelo Llama y es responsable de la política monetaria y la acuñación de tokens Llama.

Los usuarios pueden solicitar tokens Llama proporcionando tokens Arweave (wAR), y Llama Fed decidirá si otorga tokens en función de la calidad de la solicitud (por ejemplo, si el proyecto/propuesta es interesante o valioso), sin intervención humana en todo el proceso. .

En la actualidad, Llama Land aún no está completamente abierto al público. Los usuarios interesados ​​pueden visitar su sitio web y unirse a la lista de espera para experimentarlo lo antes posible.

Red Apus

Apus Network es una red GPU descentralizada y sin permisos. Aprovecha el almacenamiento persistente de Arweave y la escalabilidad de AO, y proporciona un entorno de ejecución de GPU determinista para modelos de IA a través de un mecanismo de incentivo económico. Específicamente, Apus Network puede proporcionar un entorno informático eficiente, seguro y económico para aplicaciones de IA en AO, promoviendo así aún más el desarrollo de la IA descentralizada.

El proyecto Apus Network actualizó recientemente el contenido de su sitio web para mejorar la experiencia del usuario. Al mismo tiempo, el desarrollo de funciones de evaluación de modelos y funciones de ajuste de modelos está en curso y ha logrado resultados graduales. En el futuro, Apus Network planea respaldar la billetera ecológica AO y completar el desarrollo y las pruebas relacionadas en Playground. Además, las capacidades de evaluación de modelos se ampliarán e implementarán en la plataforma AO para mejorar aún más las capacidades y el rendimiento de sus aplicaciones.

Resumir

Esta conferencia AI on AO no solo demostró la capacidad de AO para llevar varios modelos avanzados de AI, sino que también promovió en gran medida el desarrollo de aplicaciones de AI descentralizadas. Como proyecto de muestra tras esta actualización tecnológica, Llama Land te muestra el prototipo de una aplicación de agente de IA autónoma. Con el desarrollo de aplicaciones de IA, el ecosistema AO introducirá más recursos de GPU para acelerar la ejecución de grandes modelos de lenguaje. Apus Network también se ha convertido en la primera red GPU descentralizada en acceder a AO.

En el futuro, AO aumentará aún más el límite de memoria según la demanda para admitir la ejecución de modelos de IA a mayor escala. Al mismo tiempo, AO seguirá explorando la posibilidad de crear agentes autónomos de IA para ampliar aún más los escenarios de aplicación de las finanzas descentralizadas y los contratos inteligentes.

🏆 Premios por "detectar errores": si encuentras errores tipográficos, oraciones incorrectas o descripciones incorrectas en este artículo, haz clic en mí para informarlo y obtendrás incentivos.

Descargo de responsabilidad: el contenido de este artículo es solo de referencia y no constituye ningún consejo de inversión.

🔗 关于 PermaDAO: Sitio web | Gorjeo | Telegrama | Discordia | Medio | YouTube