Escrito por Kyle

Revisado por: Limón

Fuente: Content Guild - Noticias

Gracias a todos por venir hoy. Tenemos un montón de desarrollos súper interesantes en tecnología AO para compartir con usted. Primero haremos una demostración y luego Nick y yo intentaremos crear un agente de inteligencia artificial aquí que utilizará un modelo de lenguaje grande en un contrato inteligente para comprar y vender según el sentimiento del chat en el sistema que estás a punto de usar. escuchar sobre. Lo construiremos desde cero hoy en el sitio y esperamos que vaya bien.

Sí, verás cómo hacerlo todo tú mismo.

Los avances tecnológicos aquí realmente colocan a AO mucho más allá de otros sistemas de contratos inteligentes. Esto ha sido cierto antes y ahora se parece más a una supercomputadora descentralizada que a una red de contratos inteligentes tradicional. Pero tiene todas las características de una red de contrato inteligente. Estamos muy emocionados de compartir esto con todos ustedes. Sin más preámbulos, comencemos con la demostración y luego tendremos una discusión y construiremos algo en vivo juntos.

Hola a todos, gracias por venir hoy. Estamos muy emocionados de anunciar tres actualizaciones técnicas importantes del protocolo AO. Juntos logran el gran objetivo de admitir grandes modelos de lenguaje que se ejecutan en un entorno descentralizado como parte de contratos inteligentes. Estos no son sólo modelos de juguetes, modelos pequeños o modelos compilados en sus propios archivos binarios.

Es un sistema completo que le permite ejecutar casi todos los modelos principales actualmente de código abierto y disponibles. Por ejemplo, Llama 3 se ejecuta en contratos inteligentes en la cadena, al igual que GPT, el modelo de Apple, etc. Este es un esfuerzo de colaboración en todo el ecosistema, con tres avances tecnológicos importantes que forman parte de este sistema. Así que estoy muy emocionado de contarles todo sobre esto.

El panorama general es que ahora los LLM (Large Language Models) se pueden ejecutar en contratos inteligentes. Es posible que hayas oído hablar muchas veces de la IA descentralizada y de las criptomonedas con IA. De hecho, a excepción de un sistema que vamos a analizar hoy, casi todos estos sistemas son IA como oráculos, es decir, ejecutan IA fuera de la cadena y luego colocan los resultados de la ejecución en la cadena para algunos fines posteriores.

Eso no es de lo que estamos hablando. Estamos hablando de inferencia de modelos de lenguaje grande como parte de la ejecución del estado de un contrato inteligente. Todo esto es posible gracias al disco duro AO que tenemos y al mecanismo de procesamiento hiperparalelo de AO, lo que significa que puedes ejecutar muchos cálculos sin que esto afecte los diferentes procesos con los que estoy trabajando. Creemos que esto nos permitirá crear un sistema financiero de agentes autónomos descentralizado muy rico.

Hasta ahora, en las finanzas descentralizadas (DeFi), esencialmente hemos podido hacer que la ejecución de transacciones sin procesar no sea confiable. Las interacciones en diferentes juegos económicos, como los préstamos y el intercambio, no son confiables. Éste es sólo un aspecto del problema. Si piensas en los mercados financieros globales.

Sí, existen varios primitivos económicos que funcionan de diferentes maneras. Hay bonos, acciones, materias primas, derivados y más. Pero cuando realmente hablamos del mercado, no se trata sólo de estos, sino de la capa de inteligencia. Persona que decide comprar, vender, pedir prestado o participar en diversos juegos financieros.

Hasta ahora, en el ecosistema financiero descentralizado, hemos trasladado con éxito todos estos originales a un estado sin confianza. Por lo tanto, puedes intercambiar en Uniswap sin confiar en los operadores de Uniswap. De hecho, fundamentalmente no hay operadores. La capa de inteligencia del mercado queda fuera de la cadena. Por lo tanto, si desea involucrarse en la inversión en criptomonedas sin realizar toda la investigación y participación usted mismo, debe encontrar un fondo.

Puede confiarles sus fondos y luego ellos ejecutarán decisiones inteligentes y las transmitirán a la ejecución subyacente de la propia red. Creemos que en AO realmente tenemos la capacidad de trasladar la parte inteligente del mercado, la inteligencia que conduce a las decisiones, a la propia red. Entonces, una forma sencilla de entenderlo podría ser imaginar esto.

Un fondo de cobertura o una aplicación de gestión de carteras en la que pueda confiar puede ejecutar un conjunto de instrucciones inteligentes dentro de la red, transfiriendo así la naturaleza no confiable de la red al proceso de toma de decisiones. Esto significa que una cuenta anónima, como Yolo 420 Trader Number One (un trader audaz y casual), puede crear una estrategia nueva e interesante e implementarla en la red, y usted puede invertir su capital en ella sin confiar realmente en ella.

Ahora puede crear agentes autónomos que interactúen con grandes modelos estadísticos. El modelo estadístico grande más común es un modelo de lenguaje grande, que puede procesar y generar texto. Esto significa que puede incluir estos modelos en contratos inteligentes como parte de una estrategia desarrollada por alguien con una idea novedosa y ejecutarlos de manera inteligente en la red.

Puedes imaginarte haciendo un análisis de sentimiento básico. Por ejemplo, lees las noticias y decides que es un buen momento para comprar o vender este derivado. Este es un buen momento para hacer esto o aquello. Puede tomar decisiones similares a las humanas sin confianza. Esto no es sólo teoría. Creamos una divertida moneda meme llamada Llama Fed. Básicamente la idea es que sea un simulador fiat donde un grupo de llamas (alpacas) están representadas por el modelo Llama 3.

Son como un cruce entre una llama y el presidente de la Reserva Federal, puedes acudir a ellos y pedirles que liberen algunas fichas y ellos evaluarán tu solicitud. El propio modelo de lenguaje grande opera la política monetaria, de manera completamente autónoma y sin confianza. Lo construimos, pero no tenemos control sobre él. Operan la política monetaria y deciden quién debe recibir tokens y quién no. Esta es una pequeña aplicación muy interesante de esta tecnología que, con suerte, inspirará todas las demás aplicaciones posibles en el ecosistema.

Para lograr esto, tuvimos que crear tres nuevas capacidades base para AO, algunas en la capa de protocolo base y otras en la capa de aplicación. Esto no sólo es útil para la ejecución de grandes modelos de lenguaje, sino que también es más amplio y apasionante para los desarrolladores de AO. Así que estoy emocionado de presentárselos hoy.

La primera de estas nuevas tecnologías es la compatibilidad con Web Assembly de 64 bits. Suena un poco a término técnico, pero tengo una manera de hacer que todos entiendan lo que significa. Básicamente, la compatibilidad con Web Assembly 64 permite a los desarrolladores crear aplicaciones que utilizan más de 4 GB de memoria. Presentaremos las nuevas restricciones más adelante y son bastante sorprendentes.

Si no eres desarrollador, piénsalo así: alguien te pide que escribas un libro y estás entusiasmado con la idea, pero te dicen que sólo puedes escribir 100 páginas. ni mas ni menos. Puedes expresar las ideas del libro, pero no de forma natural y normal porque existen limitaciones externas y tienes que atenderlas y cambiar la forma de escribir para adaptarlas.

En el ecosistema de contratos inteligentes, no se trata solo de un límite de 100 páginas. Yo diría que es un poco como construir una versión anterior de AO. Ethereum tiene un límite de memoria de 48 KB, que es como si alguien te pidiera que escribieras un libro que solo tiene una oración y solo puedes usar las 200 palabras más populares en inglés. Crear aplicaciones realmente interesantes en este sistema es extremadamente difícil.

Luego está Solana, que te da acceso a 10 MB de memoria de trabajo. Obviamente esto es una mejora, pero básicamente estamos hablando de una página. ICP, Protocolo informático de Internet, permite admitir 3 GB de memoria. Teóricamente está lleno, pero tuvieron que bajar a 3GB. Ahora, con 3 GB de RAM, puedes ejecutar muchas aplicaciones diferentes, pero ciertamente no puedes ejecutar aplicaciones de IA de gran tamaño. Requieren cargar grandes cantidades de datos en la memoria principal para un acceso rápido. Esto no se puede lograr de manera eficiente con 3 GB de RAM.

Cuando lanzamos AO en febrero de este año, también teníamos un límite de memoria de 4 GB, y ese límite en realidad fue causado por la versión de 32 bits de Web Assembly. Ahora, este límite de memoria desaparece por completo a nivel de protocolo. Por el contrario, el límite de memoria a nivel de protocolo es de 18EB (exabytes). Esa es una enorme cantidad de almacenamiento.

Pasará bastante tiempo hasta que esto se utilice para el cálculo en la memoria en lugar de en medios de almacenamiento a largo plazo. A nivel de implementación, las unidades de cómputo en la red AO ahora pueden acceder a 16 GB de memoria, pero será relativamente fácil reemplazarla con una memoria más grande en el futuro sin cambiar el protocolo. 16 GB son más que suficientes para ejecutar cálculos de modelos de lenguaje grandes, lo que significa que puedes descargar y ejecutar un modelo de 16 GB en AO hoy. Como la versión no cuantificada Llama 3 de la serie Falcon y muchos otros modelos.

Este es un componente central necesario para construir sistemas informáticos inteligentes basados ​​en lenguajes. Ahora es totalmente compatible con la cadena como parte de contratos inteligentes, lo que creemos que es muy, muy interesante.

Esto elimina una limitación computacional importante de AO y, posteriormente, de los sistemas de contratos inteligentes. Cuando lanzamos AO en febrero de este año, es posible que hayas notado en el video que mencionamos varias veces que tenías una potencia informática ilimitada, pero había un límite de no más de 4 GB de RAM. Este es el levantamiento de esa restricción. Creemos que este es un avance muy interesante y 16 GB son suficientes para ejecutar casi cualquier modelo que desee ejecutar en el campo actual de la IA.

Pudimos eliminar el límite de 16 GB sin cambiar el protocolo, lo que será relativamente fácil en el futuro, lo cual es una gran mejora con respecto a la ejecución inicial de Web Assembly 64. Eso en sí mismo es un gran avance en las capacidades del sistema. La segunda tecnología importante que permite ejecutar grandes modelos de lenguaje en AO es WeaveDrive.

WeaveDrive le permite acceder a los datos de Arweave dentro de AO como si fuera un disco duro local. Esto significa que puede abrir cualquier ID de transacción en AO que esté autenticado por la unidad de despacho y cargarlo en la red. Por supuesto, puede acceder a estos datos y leerlos en su programa como si fueran un archivo en su disco duro local.

Todos sabemos que actualmente hay aproximadamente 6 mil millones de transacciones almacenadas en Arweave, por lo que, para empezar, se trata de un conjunto de datos enorme. Esto también significa que cuando se creen aplicaciones en el futuro, habrá un mayor incentivo para cargar datos en Arweave, ya que estos datos también se pueden utilizar en programas AO. Por ejemplo, cuando ejecutamos un modelo de lenguaje grande en Arweave, cargamos modelos por valor de aproximadamente $ 1,000 en la red. Pero esto es solo el principio.

Con una red de contratos inteligentes nativos del sistema de archivos, la cantidad de aplicaciones que puede crear es enorme. Eso es muy emocionante. Aún mejor, el sistema que creamos le permite transmitir datos al entorno de ejecución. Este es un matiz técnico, pero puedes imaginarte volviendo a la analogía del libro.

Alguien te dice: Quiero acceder a un dato de tu libro. Quiero obtener un diagrama de este libro. En un sistema simple, o incluso en las redes de contratos inteligentes actuales, esto sería una gran mejora y le darías una oportunidad a todo el libro. Sin embargo, esto obviamente no es muy eficiente, especialmente si ese libro es un modelo estadístico grande que contiene miles de páginas.

Esto es extremadamente ineficiente. En cambio, lo que hacemos en AO es permitirle leer bytes directamente. Vaya directamente a la ubicación del gráfico en el libro, simplemente copie el gráfico en su aplicación y ejecútelo. Esto mejora enormemente la eficiencia del sistema. Este no es solo un producto mínimo viable (MVP), es un mecanismo de acceso a datos completamente funcional y bien construido. Entonces tienes un sistema informático infinito y un disco duro infinito, y los combinas y tienes una supercomputadora.

Esto nunca se había construido antes y ahora está disponible para todos a un costo mínimo. Aquí es donde se encuentra AO ahora y estamos muy entusiasmados con ello. El sistema también se implementa a nivel del sistema operativo. Por lo tanto, hicimos de WeaveDrive un subprotocolo de AO, una extensión de la unidad informática que cualquiera puede cargar. Esto es interesante porque es la primera expansión de este tipo.

AO siempre ha tenido la capacidad de agregar extensiones a su entorno de ejecución. Al igual que tienes una computadora y quieres conectar más memoria o conectar una tarjeta gráfica, físicamente colocas una unidad en el sistema. Puedes hacer esto con las unidades de cómputo de AO, y eso es lo que estamos haciendo aquí. Entonces, a nivel del sistema operativo, ahora tienes un disco duro, que es simplemente un sistema de archivos que representa el almacenamiento de datos.

Esto significa que no sólo puede acceder a estos datos dentro de AO, creando aplicaciones de la manera habitual, sino que también puede acceder a ellos desde cualquier aplicación que lleve a la web. Por lo tanto, esta es una capacidad de amplia aplicación a la que pueden acceder todos los que construyen el sistema, independientemente del idioma en el que estén escribiendo, Rust, C, Lua, Solidity, etc., como si fuera una característica nativa del sistema. Al construir este sistema, también nos obligó a crear subprotocolos, creando formas para que otras unidades de cómputo escalen para que otros puedan construir cosas interesantes en el futuro.

Ahora que tenemos la capacidad de ejecutar cálculos en conjuntos de memoria de cualquier tamaño y cargar datos de la red en procesos dentro de AO, la siguiente pregunta es cómo hacer la inferencia en sí.

Dado que elegimos construir AO en Web Assembly como su máquina virtual principal, fue relativamente fácil compilar y ejecutar el código existente en ese entorno. Dado que creamos WeaveDrive para que esté expuesto como un sistema de archivos a nivel de sistema operativo, ejecutar Llama.cpp (un motor de inferencia de modelo de lenguaje a gran escala de código abierto) en el sistema es relativamente fácil.

Esto es muy interesante porque significa que no sólo puedes ejecutar este motor de inferencia, sino que también puedes ejecutar fácilmente muchos otros motores. Por lo tanto, el componente final que permite que los modelos de lenguaje grandes se ejecuten dentro de AO es el propio motor de inferencia de modelos de lenguaje grande. Hemos portado un sistema llamado Llama.cpp, que suena un poco misterioso, pero en realidad es el principal entorno de ejecución de modelos de código abierto actual.

Al ejecutarse directamente dentro del contrato inteligente de AO, esto es relativamente fácil una vez que tenemos la capacidad de tener cualquier cantidad de datos en el sistema y luego cargar cualquier cantidad de datos desde Arweave.

Para que esto sea posible, también estamos trabajando con una extensión informática llamada SIMD (Instrucción única de datos múltiples), que le permite ejecutar estos modelos más rápido. Entonces también habilitamos esta función. Esto significa que actualmente estos modelos funcionan con la CPU, pero con bastante rapidez. Si tiene cálculo asincrónico, debería adaptarse a su caso de uso. Cosas como leer señales de noticias y luego decidir qué operaciones ejecutar funcionan bien en el sistema actual. Pero también tenemos algunas actualizaciones interesantes de las que hablaremos pronto en relación con otros mecanismos de aceleración, como el uso de GPU para acelerar la inferencia de modelos de lenguaje grandes.

Llama.cpp le permite cargar no solo el modelo líder de Meta, Llama 3, sino también muchos otros modelos; de hecho, alrededor del 90 % más de los modelos que puede descargar desde el sitio web de modelos de código abierto, Hugging Face, se pueden ejecutar dentro del sistema, desde GPT. -2 Si lo desea, vaya a 253 y Monet, el gran sistema de modelos de lenguaje de Apple y muchos otros modelos. Ahora tenemos el marco para cargar cualquier modelo desde Arweave, usando el disco duro para cargar el modelo que quiero ejecutar en el sistema. Los cargas, son solo datos normales, y luego puedes cargarlos en el proceso de AO y ejecutarlos, obtener los resultados y trabajar como quieras. Creemos que este es un paquete que hace posibles aplicaciones que no eran posibles en ecosistemas de contratos inteligentes anteriores, e incluso si fueran posibles ahora, la cantidad de cambios arquitectónicos en sistemas existentes como Solana habría sido simplemente imprevista y no estaría en su camino en el futuro. imagen. Entonces, para mostrarte esto y hacerlo real y fácil de entender, creamos un simulador, Llama Fed. La idea básica es que consigamos un comité de miembros de la Reserva Federal que sean llama, tanto en términos de ser un modelo de metal-llama 3 como en términos de ser el presidente de la Reserva Federal.

También les decimos que son llamas, como Alan Greenspan o el presidente de la Reserva Federal. Puedes entrar en este pequeño entorno.

Algunos de ustedes estarán familiarizados con este entorno, en realidad es como Gather donde trabajamos hoy, pueden hablar con llama y pedirles que les den algunas fichas para un proyecto realmente interesante, y ellos decidirán si se los dan en función de su solicitud. Entonces quemas algunos tokens de Arweave, tokens de guerra (proporcionados por el equipo de AOX) y te dan tokens en función de si creen que tu propuesta es buena o no. Entonces esta es una moneda meme con una política monetaria completamente autónoma e inteligente. Si bien se trata de una forma simple de inteligencia, no deja de ser interesante. Evaluará sus propuestas y las de otros, y ejecutará la política monetaria. Al analizar los titulares de las noticias y tomar decisiones inteligentes o interactuar con el servicio de atención al cliente y devolver valor, todo esto ahora se puede lograr dentro de los contratos inteligentes. Elliot te lo mostrará ahora.

Hola, soy Elliot, y hoy les mostraré Llama Land, un mundo autónomo en cadena que se ejecuta dentro de AO, impulsado por el modelo Llama 3 de código abierto de Meta.

Las conversaciones que vemos aquí no son sólo conversaciones entre jugadores, sino llamas digitales totalmente autónomas.

Por ejemplo esta llama es humana.

Pero esta llama es IA en cadena.

Este edificio contiene la alimentación de llamas. Es como la Reserva Federal, pero para llamas.

Llama Fed ejecuta la primera política monetaria impulsada por IA del mundo y acuña tokens Llama.

Este tipo es el Rey de la Llama. Puedes proporcionarle tokens Arweave (wAR) envueltos y escribir una solicitud para obtener algunos tokens Llama.

La IA de Llama King evaluará y decidirá si otorga Llama Tokens. La política monetaria de Llamafed es completamente autónoma, sin supervisión humana. Cada agente del mundo y cada sala en sí es un proceso en cadena en AO.

Parece que King Llama nos otorgó algunos tokens y si miro en mi billetera ArConnect puedo ver que ya están allí. bien. Llama Land es solo el primer mundo impulsado por IA que se implementa en AO. Este es el marco para un nuevo protocolo que permite a cualquiera construir su propio mundo autónomo, sin que el único límite sea su imaginación. Todo esto se implementa 100% en cadena y solo es posible en AO.

Gracias eliot. Lo que acaban de ver no es sólo un gran modelo lingüístico que participa en la toma de decisiones financieras y dirige un sistema de política monetaria autónomo. No hay puertas traseras, no tenemos control sobre ello, todo esto lo gestiona la propia IA. También ves un pequeño universo, un lugar donde puedes caminar en el espacio físico, donde puedes ir e interactuar con la infraestructura financiera. Creemos que esto es más que una pequeña demostración divertida.

De hecho, hay cosas realmente interesantes aquí, lugares que reúnen a diferentes personas que utilizan productos financieros. Vemos en el ecosistema DeFi que si alguien quiere participar en un proyecto, primero lo consulta en Twitter y luego va al sitio web para participar en el juego original básico.

Luego se unen a grupos de Telegram o canales de Discord o chatean con otros usuarios en Twitter. La experiencia es muy descentralizada y todos saltamos entre diferentes aplicaciones. Una idea interesante que estamos probando es tener una interfaz de usuario para estas aplicaciones DeFi que permita a su comunidad unirse y coadministrar este espacio autónomo al que acceden colectivamente porque es una aplicación de red permanente que puede unir experiencias.

Imagina que pudieras ir a un lugar que pareciera una casa de subastas y charlar con otros usuarios a quienes les gustara el protocolo. Básicamente, puedes chatear con otros usuarios cuando hay actividad en el proceso del mecanismo financiero que se lleva a cabo en AO. Los aspectos comunitarios y sociales se combinan con la parte financiera del producto.

Creemos que esto es muy interesante y puede incluso tener implicaciones más amplias. Aquí es donde construyes un agente de IA autónomo que deambula por este mundo de Arweave, interactuando con las diferentes aplicaciones y usuarios que descubre. Entonces, si estás construyendo un metaverso, lo primero que haces cuando creas un juego en línea es crear NPC (personajes no jugadores). Aquí, los NPC pueden ser genéricos.

Tiene un sistema inteligente que deambula e interactúa con el entorno, por lo que no tiene el problema de arranque en frío del usuario. Puede tener agentes autónomos que intenten ganar dinero por sí mismos, intentar hacer amigos e interactuar con el entorno como usuarios normales de DeFi. Pensamos que era bastante divertido, aunque un poco extraño. Ya veremos.

De cara al futuro, también vemos oportunidades para acelerar la ejecución de grandes modelos de lenguaje en AO. Anteriormente hablé sobre el concepto de escalamiento de unidades informáticas. Así es como construimos WeaveDrive.

No solo WeaveDrive, puede crear cualquier tipo de extensión para el entorno informático de AO. Existe un proyecto ecológico muy interesante que está resolviendo este problema para la ejecución de modelos de lenguajes grandes acelerados por GPU, que es la Red Apus. Les dejaré explicar.

Hola soy Mateo. Hoy estoy emocionado de presentarles Apus Network. Apus Network se compromete a construir una red GPU descentralizada y sin confianza.

Proporcionamos un módulo de extensión AO de código abierto aprovechando el almacenamiento permanente en cadena de Arweave, proporcionamos un entorno de ejecución determinista para GPU y proporcionamos un modelo de incentivo económico para la IA descentralizada utilizando tokens AO y APUS. Apus Network utilizará nodos de minería GPU para realizar de manera competitiva un entrenamiento de modelos óptimo y sin confianza que se ejecute en Arweave y AO. Esto garantiza que los usuarios tengan acceso a los mejores modelos de IA al precio más rentable. Puedes seguir nuestro progreso en X (Twitter) @apus_network. Gracias.

Este es el estado actual de la IA en AO en la actualidad. Puede probar Llama Fed e intentar crear usted mismo aplicaciones de contratos inteligentes basadas en modelos de lenguaje a gran escala. Creemos que este es el comienzo de la introducción de la inteligencia de mercado en entornos de ejecución descentralizados. Estamos muy entusiasmados con esto y esperamos ver qué sucede a continuación. Gracias a todos por participar hoy y espero comunicarme con ustedes nuevamente.