Título original: “Agregación, liquidación, ejecución”

Escrito por Bridget Harris

Compilado por: Chris, Techub News

Las distintas partes de la pila modular no son iguales en términos de enfoque e innovación, y si bien ha habido muchos proyectos anteriores que innovaron en las capas de disponibilidad de datos (DA) y secuenciación, hasta hace poco las capas de ejecución y liquidación no formaban parte del conjunto. La pila modular se toma en serio.

La competencia en el espacio de clasificación compartida es feroz, con muchos proyectos como Espresso, Astria, Radius, Rome y Madara compitiendo por participación de mercado, así como proveedores de RaaS como Caldera y Conduit que desarrollan clasificación compartida para Rollup, que se construye sobre ellos. Estos proveedores de RaaS pueden ofrecer tarifas más favorables para Rollup porque sus modelos comerciales subyacentes no dependen completamente de los ingresos por secuenciación. También hay muchos Rollups que optan por ejecutar su propio secuenciador por las tarifas que genera.

El mercado de clasificadores es único en comparación con el espacio de disponibilidad de datos (DA). El espacio de disponibilidad de datos (DA) es esencialmente un oligopolio formado por Celestia, Avail y EigenDA. Esto dificulta que los nuevos participantes más pequeños fuera de los Tres Grandes logren alterar el campo con éxito. Los proyectos pueden aprovechar la opción "existente" (Ethereum) o elegir una de las capas DA maduras en función de su tipo de pila de tecnología y su coherencia. Si bien existen importantes ahorros de costos al usar una capa DA, subcontratar la parte del secuenciador no es una opción obvia (desde una perspectiva de costos, no de seguridad), principalmente debido al costo de oportunidad de renunciar a los ingresos del secuenciador. Muchos también creen que DA se convertirá en una mercancía, pero lo que vemos en las criptomonedas es que los fosos de liquidez ultra fuertes combinados con tecnologías subyacentes únicas (difíciles de replicar) hacen que la mercantilización de una capa en la pila sea extremadamente difícil. Independientemente de estos argumentos, se han lanzado muchos productos DA y secuenciadores. En resumen, para algunas pilas modulares, "cada servicio tiene varios competidores".

Creo que las capas de ejecución y liquidación (y agregación) están relativamente poco exploradas, pero están comenzando a iterar de nuevas maneras para alinearse mejor con el resto de la pila modular.

Relación de capa de ejecución y liquidación

La capa de ejecución y la capa de liquidación están estrechamente relacionadas, siendo la capa de liquidación el lugar donde se definen el estado y los resultados finales de la ejecución. La capa de liquidación también puede proporcionar mejoras a los resultados de la capa de ejecución, mejorando así la funcionalidad y seguridad de la capa de ejecución. En la práctica, esto significa que la capa de liquidación puede desempeñar una variedad de funciones, como resolver disputas de fraude en la capa de ejecución, verificar pruebas y conectarse a otros entornos de la capa de ejecución.

Vale la pena señalar que algunos equipos han optado por apoyar directamente el desarrollo de entornos de ejecución personalizados en el entorno nativo de sus propios protocolos, como Repyh Labs, que están construyendo una L1 llamada Delta. Esto es esencialmente una ingeniería inversa de la pila modular, pero aún proporciona flexibilidad y tiene la ventaja de la compatibilidad tecnológica porque los equipos no necesitan perder tiempo integrando manualmente cada parte de la pila modular. Los inconvenientes, por supuesto, son el aislamiento desde el punto de vista de la movilidad, la imposibilidad de elegir la capa modular que mejor se adapte a su diseño y su elevado coste.

Otros equipos optan por crear L1 para funciones o aplicaciones principales específicas. Un ejemplo es Hyperliquid, que creó una L1 dedicada para su aplicación nativa emblemática, su plataforma de negociación de contratos perpetuos. Si bien sus usuarios confían en Arbitrum para operaciones entre cadenas, su arquitectura central no depende del SDK de Cosmos ni de otros marcos, por lo que puede personalizarse y optimizarse de forma iterativa para sus casos de uso principales.

Progreso ejecutivo

En el último ciclo, la única característica que tenía alt-L1 de propósito general sobre Ethereum fue un mayor rendimiento. Esto significa que si un proyecto quiere mejorar significativamente el rendimiento, esencialmente tendrá que optar por construir su propia Layer1 desde cero, principalmente porque Ethereum aún no tiene esta tecnología. Históricamente, esto simplemente significó incorporar mecanismos de eficiencia directamente en protocolos comunes. En el ciclo actual, estas mejoras de rendimiento se logran mediante un diseño modular y se implementan en la principal plataforma de contratos inteligentes, Ethereum. Esto permite que tanto los proyectos existentes como los nuevos aprovechen la nueva infraestructura de la capa de ejecución sin sacrificar la liquidez, la seguridad y el foso comunitario de Ethereum.

Actualmente también estamos viendo un aumento en la combinación y combinación de diferentes máquinas virtuales (VM) como parte de una red compartida, lo que brinda a los desarrolladores flexibilidad y una mejor personalización en la capa de ejecución. Por ejemplo, Layer N permite a los desarrolladores ejecutar nodos Rollup de propósito general (por ejemplo, SolanaVM, MoveVM, etc. como entornos de ejecución) y nodos Rollup específicos de la aplicación (por ejemplo, DEX persistente, DEX de libro de pedidos) encima de su máquina de estado compartida. También están trabajando para lograr una componibilidad total y liquidez compartida entre estas diferentes arquitecturas de VM, un problema de ingeniería en cadena que históricamente ha sido difícil de lograr a escala. Cada aplicación en la Capa N puede entregar mensajes de forma asincrónica sin demora en el consenso, lo que a menudo es un problema de "sobrecarga de comunicación" con las criptomonedas. Cada xVM también puede usar un esquema de base de datos diferente, ya sea RocksDB, LevelDB o una base de datos síncrona/asincrónica personalizada creada desde cero. La interoperabilidad funciona en parte a través de un "sistema de instantáneas" (un algoritmo similar al algoritmo Chandy-Lamport) donde la cadena puede realizar la transición a nuevos bloques de forma asincrónica sin requerir una pausa del sistema. Desde el punto de vista de la seguridad, se pueden presentar pruebas de fraude si la transición de estado es incorrecta. Con este diseño, su objetivo es minimizar el tiempo de ejecución y al mismo tiempo maximizar el rendimiento general de la red.

Capa N

Para impulsar el progreso en la personalización, Movement Labs aprovecha el lenguaje Move para VM/ejecución, que fue diseñado originalmente por Facebook y utilizado en redes como Aptos y Sui. Move tiene ventajas estructurales sobre otros marcos, principalmente en términos de seguridad y flexibilidad del desarrollador. Históricamente, los dos problemas principales al crear aplicaciones en cadena utilizando tecnologías existentes han sido la seguridad y la flexibilidad del desarrollo. Es importante destacar que los desarrolladores también pueden simplemente escribir Solidity e implementarlo en Movement. Para habilitar esto, Movement creó un tiempo de ejecución EVM totalmente compatible con código de bytes que también se puede usar con la pila Move. Su Rollup M2 aprovecha la paralelización de BlockSTM, lo que permite un mayor rendimiento y al mismo tiempo puede acceder al foso de liquidez de Ethereum (históricamente, BlockSTM solo se usaba en alt L1 como Aptos, que aparentemente carecía de compatibilidad con EVM).

MegaETH también está impulsando el progreso en el área de la capa de ejecución, particularmente a través de su motor de paralelización y su base de datos en memoria, donde el secuenciador puede almacenar todo el estado en la memoria. En términos de arquitectura, aprovecharon:

  • La compilación de código nativo mejora aún más el rendimiento de L2 (si el contrato es más intensivo desde el punto de vista computacional, el programa puede obtener una gran aceleración, si el contrato no es muy intensivo desde el punto de vista computacional, aún puede obtener aproximadamente 2 veces más aceleración).

  • Producción de bloques relativamente centralizada, pero verificación y confirmación de bloques descentralizadas.

  • Sincronización de estado eficiente, donde los nodos completos no necesitan volver a ejecutar transacciones, pero necesitan conocer el delta de estado para poder aplicarlo a su base de datos local.

  • Estructura de actualización del árbol Merkle, mientras que su enfoque es una nueva estructura de datos trie que es eficiente en memoria y disco. La computación en memoria les permite comprimir el estado de la cadena en la memoria, de modo que cuando se ejecutan transacciones, no tienen que ir al disco, solo a la memoria.

Otro diseño que se ha explorado e iterado recientemente como parte de la pila modular es la agregación de pruebas: definida como un probador que crea una única prueba concisa de múltiples pruebas concisas. Primero, veamos la capa de agregación en su conjunto y su historia y tendencias actuales en el espacio criptográfico.

El valor de la capa de agregación.

Históricamente, los agregadores han tenido una participación de mercado menor que las plataformas en mercados sin criptomonedas:

Si bien no estoy seguro de que esto se aplique a todos los casos de criptomonedas, sigue siendo válido para los intercambios descentralizados, los puentes entre cadenas y los protocolos de préstamos.

Por ejemplo, la capitalización de mercado combinada de 1 pulgada y 0x (dos importantes agregadores de DEX) es de aproximadamente mil millones de dólares, una fracción de la capitalización de mercado de aproximadamente 7,6 mil millones de dólares de Uniswap. Lo mismo ocurre con los puentes entre cadenas: los agregadores de puentes entre cadenas como Li.Fi y Socket/Bungee tienen una participación de mercado menor que plataformas como Across. Si bien Socket admite 15 puentes entre cadenas diferentes, su volumen total de transacciones entre cadenas es en realidad similar al de Across (Socket: $ 2,2 mil millones, Across: $ 1,7 mil millones), y Across representa solo una fracción del volumen de transacciones reciente de Socket/Bungee. Pequeña porción .

En el campo de los préstamos, Yearn Finance es el primer protocolo descentralizado de agregación de ingresos por préstamos y su valor de mercado es actualmente de aproximadamente 250 millones de dólares estadounidenses. En comparación, plataformas como Aave (~1.400 millones de dólares) y Compound (~560 millones de dólares) están valoradas en valoraciones más altas.

La situación es similar en los mercados financieros tradicionales. Por ejemplo, ICE (Intercontinental Exchange) US y CME Group tienen límites de mercado de aproximadamente 75 mil millones de dólares cada uno, mientras que "agregadores" como Charles Schwab y Robinhood tienen límites de mercado de aproximadamente 132 mil millones de dólares y alrededor de 15 mil millones de dólares, respectivamente. En Schwab, que opera a través de numerosos lugares, incluidos ICE y CME, la proporción del volumen de operaciones que se realiza a través de ellos es desproporcionada con respecto a su participación en la capitalización de mercado. Robinhood tiene alrededor de 119 millones de contratos de opciones por mes, en comparación con alrededor de 35 millones de ICE, y los contratos de opciones ni siquiera son una parte central del modelo de negocio de Robinhood. Aún así, ICE está valorado en aproximadamente 5 veces más que Robinhood en los mercados públicos. Entonces, como interfaces de agregación a nivel de aplicación, Schwab y Robinhood dirigen el flujo de pedidos de los clientes a varios lugares y, si bien sus volúmenes de negociación son altos, las valoraciones no son tan altas como las de ICE y CME.

Como consumidores, asignamos menos valor a los agregadores.

Es posible que esto no sea cierto en el caso de las criptomonedas si la capa de agregación está integrada en el producto/plataforma/cadena. Si el agregador está estrechamente integrado directamente en la cadena, obviamente es una arquitectura diferente y me interesaría ver cómo se desarrolla. Un ejemplo es AggLayer de Polygon, que permite a los desarrolladores conectar fácilmente su L1 y L2 en una red que agrega pruebas y permite una capa de liquidez unificada entre cadenas utilizando CDK.

Capa de aglutinante

El modelo funciona de manera similar a la capa de interoperabilidad Nexus de Avail, que incluye agregación de pruebas y mecanismos de subasta de pedidos, lo que hace que su oferta de DA sea más sólida. Al igual que AggLayer de Polygon, cada cadena o paquete integrado con Avail interoperará dentro del ecosistema existente de Avail. Además, los grupos de Avail ordenaron datos de transacciones de varias plataformas y acumulaciones de blockchain, incluidos Ethereum, todas las acumulaciones de Ethereum, Cosmos Chain, Avail Rollup, Celestia Rollup y diferentes estructuras híbridas como Validiums, Optimiums y cadenas paralelas de Polkadot, etc. Los desarrolladores de cualquier ecosistema pueden crear sin permiso sobre la capa DA de Avail mientras usan Avail Nexus, que se puede utilizar para la agregación de pruebas y la mensajería entre ecosistemas.

Aprovecha Nexus

Nebra se centra en la agregación y liquidación de pruebas, que pueden agregarse entre diferentes sistemas de prueba. Por ejemplo, agregue la prueba del sistema xyz con la prueba del sistema abc para tener agg_xyzabc (en lugar de agregar dentro del sistema de prueba para tener agg_xyz y agg_abc). La arquitectura utiliza UniPlonK, que estandariza el trabajo de los verificadores en todas las familias de circuitos, lo que hace que las pruebas de verificación en diferentes circuitos PlonK sean más eficientes y factibles. Básicamente, utiliza pruebas de conocimiento cero (SNARK recursivas) para ampliar la parte de verificación (normalmente el cuello de botella en estos sistemas). La liquidación de última milla se hace más fácil para los clientes porque Nebra maneja toda la agregación y liquidación de lotes y el equipo solo necesita cambiar las llamadas del contrato API.

Astria está trabajando en algunos diseños interesantes sobre cómo funciona su clasificador compartido con la agregación de pruebas. Dejan la parte de ejecución al propio Rollup, Rollup ejecuta el software de la capa de ejecución en un espacio de nombres determinado del clasificador compartido, que es esencialmente solo la "API de ejecución", que es una forma para que Rollup acepte los datos de la capa de clasificación. También podrían agregar fácilmente aquí soporte para pruebas de validez para garantizar que los bloques no violen las reglas de la máquina de estado EVM.

Aquí, productos como Astria actúan como el proceso#1→#2(transacciones fuera de orden → bloques ordenados), la capa de ejecución/nodos acumulativos son el#2→ #3, y protocolos como Nebra actúan como la última milla#3→#4(bloque de ejecución → prueba concisa). Nebra también puede ser un quinto paso teórico donde las pruebas se agregan y luego se verifican. Sovereign Labs también está trabajando en un concepto similar al último paso, donde los puentes entre cadenas basados ​​en la agregación de pruebas son el núcleo de su arquitectura.

En general, algunos niveles de aplicaciones están empezando a apropiarse de la infraestructura subyacente, en parte porque si no controlan la pila subyacente, retener sólo las aplicaciones de nivel superior puede crear problemas de incentivos y altos costos de adopción por parte de los usuarios. Por otro lado, a medida que la competencia y los avances tecnológicos continúan reduciendo los costos de infraestructura, resulta más asequible integrar aplicaciones/cadenas de aplicaciones con componentes modulares. Creo que esta dinámica será más fuerte, al menos por ahora.

Con todas estas innovaciones (capa de ejecución, capa de liquidación, capa de agregación), se hace posible una mayor eficiencia, una integración más sencilla, una mayor interoperabilidad y menores costos. Todo esto, en última instancia, conduce a mejores aplicaciones para los usuarios y una mejor experiencia de desarrollo para los desarrolladores. Esta es una combinación ganadora que puede generar más innovación y una innovación más rápida.