Emocionados de compartir que Marlin y @cortensor están uniendo fuerzas para construir una infraestructura de IA más accesible y descentralizada. La red de inferencia de IA impulsada por la comunidad de Cortensor y la red de coprocesadores basados en TEE de Marlin, Oyster, se integrarán para ofrecer a los usuarios una poderosa y flexible solución de IA para aplicaciones tanto de Web2 como de Web3.
La red descentralizada de Cortensor aprovecha la computación distribuida y modelos de código abierto para ofrecer servicios de IA escalables y rentables a una amplia audiencia. Al permitir que los colaboradores ejecuten grandes modelos de lenguaje (LLMs) y varios otros modelos de GenAI, Cortensor está llevando la IA más allá de los límites tradicionales, haciéndola más accesible y asequible.
La red Oyster de Marlin complementa esta visión con un entorno TEE seguro y de alto rendimiento. Los nodos de Oyster, diseñados para una ejecución eficiente y sin servidor, aseguran que las tareas puedan ser procesadas de manera rápida y verificable mientras se protege la información. Con los TEE, Marlin proporciona una base segura que permite a los usuarios delegar tareas de inferencia de IA con confianza.
Juntos, las redes de Cortensor y Marlin permiten a los usuarios ejecutar inferencias de IA bajo demanda y con sólidas garantías de seguridad. Esta colaboración aporta un SLA confiable a los desarrolladores de IA y a las empresas, ayudándoles a lograr flujos de trabajo impulsados por IA sin problemas, con opciones de costo y rendimiento flexibles. También emocionados de apoyar a la comunidad de Cortensor mientras comienzan a probar y incorporar a más participantes.