S nadšením sdílíme, že Marlin a @cortensor spojí síly, aby vybudovali přístupnější, decentralizovanou AI infrastrukturu. Komunitou řízená AI inference síť Cortensor a Marlinova síť koprocessorů založená na TEE, Oyster, se integrují, aby nabídly uživatelům silné, flexibilní AI řešení pro aplikace Web2 i Web3.

Decentralizovaná síť Cortensor využívá distribuované výpočty a open-source modely, aby přinesla škálovatelné, nákladově efektivní AI služby širokému publiku. Umožněním přispěvatelům spouštět velké jazykové modely (LLM) a různé další GenAI modely, Cortensor posouvá AI za tradiční hranice a činí ji přístupnější a cenově dostupnější.

Marlinova síť Oyster doplňuje tuto vizi bezpečným, vysoce výkonným prostředím TEE. Uzly Oyster, navržené pro efektivní, bezserverové provádění, zajišťují, že úkoly mohou být zpracovány rychle a ověřitelně, zároveň chrání data. S TEEs poskytuje Marlin bezpečný základ, který umožňuje uživatelům delegovat úkoly AI inference s důvěrou.

Společně sítě Cortensor a Marlin umožňují uživatelům spouštět AI inference na vyžádání a s robustními zárukami bezpečnosti. Tato spolupráce přináší spolehlivou SLA pro AI vývojáře a podniky, pomáhá jim dosáhnout bezproblémových AI-powered pracovních postupů s flexibilními nákladovými a výkonnostními možnostmi. Také se těšíme na podporu komunity Cortensor, jak začínají testovat a zapojovat více účastníků.