Entuziasmat să împărtășesc că Marlin și @cortensor își unesc forțele pentru a construi o infrastructură AI mai accesibilă și descentralizată. Rețeaua de inferență AI condusă de comunitate a Cortensor și rețeaua de coprocessor bazată pe TEE a Marlin, Oyster, se vor integra pentru a oferi utilizatorilor o soluție AI puternică și flexibilă pentru aplicațiile Web2 și Web3.
Rețeaua descentralizată a Cortensor valorifică calculul distribuit și modelele open-source pentru a aduce servicii AI scalabile și rentabile unui public larg. Permițând colaboratorilor să ruleze modele de limbaj mari (LLMs) și diverse alte modele GenAI, Cortensor împinge AI-ul dincolo de limitele tradiționale, făcându-l mai accesibil și mai accesibil.
Rețeaua Oyster a Marlin completează această viziune cu un mediu TEE sigur și performant. Nodurile Oyster, concepute pentru execuție eficientă și fără servere, asigură că sarcinile pot fi procesate rapid și verificabil în timp ce protejează datele. Cu TEEs, Marlin oferă o fundație sigură care permite utilizatorilor să delege sarcini de inferență AI cu încredere.
Împreună, rețelele Cortensor și Marlin permit utilizatorilor să ruleze inferența AI la cerere și cu garanții de securitate robuste. Această colaborare aduce un SLA de încredere pentru dezvoltatorii AI și afaceri, ajutându-i să realizeze fluxuri de lucru fără întreruperi alimentate de AI cu opțiuni flexibile de cost și performanță. De asemenea, sunt entuziasmat să sprijin comunitatea Cortensor pe măsură ce încep testarea și integrarea mai multor participanți.