Hào hứng chia sẻ rằng Marlin và @cortensor đang hợp tác để xây dựng một hạ tầng AI phi tập trung, dễ tiếp cận hơn. Mạng lưới suy diễn AI do cộng đồng điều hành của Cortensor và mạng lưới đồng xử lý dựa trên TEE của Marlin, Oyster, sẽ tích hợp để cung cấp cho người dùng một giải pháp AI mạnh mẽ, linh hoạt cho cả ứng dụng Web2 và Web3.

Mạng lưới phi tập trung của Cortensor khai thác tính toán phân tán và các mô hình mã nguồn mở để mang lại dịch vụ AI có thể mở rộng và tiết kiệm chi phí cho một lượng lớn người dùng. Bằng cách cho phép các nhà đóng góp chạy các mô hình ngôn ngữ lớn (LLMs) và nhiều mô hình GenAI khác, Cortensor đang đẩy AI vượt ra ngoài các ranh giới truyền thống, làm cho nó dễ tiếp cận và giá cả phải chăng hơn.

Mạng lưới Oyster của Marlin bổ sung cho tầm nhìn này với một môi trường TEE an toàn, hiệu suất cao. Các nút Oyster, được thiết kế cho việc thực thi hiệu quả, không cần máy chủ, đảm bảo rằng các tác vụ có thể được xử lý nhanh chóng và có thể xác minh trong khi bảo vệ dữ liệu. Với các TEE, Marlin cung cấp một nền tảng an toàn để người dùng có thể ủy thác các tác vụ suy diễn AI một cách tự tin.

Cùng nhau, các mạng lưới của Cortensor và Marlin cho phép người dùng thực hiện suy diễn AI theo yêu cầu và với các đảm bảo an ninh mạnh mẽ. Sự hợp tác này mang lại SLA đáng tin cậy cho các nhà phát triển AI và doanh nghiệp, giúp họ đạt được quy trình làm việc liền mạch được hỗ trợ bởi AI với các tùy chọn chi phí và hiệu suất linh hoạt. Cũng rất háo hức để hỗ trợ cộng đồng của Cortensor khi họ bắt đầu thử nghiệm và thu hút thêm nhiều người tham gia.