Автор: IOSG
TL;DR
З поєднанням Web3 та AI стає помітною темою в криптовалютному світі, будівництво інфраструктури AI у крипто-світі процвітає, проте фактичне використання AI або створення додатків для AI залишається обмеженим, проблема гомогенізації інфраструктури AI поступово стає очевидною. Нещодавно ми взяли участь у першому раунді фінансування RedPill, що викликало деякі більш глибокі усвідомлення.
Основні інструменти для створення AI Dapp включають децентралізований доступ до OpenAI, GPU-мережі, інфраструктуру інференції та агентські мережі.
Тому GPU мережі є більш популярними, ніж у «період видобутку біткоїнів», оскільки: ринок AI є більшим, з швидким та стабільним зростанням; AI підтримує мільйони застосувань щодня; AI потребує різноманітних моделей GPU та серверних локацій; технології стали більш зрілими; цільова аудиторія також ширша.
Інфраструктура інференції та агентські мережі мають схожі основи, але з різними акцентами. Інфраструктура інференції призначена головним чином для досвідчених розробників, які розгортають свої моделі, тоді як запуск моделей, не пов’язаних з LLM, не обов’язково вимагає GPU. Агентські мережі більше зосереджені на LLM, розробники не повинні мати власні моделі, а більше зосереджуються на інженерії підказок і способах зв’язування різних агентів. Агентські мережі завжди потребують високопродуктивних GPU.
Проекти інфраструктури AI обіцяють величезні можливості та постійно впроваджують нові функції.
Більшість рідних крипто-проектів все ще перебувають на етапі тестової мережі, мають низьку стабільність, складність конфігурації, обмежені функції та потребують часу, щоб довести свою безпеку та конфіденційність.
Припустимо, що AI Dapp стає великою тенденцією, існує багато невикористаних галузей, таких як моніторинг, інфраструктура, пов’язана з RAG, локальні моделі Web3, вбудовані API для криптографії та децентралізовані агенти для даних, мережі оцінки тощо.
Вертикальна інтеграція є помітною тенденцією. Інфраструктурні проекти намагаються надати комплексні послуги, спростивши роботу розробників AI Dapp.
Майбутнє буде змішаним. Частина інференцій відбуватиметься на фронтенді, а частина – на ланцюзі, що дозволить врахувати фактори витрат і перевірки.
Джерело: IOSG
Вступ
Поєднання Web3 та AI є однією з найбільш обговорюваних тем у сучасній крипто-сфері. Талановиті розробники працюють над створенням AI інфраструктури для крипто-світу, прагнучи впровадити інтелект у смарт-контракти. Створення AI Dapp є надзвичайно складним завданням, оскільки розробники повинні впоратися з такими аспектами, як дані, моделі, обчислювальна потужність, операції, розгортання та інтеграція з блокчейном.
З огляду на ці потреби, засновники Web3 вже розробили багато попередніх рішень, таких як GPU-мережі, спільне маркування даних, спільні моделі навчання, перевірена AI-інференція та навчання, а також магазини агентів. Проте на фоні цієї процвітаючої інфраструктури фактичне використання AI або створення додатків для AI досить обмежене.
Розробники, шукаючи навчальні посібники з розробки AI Dapp, виявляють, що таких, пов’язаних з рідною крипто AI інфраструктурою, не так багато; більшість з них лише стосуються виклику API OpenAI на фронтенді.
Джерело: IOSG Ventures
Поточні застосунки не змогли повністю реалізувати децентралізовані та перевірені функції блокчейну, але ця ситуація незабаром зміниться. Наразі більшість проектів, що зосереджені на крипто-сфері, вже запустили тестові мережі та планують офіційний запуск протягом наступних 6 місяців. Це дослідження докладно розгляне основні інструменти, доступні в інфраструктурі штучного інтелекту у крипто-сфері. Давайте підготуємося до моменту GPT-3.5 у крипто-світі!
1. RedPill: надання децентралізованого доступу до OpenAI
Попередньо згаданий нами RedPill є чудовою точкою входу. OpenAI має кілька потужних моделей світового класу, таких як GPT-4-vision, GPT-4-turbo та GPT-4o, що робить їх ідеальними для створення передових Dapp в галузі штучного інтелекту. Розробники можуть викликати API OpenAI через оракули або фронт-енд інтерфейси, щоб інтегрувати їх у Dapp.
RedPill об'єднує API OpenAI різних розробників в одному інтерфейсі, надаючи користувачам по всьому світу швидкі, економічні та перевірені послуги штучного інтелекту, тим самим реалізуючи демократизацію доступу до ресурсів провідних моделей штучного інтелекту. Алгоритм маршрутизації RedPill направляє запити розробників до одного з учасників. Запити API виконуються через їхню мережу розподілу, що дозволяє обійти будь-які можливі обмеження з боку OpenAI, вирішуючи деякі поширені проблеми, з якими стикаються крипто-розробники, такі як:
• Обмеження TPM (токенів на хвилину): нові облікові записи мають обмежене використання токенів, що не відповідає потребам популярних Dapp, пов’язаних з AI.
• Обмеження доступу: деякі моделі мають обмеження доступу для нових облікових записів або певних країн.
Змінивши лише ім'я хоста, розробники можуть доступно, масштабовано та без обмежень отримувати доступ до моделей OpenAI, використовуючи той самий код запиту.
2. GPU мережі
Окрім використання API OpenAI, багато розробників також обирають самостійно хостити моделі у себе вдома. Вони можуть покладатися на децентралізовані GPU-мережі, такі як io.net, Aethir, Akash, щоб самостійно створити GPU-кластери та розгорнути і запустити різноманітні потужні внутрішні або відкриті моделі.
Такий децентралізований GPU-мережа може використовувати обчислювальні потужності приватних осіб або малих дата-центрів для забезпечення гнучкої конфігурації, більшої кількості вибору серверних локацій та нижчих витрат, дозволяючи розробникам легко проводити експерименти, пов’язані з AI, в межах обмеженого бюджету. Однак через децентралізований характер такі GPU-мережі мають певні обмеження в функціональності, доступності та конфіденційності даних.
Протягом останніх кількох місяців попит на GPU зріс, перевищивши попередній бум видобутку біткоїнів. Причини цього явища включають:
Зростання кількості цільових клієнтів, GPU мережі тепер обслуговують розробників AI, кількість яких не лише велика, але й більш лояльна, не підлягаючи впливу коливань цін на криптовалюту.
На відміну від спеціалізованих пристроїв для видобутку, децентралізовані GPU пропонують більше моделей і специфікацій, що краще відповідають вимогам. Особливо великі моделі обробки потребують більшої VRAM, тоді як для малих завдань є більш відповідні GPU. Водночас децентралізовані GPU можуть надавати послуги кінцевим користувачам з меншими затримками.
Технології стають дедалі зрілішими, GPU мережі залежать від швидких блокчейнів, таких як Solana, для розрахунків, технології віртуалізації Docker та обчислювальних кластерів Ray.
Щодо інвестиційної віддачі, ринок AI розширюється, нові можливості для розробки застосунків і моделей безліч, очікувана ставка повернення для моделі H100 становить 60-70%, тоді як видобуток біткоїнів є більш складним, з обмеженою кількістю переможців і обмеженим обсягом виробництва.
Компанії, що займаються видобутком біткоїнів, такі як Iris Energy, Core Scientific і Bitdeer, також почали підтримувати GPU мережі, надаючи AI послуги та активно купуючи GPU, спеціально розроблені для AI, такі як H100.
Рекомендація: для розробників Web2, які не надають великого значення SLA, io.net пропонує простий у використанні досвід, є дуже вигідним вибором.
Це є основою крипто-орієнтованої інфраструктури AI. У майбутньому вона підтримуватиме десятки мільярдів операцій інференції AI. Багато AI layer1 або layer2 надають розробникам можливість здійснювати рідний виклик AI інференції на ланцюзі. Лідерами ринку є Ritual, Valence та Fetch.ai.
Ці мережі мають відмінності в таких аспектах, як: продуктивність (затримка, час обчислення), підтримувані моделі, перевірка, ціна (витрати на ланцюзі, витрати на інференцію), досвід розробника.
3.1 Цілі
В ідеальному випадку розробники повинні мати можливість легко отримувати доступ до налаштованих інфраструктурних послуг AI з будь-якого місця, майже без жодних перешкод у процесі інтеграції. Інфраструктура інференції надає всю необхідну базову підтримку, включаючи генерування та перевірку доказів за запитом, виконання обчислень інференції, релейні та перевірочні дані інференції, надання інтерфейсів для Web2 та Web3, розгортання моделей одним натисканням кнопки, моніторинг системи, крос-ланцюгові операції, синхронну інтеграцію та плановане виконання.
Завдяки цим можливостям розробники можуть безшовно інтегрувати інфраструктурні послуги у свої існуючі смарт-контракти. Наприклад, при створенні DeFi торгових ботів ці боти використовують моделі машинного навчання для пошуку оптимальних моментів для купівлі та продажу певних торгових пар, виконуючи відповідні торгові стратегії на базових торгових платформах.
У повністю ідеальному стані вся інфраструктура хоститься в хмарах. Розробники просто повинні завантажити свої торгові моделі у загальному форматі, наприклад, torch, і інфраструктура буде зберігати та надавати моделі для запитів Web2 та Web3.
Після завершення всіх етапів розгортання моделей розробники можуть безпосередньо викликати інференцію моделей через Web3 API або смарт-контракт. Інфраструктура продовжуватиме виконувати ці торгові стратегії та повертати результати до базового смарт-контракту. Якщо громада, якою керує розробник, має значний обсяг коштів, також потрібно буде надати верифікацію інференційних результатів. Після отримання результатів інференції смарт-контракт виконає торгівлю відповідно до цих результатів.
3.1.1 Асинхронний та синхронний
Теоретично асинхронне виконання інференційних операцій може забезпечити кращу продуктивність; проте цей підхід може створити незручності в досвіді розробки. При використанні асинхронного підходу розробники спочатку повинні подати завдання до інфраструктури інференції через смарт-контракт. Коли завдання інференції завершено, смарт-контракт інфраструктури інференції поверне результати. У цій програмній моделі логіка поділяється на два компоненти: виклик інференції та обробка результатів інференції.
Якщо у розробника є вкладені виклики інференції та велика кількість логіки контролю, ситуація стає ще гіршою.
Асинхронна програмна модель ускладнює інтеграцію з існуючими смарт-контрактами. Це потребує від розробників написання великої кількості додаткового коду, а також обробки помилок і управління залежностями. Натомість синхронне програмування є більш інтуїтивно зрозумілим для розробників, але воно вводить проблеми у час реакції та проектування блокчейну. Наприклад, якщо вхідні дані – це швидко змінні дані, такі як час блокчейну або ціна, то після завершення інференції дані більше не будуть актуальними, що може призвести до необхідності відкотити виконання смарт-контракту в специфічних випадках. Уявіть, що ви торгуєте за застарілою ціною.
Агентські мережі дозволяють користувачам легко налаштовувати агентів. Така мережа складається з суб’єктів або смарт-контрактів, які здатні автономно виконувати завдання, взаємодіяти між собою та з блокчейн-мережею без прямого втручання людини. Вона в основному спрямована на технологію LLM. Наприклад, вона може надати чат-бота GPT, що глибоко розуміє Ethereum. Проте в даний час інструменти цього чат-бота є обмеженими, тому розробники ще не можуть створити складні додатки на цій основі.
Проте в майбутньому мережі агентів надаватимуть більше інструментів для використання агентами, не лише знання, а й можливість виклику зовнішніх API, виконання певних завдань тощо. Розробники зможуть з’єднувати кілька агентів для створення робочих процесів. Наприклад, написання смарт-контрактів на Solidity буде включати кілька спеціалізованих агентів, включаючи агентів з проєктування протоколів, агентів з розробки Solidity, агентів з перевірки безпеки коду та агентів з розгортання Solidity.
Ми координуємо співпрацю цих агентів, використовуючи підказки та сценарії. Деякі приклади мереж агентів включають Flock.ai, Myshell, Theoriq.
Рекомендація: більшість функцій сучасних агентів досить обмежені. Для специфічних випадків використання агенти Web2 можуть краще обслуговувати і мають зрілі інструменти оркестрації, такі як Langchain, Llamaindex.
5. Відмінності між агентськими мережами та інфраструктурою інференції
Агентські мережі більше зосереджені на LLM, надаючи такі інструменти, як Langchain, для інтеграції кількох агентів. Зазвичай, розробникам не потрібно самостійно розробляти моделі машинного навчання, оскільки агентські мережі вже спростили процес розробки та розгортання моделей. Вони лише повинні з’єднати необхідні агенти та інструменти. У більшості випадків кінцеві користувачі безпосередньо використовують цих агентів.
Інфраструктура інференції є підтримкою агентських мереж. Вона надає розробникам доступ до нижчого рівня. Зазвичай кінцеві користувачі не використовують інфраструктуру інференції безпосередньо. Розробники повинні розгортати свої моделі, і це не обмежується лише LLM, також вони можуть використовувати їх через точку доступу в ланцюзі або поза ним. Агентські мережі та інфраструктура інференції не є повністю незалежними продуктами. Ми вже почали бачити деякі вертикально інтегровані продукти. Вони надають агентські та інфраструктурні можливості через те, що обидва типи функцій залежать від схожої інфраструктури.
6. Нові можливості
Окрім інференції моделей, навчання та агентських мереж, у сфері web3 існує безліч нових галузей, які варто дослідити:
Набір даних: як перетворити дані блокчейну на набори даних, придатні для машинного навчання? Розробникам машинного навчання потрібні більш конкретні та спеціалізовані дані. Наприклад, Giza пропонує кілька високоякісних наборів даних про DeFi, спеціально призначених для навчання машинного навчання. Ідеальні дані повинні бути не лише простими табличними даними, але й графічними даними, що описують взаємодію у світі блокчейну. На даний момент у нас є недостатність у цій сфері. Деякі проекти намагаються вирішити цю проблему, винагороджуючи людей за створення нових наборів даних, такі як Bagel і Sahara, які обіцяють захист конфіденційності особистих даних.
Сховище моделей: деякі моделі є досить об’ємними, тому питання зберігання, розподілу та контролю версій цих моделей є критично важливими, оскільки це впливає на продуктивність та витрати на машинне навчання на ланцюзі. У цій сфері такі проекти, як Filecoin, AR та 0g, вже зробили значний прогрес.
Навчання моделей: розподілене та перевірене навчання моделей є складним завданням. Проекти, такі як Gensyn, Bittensor, Flock та Allora, уже досягли значного прогресу. Моніторинг: оскільки інференція моделей відбувається як в ланцюзі, так і поза ним, нам потрібна нова інфраструктура, щоб допомогти розробникам web3 відстежувати використання моделей, вчасно виявляти можливі проблеми та відхилення. З наявними моніторинговими інструментами розробники машинного навчання web3 можуть своєчасно коригувати та постійно оптимізувати точність моделей.
RAG інфраструктура: розподілена RAG потребує нової інфраструктури, яка має високі вимоги до зберігання, обчислення вбудованих даних і векторних баз даних, при цьому забезпечуючи конфіденційність даних. Це суттєво відрізняється від поточної інфраструктури Web3 AI, яка в основному покладається на третіх осіб для виконання RAG, такі як Firstbatch і Bagel.
Моделі, спеціально розроблені для Web3: не всі моделі підходять для контексту Web3. У більшості випадків моделі потрібно перенавчати, щоб вони відповідали конкретним застосуванням, таким як прогнозування цін, рекомендації тощо. У міру розвитку інфраструктури AI ми очікуємо, що в майбутньому з'явиться більше локальних моделей web3 для обслуговування AI-застосувань. Наприклад, Pond розробляє блокчейн GNN для прогнозування цін, рекомендацій, виявлення шахрайства та боротьби з відмиванням грошей у ряді сценаріїв.
Мережа оцінки: оцінка агентів без людського зворотного зв'язку є складним завданням. З розповсюдженням інструментів для створення агентів на ринку з'являться численні агенти. Це потребує системи для демонстрації можливостей цих агентів та допомоги користувачам у визначенні, який агент найкраще працює в конкретній ситуації. Наприклад, Neuronets є учасником цієї сфери.
Механізм консенсусу: для завдань AI PoS не обов'язково є найкращим вибором. Основні проблеми PoS включають обчислювальну складність, труднощі перевірки та відсутність визначеності. Bittensor створив новий розумний механізм консенсусу, який винагороджує вузли в мережі за внесок у моделі машинного навчання та результати.
7. Перспективи майбутнього
Ми наразі спостерігаємо тенденцію до вертикальної інтеграції. Створюючи базовий обчислювальний шар, мережа може підтримувати різноманітні завдання машинного навчання, включаючи навчання, інференцію та послуги агентських мереж. Ця модель має на меті надати розробникам машинного навчання Web3 повноцінні комплексні рішення. Наразі, хоча інференція на ланцюзі є дорогою та повільною, вона забезпечує чудову перевірку та безшовну інтеграцію з бекенд-системами (наприклад, смарт-контрактами). Я вважаю, що в майбутньому ми перейдемо до змішаних застосувань. Частина інференцій оброблятиметься на фронтенді або поза ланцюгом, тоді як критичні, рішучі інференції будуть виконані на ланцюзі. Ця модель вже була застосована на мобільних пристроях. Використовуючи природні характеристики мобільних пристроїв, вона здатна швидко виконувати невеликі моделі локально та перемістити більш складні завдання до хмари, використовуючи більш потужні LLM.