图片

Спільнота Web3 є дуже відкритою, експериментальною та зазвичай підтримує проекти, які намагаються просувати дослідження в комп'ютерних науках, однак, однією з речей, які ми не робимо добре, є ясність ідеї або спілкування, ця стаття має на меті допомогти пояснити необхідні умови для розгортання AI моделей на смарт-контрактах.

Простими словами: після прочитання цієї статті ви повинні мати просту інтуїцію про те, що можливо станом на жовтень 2024 року та що ще потрібно вирішити.

Чи була штучний інтелект на ланцюзі? Якщо ні, чого не вистачає?

Менші моделі також можуть реалізувати AI на ланцюзі, але наразі обмеження пам’яті, обчислювальної потужності та механізму консенсусу заважають ефективному розгортанню великих AI моделей, таких як LLM, на блокчейні, як це передбачалось, якби вони були розгорнуті на традиційних хмарних серверах.

Однак наразі триває багато нововведень, щоб допомогти закрити цю прогалину.

Які основні висновки?

Вартість обчислень штучного інтелекту дуже висока, вартість обчислень у децентралізованих системах також висока, тому поєднання обох дорогих речей... може ускладнити ситуацію.

Співзасновник WebAssembly Андреас Россберг ідеально це пояснив:

Але на мій погляд, справжня причина, чому штучний інтелект на блокчейні є "складним", полягає в тому, що обидві ці технології самі по собі вже дуже дорогі (блокчейн через копіювання та консенсус, штучний інтелект через те, що LLM по суті є величезними методами грубої сили), апаратура, спроектована для запуску штучного інтелекту, є повністю націленою на зниження витрат, але при об'єднанні з блокчейном витрати на апаратуру насправді зростають - вони не просто зростають, а збільшуються в кілька разів, тому з точки зору використання ресурсів це найгірший варіант, зловживання більше, ніж використання.

Джерело:

  • forum.dfinity.org/t/what-makes-ai-on-blockchain-hard-request-for-feedback-on-post/32686/3

图片

Корисна фоновая інформація

Щоб зрозуміти цю статтю, кілька понять варто швидко пояснити.

1. Навчання та міркування

Коли люди говорять про штучний інтелект, зазвичай вони мають на увазі "навчання" моделі або "міркування" (використовуючи модель, наприклад, запитуючи ChatGPT), навчання є набагато складнішим на кілька порядків, і потребує більше ресурсів, тому я тут зосереджуюсь на міркуваннях, оскільки це перша велика перешкода перед вирішенням більш складних викликів навчання.

2. ЦП та GPU

Простіше кажучи, GPU є комп’ютерами, оптимізованими для AI моделей, вони обробляють моделі на швидкості в 1000 разів швидше, ніж традиційні універсальні комп’ютери (ЦП), це важливо, оскільки більшість вузьких місць AI у сфері Web2 можуть бути вирішені "використовуючи GPU", більшість блокчейнів працюють на ЦП, тому у них (наразі) немає доступного рішення, ця стаття пояснює причини.

3. Пам’ять смарт-контракту

Пам’ять смарт-контрактів включає в себе сховище та стекову пам’ять, обидва типи пам’яті важливі для роботи AI моделей, обидва є обмежуючими факторами сьогодні.

4. Моє вузьке визначення штучного інтелекту

Я визнаю, що моє визначення AI є досить вузьким: я зосереджуюсь на розгортанні моделей у смарт-контрактах, я не маю на увазі більш широкий екосистему AI, наприклад, я не написав статей про маркери або векторизовані бази даних, які є ключовими для RAG та більш широкої екосистеми AI (насправді, багато людей вже знайшли способи розміщення векторизованих баз даних у смарт-контрактах), тому так, моя ціль є вузькою: розміщення AI моделей на смарт-контрактах.

图片

Необхідні фактори для AI на ланцюзі

Вступ

Для того, щоб штучний інтелект був реалізований у смарт-контрактах, необхідні три фактори:

  • Пам'ять - моделі потребують великої кількості пам'яті комп'ютера, тоді як пам'ять блокчейнів менша, ніж пам'ять централізованих хмар.

  • Обчислення - моделі потребують великої кількості обчислень (наприклад, мислення/швидкість/обробка), блокчейн має менше ресурсів, ніж централізовані хмарні моделі.

  • Апаратне забезпечення - більшість централізованих постачальників підвищують продуктивність AI, інвестуючи більше в апаратне забезпечення, блокчейнам важче робити це, насправді багато протоколів не розширюються через інвестиції в апаратне забезпечення.

图片

1. Пам’ять

Що потрібно моделям штучного інтелекту

Потреби в пам'яті AI міркувань можуть сильно варіюватися між різними AI моделями, наприклад, невеликі моделі машинного навчання (ML) можуть потребувати лише кількох мегабайт (MB), тоді як великі мовні моделі (LLM) можуть потребувати кілька тисяч мегабайт (GB) пам'яті.

Сучасний світ

Я хотів би дати читачам корисний огляд, але я навмисно не надав таблиць чи графіків для порівняння різних блокчейнів, згідно з моїм досвідом, це може призвести до двох речей:

  • У найкращому випадку це будуть деякі чесні помилки, наприклад, "Гей, Дієго, ти помилився! Наша платформа смарт-контрактів виконує 600 інструкцій на секунду, а не 550."

  • У найгіршому випадку це може викликати племінну належність блокчейну, що призведе до ігнорування решти.

Отже, я напишу статті про потреби AI, Ethereum (універсальна мова) та ICP (блокчейн, з яким я дуже знайомий), я заохочую читачів наводити власні аналізи для інших ланцюгів!

Смарт-контракти Ethereum

Стекова пам’ять смарт-контрактів Ethereum вимірюється в КБ, що означає, що Ethereum не може підтримувати більшість AI моделей, які я знаю, можливо, є деякі AI моделі в КБ, але простіше кажучи: смарт-контракти Ethereum не можуть підтримувати більшість AI моделей, про які говорять люди.

Смарт-контракти ICP

Смарт-контракти ICP мають 400 ГБ стабільної пам’яті (наприклад, для зберігання) і 4 ГБ стекової пам’яті, що означає, що смарт-контракти ICP можуть підтримувати багато, але не всі AI моделі, більш конкретно, моделі, які можуть працювати в смарт-контрактах ICP:

① Смарт-контракти ICP можуть запускати AI моделі, подібні до того, що в демонстрації 1 для класифікації зображень, ML модель потребує лише приблизно 10 МБ пам’яті, отже, цілком в межах ресурсів пам’яті ICP.

② Смарт-контракти ICP можуть підтримувати моделі LLM, див. приклади спільноти:

  • Llama 3 8b працює в мережі!

  • Llama.cpp на Інтернет-комп’ютері

Смарт-контракти ICP наразі не можуть запускати моделі: смарт-контракти ICP поки що не можуть запускати більші версії Llama, такі як 70B параметрів.

Наразі смарт-контракти ICP пропонують 4 ГБ стекової пам’яті і незабаром матимуть більше пам’яті, тому це вже дуже близько до нормального сервісу.

Правило 1

Щоразу, коли хтось говорить "X є ланцюговим штучним інтелектом", ви повинні запитати: "Скільки пам’яті можуть мати смарт-контракти на X?"

Якщо відповідь це...

  • У Кб не можна підтримувати жодної справжньої AI моделі;

  • У Мб можна підтримувати невеликі моделі (і є багато невеликих моделей), але не можна підтримувати LLM;

  • У Гб вона може вмістити кілька менших LLM;

  • У десятках Гб хост може вмістити більше, але не основних LLM;

  • У сотнях Гб вона може вмістити майже всі LLM.

Що стосується ICP, більшість AI моделей можуть бути розміщені на ланцюзі (з деяким перетворенням моделей), питання полягає в тому, як довго користувач готовий чекати на відповідь, що підводить нас до наступного питання: обчислення.

图片

2. Обчислення

Що потрібно моделям штучного інтелекту

Обчислювальна потужність, необхідна для міркування AI, вимірюється в кількості плаваючих точок за секунду (FLOPS), складність і розмір AI моделі можуть сильно варіюватися, що впливає на необхідну обчислювальну потужність, однак у контексті блокчейн-протоколу має більше сенсу використовувати загальніші терміни, наприклад, кількість операцій за секунду, тому ми будемо використовувати цей термін, оскільки на практиці він часто в тій же величині.

Менші моделі можуть потребувати лише кілька мільярдів операцій на секунду, тоді як великі мовні моделі (LLM) та інші вдосконалені AI моделі можуть вимагати більше обчислень, наприклад, кількісна (в основному оптимізована для розміру) Llama3 7B модель, яка може потребувати кілька сотень мільярдів операцій для міркування (відповіді на підказку користувача).

З точки зору користувача

З точки зору користувача, різниця в обчисленнях, необхідних для відповіді LLM, може становити кілька секунд, кілька годин, кілька днів, кілька тижнів або кілька місяців, залежно від обсягу обчислювальних ресурсів, які має смарт-контракт.

Сучасний світ

Смарт-контракти Ethereum

Смарт-контракти Ethereum в основному залежать від EVM, а EVM не оптимізовано для високопродуктивних обчислювальних завдань, точніше, обсяги обчислень смарт-контрактів ETH значно нижчі за величину гігафлопсів, необхідних для більшості AI моделей.

DFINITY оцінює, що максимальна кількість інструкцій на секунду приблизно становить 5 мільйонів інструкцій на секунду відповідно до обмеження газу в блокчейні, тому Ethereum не може забезпечити обчислювальну потужність, необхідну для запуску складних AI моделей (особливо великих мовних моделей LLM).

Смарт-контракти ICP

Смарт-контракти ICP мають кращі обчислювальні ресурси, вони можуть виконувати 2 мільярди операцій на секунду, варто зазначити, що (на відміну від Ethereum, який обробляє лише цілі числа) смарт-контракти ICP також можуть обробляти обчислення з плаваючою комою та цілі числа.

Моделі, які можуть працювати в смарт-контрактах ICP: ICP може виконувати AI моделі, які потребують до мільярда операцій на секунду, і виконувати міркування у часі, очікуваному користувачем (кілька секунд або менше), що включає багато менших моделей, таких як модель класифікації зображень у цій демонстрації, яка може працювати ефективно з кількома мільярдами операцій на секунду.

Моделі смарт-контрактів ICP поки що не можуть працювати так швидко, як очікує користувач: кількісний Llama3 7B модель вимагає кілька сотень мільярдів міркувань (відповіді на підказки користувача), смарт-контракти ICP можуть підтримувати 2 мільярди операцій на секунду, теоретично один смарт-контракт ICP виконує один запит на міркування, тобто відповідає на підказку, що може зайняти кілька секунд до кількох хвилин.

Незабаром: Відділ досліджень DFINITY досліджує способи підвищення обчислювальної потужності смарт-контрактів ICP, потенційні покращення включають інтеграцію спеціалізованого апаратного забезпечення або оптимізацію середовища виконання для обробки вищих вимог до кількості операцій на секунду.

Правило 2

Щоразу, коли хтось говорить "X є ланцюговим штучним інтелектом", ви повинні запитати: "Скільки обчислювальної потужності можуть надати смарт-контракти на X блокчейні?"

Якщо відповідь це...

  • З точки зору мільйонів секунд або коротших операцій, міркування штучного інтелекту займе багато часу, так що користувачі вважатимуть, що воно зовсім не працює.

  • Вимірюючи в сотнях мільйонів операцій за секунду, дуже маленькі моделі можуть виконувати міркування за кілька хвилин.

  • Вимірюючи в мільярдах, менші LLM можуть виконувати міркування за кілька хвилин або значно повільніше, ніж очікує користувач.

  • Вимірюючи в десятках мільярдів, міркування LLM може бути тим, що сучасні користувачі очікують від LLM.

  • Вимірюючи в трильйонах операцій за секунду, воно може підтримувати майже всі AI моделі, включаючи найсучасніші LLM, і надати відмінний користувацький досвід.

图片

3. Проблеми з апаратним забезпеченням (підказка: це детерміністичність)

У світі Web2 збільшення обчислювальних ресурсів моделі зазвичай означає використання GPU, оскільки GPU швидші, тому це причина великого попиту на GPU по всьому світу.

Чому блокчейн не може просто використовувати GPU?

Технічні причини: Оскільки GPU спроєктовані для багатопотокового виконання, немає гарантії, що всі операції є детерміністичними, у той час як блокчейн потребує детерміністичних обчислень для досягнення консенсусу, на практиці існують способи змусити GPU діяти детерміністично, але це вимагає ретельного розгляду та налаштування, але спочатку я поясню важливість детерміністичності.

Простішим поясненням є те, що блокчейн працює шляхом виконання однакових обчислень кількома комп’ютерами, а потім досягнення консенсусу щодо результатів за допомогою протоколу консенсусу, блокчейн має поріг безпеки, зазвичай від 25% до 49%, що визначає, скільки несправних або нечесних вузлів він може терпіти під час досягнення консенсусу, однак, під час використання GPU, навіть якщо всі вузли використовують однакову модель, навіть чесні вузли можуть повертати різні відповіді для LLM, що створює проблеми для протоколу консенсусу.

Приклад: Уявіть собі, що на блокчейні є три комп’ютери, кожен з яких запускає смарт-контракт LLM, і користувач запитує: "Що таке LLM?"

  • Комп’ютер 1: "LLM, тобто великі мовні моделі, є передовими моделями штучного інтелекту, призначеними для розуміння та генерації людської мови, які зазвичай мають велику кількість параметрів і були навчальні на великій кількості текстових даних."

  • Комп’ютер 2: "LLM, тобто великі мовні моделі, є потужними системами штучного інтелекту, які можуть виконувати завдання, такі як розуміння, генерація та переклад людської мови, навчені на великій кількості тексту."

  • Комп’ютер 3: "LLM, тобто великі мовні моделі, є моделями штучного інтелекту, які добре справляються з обробкою та генерацією людської мови, навчені на великих наборах даних."

Незважаючи на те, що три комп'ютери є чесними і використовують однакову модель, їхні відповіді можуть бути різними, ця недетермінованість може виникати з різних причин і є проблемою, протокол консенсусу не може визначити, яка відповідь є правильною, що контрастує з простими, детерміністичними обчисленнями, наприклад, "1 + 1", де всі комп'ютери погоджуються, що це "2".

З огляду на вищевикладене, я повинен додати деякі деталі: навіть якщо температура моделі встановлена на 0, все ще може виникати недетермінованість, проблема в тому, що недетермінованість походить від GPU, а не від самої моделі. Реальна проблема полягає в тому, що якщо температура дорівнює 0, GPU у більшості випадків поверне однакові відповіді, створюючи хибне відчуття безпеки, але ця детерміністичність не гарантована, і якщо вона не гарантована, це може призвести до того, що блокчейн не зможе досягти консенсусу.

Приклад вигаданого, але конкретного числа: якщо GPU є детерміністичним 99,99% часу, це означає, що з 10 000 підказок одна може повернути іншу відповідь, уявіть, якщо один з 10 000 блоків блоку не може досягти консенсусу... більшість блокчейнів не зможуть досягти консенсусу, що є небезпечним для консенсусу.

Основні моменти

  • Блокчейн покладається на копіювання обчислень і досягнення консенсусу щодо результатів;

  • GPU вводять недетермінованість, що ускладнює досягнення консенсусу в блокчейні;

  • Отже, сучасні блокчейни не можуть використовувати GPU так, як системи Web2.

Можливі рішення

Це новий виклик, але люди досліджують кілька потенційних рішень (на момент написання цієї статті це ще не було повністю вирішено):

  • Досягнення детерміністичності за допомогою GPU: розробка методів, які роблять обчислення на GPU детерміністичними, це можливо, хоча трохи складно, і ще не було широко прийнято.

  • Модифікація протоколу консенсусу: налаштування механізму консенсусу для роботи з недетермінованістю, це вимагає серйозної роботи з протоколом.

  • Прийняття недетермінованості та використання нульових знань: запуск LLM на одній машині без копіювання, цей метод значно повільніший, ніж використання ЦП або GPU, він теоретично можливий, але важко реалізувати і залишається невирішеним питанням.

Вся екосистема штучного інтелекту та блокчейну (включаючи DFINITY) активно досліджує та вивчає ці три методи для визначення найкращого рішення.

Правило 3

Якщо хтось стверджує, що "мій блокчейн працює на GPU", тоді одна з наступних заяв є правильною:

  • Вони детерміністично запускають GPU або застосовують наближені механізми консенсусу;

  • Їхній блокчейн не має потужного протоколу консенсусу (і є небезпечним);

  • Вони не говорять правду.

图片

Висновок

Ланцюговий штучний інтелект ще не повністю реалізований, хоча досягнуто деякого обнадійливого прогресу в інтеграції міркувань штучного інтелекту, необхідно вирішити величезний розрив у пам’яті, обчислювальній потужності та механізмі консенсусу, ці виклики не є непереборними, але вимагають зосередженого дослідження, розробки та інновацій, зрозумівши та вирішивши ці перешкоди, мрія поєднати потужність штучного інтелекту з безпекою та децентралізацією блокчейну може стати реальністю.

Сподіваюсь, це буде корисно для всіх!

图片

#AI模型 #gpu #DEAI🤖🤖🤖 #LLM

Вміст IC, який вас цікавить

Технічний прогрес | Інформація про проекти | Глобальні події

Підписуйтеся на канал IC на Binance

Будьте в курсі останніх новин