Оригінальна назва: Can We Ever Trust AI Agents?

Автор оригіналу: Марко Стокіч

Джерело: https://www.coindesk.com/

Укладач: Mars Finance, Daisy

Марко Стокіч, директор відділу ШІ в Oasis, сказав, що децентралізований ШІ дає нам можливість довіряти агентам ШІ, які будуть інтегровані в наше цифрове життя.

Відомий гарвардський психолог Б. Ф. Скіннер якось зазначив: «Справжнє питання полягає не в тому, чи можуть мислити машини, а в тому, чи можуть люди думати». Те, про що нам дійсно потрібно хвилюватися, так це не про інтелект машин, а про мудрість і відповідальність людей, які ними керують. Принаймні, так було раніше.

Оскільки таке програмне забезпечення, як ChatGPT, стало невід’ємною частиною багатьох робочих життів, ідеї Скіннера можуть здатися застарілими. Швидкий розвиток агентів штучного інтелекту — програмних об’єктів, які можуть відчувати навколишнє середовище та вживати заходів для досягнення конкретних цілей — докорінно змінює парадигму. Ці цифрові помічники, народжені під час зростання споживчого ШІ на початку 2020-х років, тепер проникли в наше цифрове життя, вирішуючи різноманітні завдання від планування зустрічей до прийняття інвестиційних рішень.

Що таке агент ШІ?

Існують значні відмінності між агентами ШІ та великими мовними моделями (LLM), такими як ChatGPT, у їхній здатності діяти автономно. LLM в основному використовується для обробки та генерації тексту, тоді як агенти штучного інтелекту призначені для сприйняття середовища, прийняття рішень і виконання дій для досягнення конкретних цілей. Ці агенти поєднують різноманітні технології штучного інтелекту, включаючи обробку природної мови, комп’ютерне бачення та навчання з підкріпленням, що дозволяє їм адаптуватися та навчатися на основі свого досвіду.

Однак у зв’язку з постійним збільшенням і ітерацією агентів штучного інтелекту занепокоєння людей поступово зростає. Чи можемо ми справді довіряти цим цифровим сутностям? Це питання далеке від академічної дискусії. Агенти штучного інтелекту працюють у складних середовищах, приймаючи рішення на основі масивних наборів даних і складних алгоритмів, навіть їхнім творцям важко зрозуміти, як вони працюють. Ця властива неоднозначність породжує недовіру. Коли агент ШІ рекомендує певне лікування або прогнозує ринкові тенденції, як ми визначаємо логіку його вибору?

Коли довіра до агентів штучного інтелекту недоречна, наслідки можуть бути катастрофічними. Уявіть собі, що фінансовий консультант на основі штучного інтелекту випадково викликає крах ринку, неправильно прочитавши одну точку даних, або медичний штучний інтелект рекомендує неправильне лікування на основі упереджених даних навчання. Потенційна шкода не обмежується однією конкретною сферою; оскільки агенти штучного інтелекту все більше інтегруються в наше повсякденне життя, їхній вплив зростає експоненціально. Коли робиться помилка, наслідки можуть поширюватися на все суспільство, торкаючись усього: від особистої приватності до глобальної економіки.

В основі цього браку довіри лежить фундаментальна проблема: централізація.

Розробка та розгортання моделей AI в основному контролюється кількома технологічними гігантами. Ці централізовані моделі штучного інтелекту працюють як чорні скриньки, і їхні процеси прийняття рішень приховані від громадського контролю. Відсутність прозорості робить майже неможливим довіряти їхнім рішенням у високоризикованих операціях. Як ми можемо покладатися на агента штучного інтелекту для прийняття критичних рішень, коли ми не можемо зрозуміти чи перевірити його міркування?

Рішення: децентралізація

Однак рішення цих проблем існує: децентралізований ШІ. Ця парадигма відкриває шлях до більш прозорих і надійних агентів ШІ. Цей підхід використовує сильні сторони технології блокчейн та інших децентралізованих систем для створення моделей ШІ, які є не тільки потужними, але й відповідальними.

Інструменти встановлення довіри до агентів ШІ вже існують. Blockchain забезпечує перевірені обчислення та гарантує, що дії штучного інтелекту можна перевірити та відстежити. Рішення, прийняті кожним агентом штучного інтелекту, можна реєструвати в публічній книзі, що забезпечує безпрецедентну прозорість. У той же час передові технології шифрування, такі як Trusted Execution Environment Machine Learning (TeeML), можуть захистити конфіденційні дані та підтримувати цілісність моделі, забезпечуючи подвійну гарантію прозорості та конфіденційності.

Оскільки агенти штучного інтелекту дедалі частіше працюють на загальнодоступних блокчейнах або поруч із ними, концепція верифікованості стає критичною. Традиційні моделі штучного інтелекту можуть мати труднощі з підтвердженням цілісності своїх операцій, але агенти штучного інтелекту на основі блокчейну можуть надавати криптографічні гарантії своїх дій. Ця можливість перевірки є більшою, ніж технічна деталь;

Конфіденційні обчислювальні технології, особливо довірені середовища виконання (TEE), забезпечують важливий рівень гарантії. TEE забезпечують безпечну гавань, у якій можуть проводитися обчислення ШІ, уникаючи потенційних перешкод. Ця технологія додатково підвищує довіру, гарантуючи, що навіть оператори системи штучного інтелекту не можуть втручатися в процес прийняття рішень агентом або стежити за ним.

Фреймворки, такі як Runtime Off-chain Logic (ROFL) від Oasis Network, представляють собою авангард цього підходу, бездоганно поєднуючи перевірені обчислення ШІ з можливістю перевірки та прозорістю в ланцюжку. Ці інновації розширюють можливості для програм на основі ШІ, зберігаючи при цьому найвищі стандарти довіри та прозорості.

На шляху до надійного майбутнього ШІ

Шлях до надійних агентів ШІ не без проблем. Технічні бар'єри залишаються, і широке впровадження децентралізованих систем штучного інтелекту вимагатиме змін у галузевих практиках і громадського розуміння. Проте потенційні винагороди величезні. Уявіть собі світ, де агенти штучного інтелекту приймають критично важливі рішення з повною прозорістю, чиї дії можуть бути перевірені та перевірені будь-ким, і де влада ШІ децентралізована, а не зосереджена в руках кількох компаній.

Водночас це можливість розблокувати значне економічне зростання. Дослідження 2023 року в Пекіні показало, що збільшення проникнення ШІ на 1% призведе до збільшення загальної факторної продуктивності (TFP) на 14,2%. Однак більшість досліджень продуктивності штучного інтелекту зосереджуються на великих мовних моделях загального призначення (LLM), а не на агентах штучного інтелекту. Автономні агенти штучного інтелекту, здатні самостійно виконувати кілька завдань, можуть ще більше підвищити продуктивність. Надійні агенти штучного інтелекту, які можна перевірити, можуть бути більш ефективними.

Можливо, настав час оновити цитату Скіннера. Справжнє питання вже не в тому, чи думають машини, а в тому, чи можна довіряти їхньому мисленню. Завдяки децентралізованому штучному інтелекту та технології блокчейн у нас є інструменти для побудови цієї довіри. Питання в тому, чи вистачить нам мудрості використовувати ці інструменти.