Відомий гарвардський психолог Б. Ф. Скіннер якось висловив думку, що «справжня проблема полягає не в тому, чи думають машини, а в тому, чи думають люди». Це дотепне спостереження підкреслює важливий момент: наша довіра до технологій залежить від людського судження. Нас слід турбувати не про машинний інтелект, а про мудрість і відповідальність тих, хто ним керує. Або принаймні так було.

З таким програмним забезпеченням, як ChatGPT, яке тепер є невід’ємною частиною багатьох робочих життів, розуміння Скіннера виглядає майже дивним. Стрімке зростання агентів штучного інтелекту – програмних об’єктів, здатних сприймати навколишнє середовище та вживати заходів для досягнення конкретних цілей – докорінно змінило парадигму. Ці цифрові помічники, народжені під час буму споживчого штучного інтелекту на початку 2020-х років, тепер проникають у наше цифрове життя, вирішуючи завдання від планування зустрічей до прийняття інвестиційних рішень.

Що таке агенти ШІ?

Агенти ШІ суттєво відрізняються від великих мовних моделей (LLM), таких як ChatGPT, своєю здатністю до автономних дій. У той час як магістратури переважно обробляють і генерують текст, агенти штучного інтелекту призначені для сприйняття свого середовища, прийняття рішень і вжиття заходів для досягнення конкретних цілей. Ці агенти поєднують різні технології штучного інтелекту, включаючи обробку природної мови, комп’ютерне бачення та навчання з підкріпленням, що дозволяє їм адаптуватися та вчитися на своєму досвіді.

Але в міру того, як агенти штучного інтелекту розмножуються та повторюються, зростає й жахливе занепокоєння. Чи можемо ми коли-небудь по-справжньому довіряти цим цифровим сутностям? Питання далеко не академічне. Агенти штучного інтелекту працюють у складних середовищах, приймаючи рішення на основі величезних наборів даних і складних алгоритмів, які навіть їхні творці не можуть повністю зрозуміти. Ця властива непрозорість породжує недовіру. Коли агент штучного інтелекту рекомендує медичне лікування або прогнозує ринкові тенденції, як ми можемо бути впевнені в аргументації його вибору?

Наслідки недовіри до агентів ШІ можуть бути жахливими. Уявіть фінансового консультанта на основі штучного інтелекту, який ненавмисно обвалює ринки через неправильно витлумачену точку даних, або штучний інтелект охорони здоров’я, який рекомендує неправильне лікування на основі упереджених даних навчання. Потенціал шкоди не обмежується окремими секторами; оскільки агенти штучного інтелекту все більше інтегруються в наше повсякденне життя, їхній вплив зростає експоненціально. Помилка може вплинути на все суспільство, від приватного життя до глобальної економіки.

В основі цього дефіциту довіри лежить фундаментальна проблема: централізація. Розробка та розгортання моделей штучного інтелекту здебільшого належать до компетенції кількох технологічних гігантів. Ці централізовані моделі штучного інтелекту працюють як чорні скриньки, їхні процеси прийняття рішень приховані від громадського контролю. Відсутність прозорості робить фактично неможливим довіряти їхнім рішенням у операціях із високими ставками. Як ми можемо покладатися на агента штучного інтелекту для прийняття критичних рішень, коли ми не можемо зрозуміти чи перевірити його міркування?

Децентралізація як відповідь

Однак рішення цих проблем існує: децентралізований ШІ. Парадигма, яка пропонує шлях до більш прозорих і надійних агентів ШІ. Цей підхід використовує сильні сторони технології блокчейн та інших децентралізованих систем для створення моделей ШІ, які є не тільки потужними, але й відповідальними.

Інструменти для створення довіри до агентів ШІ вже існують. Блокчейни можуть увімкнути обчислення, які можна перевірити, забезпечуючи перевірку та відстеження дій ШІ. Кожне рішення, прийняте агентом штучного інтелекту, може реєструватися в публічній книзі, що забезпечує безпрецедентну прозорість. Водночас передові криптографічні методи, такі як машинне навчання довіреного середовища виконання (TeeML), можуть захистити конфіденційні дані та підтримувати цілісність моделі, досягаючи як прозорості, так і конфіденційності.

Оскільки агенти штучного інтелекту все частіше працюють поруч із загальнодоступними блокчейнами або безпосередньо на них, концепція верифікованості стає вирішальною. Традиційним моделям штучного інтелекту може бути важко довести цілісність своїх операцій, але агенти ШІ на основі блокчейну можуть надати криптографічні гарантії своєї поведінки. Ця можливість перевірки є не просто технічною тонкістю; це фундаментальна вимога для довіри в середовищах з високими ставками.

Конфіденційні обчислювальні методи, зокрема довірені середовища виконання (TEE), пропонують важливий рівень гарантії. TEE забезпечують безпечний анклав, де можуть відбуватися обчислення ШІ, ізольовані від потенційного втручання. Ця технологія гарантує, що навіть оператори системи штучного інтелекту не зможуть втручатися в процес прийняття рішень агентом або стежити за ним, що ще більше зміцнює довіру.

Фреймворки, такі як Runtime Off-chain Logic (ROFL) Oasis Network, представляють передовий край цього підходу, що забезпечує повну інтеграцію перевірених обчислень ШІ з можливістю перевірки та прозорістю в ланцюзі. Такі інновації розширюють можливості для додатків, керованих ШІ, зберігаючи при цьому найвищі стандарти довіри та прозорості.

На шляху до надійного майбутнього ШІ

Шлях до надійних агентів ШІ не позбавлений труднощів. Технічні перешкоди залишаються, і широке впровадження децентралізованих систем штучного інтелекту вимагатиме зміни як у галузевих практиках, так і в розумінні громадськості. Проте потенційні винагороди величезні. Уявіть собі світ, де агенти штучного інтелекту приймають важливі рішення з повною прозорістю, де їхні дії можуть бути перевірені та перевірені будь-ким, і де потужність штучного інтелекту розподілена, а не зосереджена в руках кількох корпорацій.

Також є шанс розблокувати значне економічне зростання. Одне дослідження 2023 року в Пекіні показало, що збільшення проникнення штучного інтелекту на 1% призводить до зростання загальної продуктивності факторів (TFP) на 14,2%. Однак більшість досліджень продуктивності штучного інтелекту зосереджуються на загальних магістрах права, а не на агентах ШІ. Автономні агенти штучного інтелекту, здатні виконувати кілька завдань незалежно, потенційно можуть принести більший приріст продуктивності. Надійні агенти штучного інтелекту, які підлягають перевірці, ймовірно, будуть ще ефективнішими.

Можливо, настав час оновити відому цитату Скіннера. Справжня проблема вже не в тому, чи думають машини, а в тому, чи можемо ми довіряти їхнім думкам. Завдяки децентралізованому штучному інтелекту та блокчейну ми маємо інструменти для побудови такої довіри. Питання в тому, чи вистачить нам мудрості їх використовувати.

Примітка: погляди, висловлені в цій колонці, належать автору та не обов’язково відображають погляди CoinDesk, Inc. або її власників і афілійованих осіб.