Известный гарвардский психолог Б. Ф. Скиннер однажды высказал мнение, что «настоящая проблема заключается не в том, думают ли машины, а в том, думают ли люди». Это остроумное замечание подчеркивает некогда важный момент: наше доверие к технологиям зависит от человеческого суждения. Не о машинном интеллекте нам следует беспокоиться, а о мудрости и ответственности тех, кто им управляет. Или, по крайней мере, так было.

С таким программным обеспечением, как ChatGPT, которое теперь является неотъемлемой частью многих рабочих жизней, прозрение Скиннера кажется почти странным. Стремительный рост агентов ИИ — программных сущностей, способных воспринимать окружающую среду и предпринимать действия для достижения определенных целей — в корне изменил парадигму. Эти цифровые помощники, рожденные в результате бума потребительского ИИ в начале 2020-х годов, теперь проникают в нашу цифровую жизнь, выполняя задачи от планирования встреч до принятия инвестиционных решений.

Что такое агенты ИИ?

Агенты ИИ значительно отличаются от больших языковых моделей (LLM), таких как ChatGPT, своей способностью к автономным действиям. В то время как LLM в основном обрабатывают и генерируют текст, агенты ИИ предназначены для восприятия окружающей среды, принятия решений и выполнения действий для достижения конкретных целей. Эти агенты объединяют различные технологии ИИ, включая обработку естественного языка, компьютерное зрение и обучение с подкреплением, что позволяет им адаптироваться и учиться на своем опыте.

Но по мере того, как агенты ИИ размножаются и итерируются, также возникает грызущее беспокойство. Сможем ли мы когда-нибудь по-настоящему доверять этим цифровым сущностям? Вопрос далеко не академический. Агенты ИИ работают в сложных средах, принимая решения на основе огромных наборов данных и замысловатых алгоритмов, которые даже их создатели с трудом могут полностью понять. Эта присущая им непрозрачность порождает недоверие. Когда агент ИИ рекомендует медицинское лечение или предсказывает рыночные тенденции, как мы можем быть уверены в обоснованности его выбора?

Последствия необоснованного доверия к агентам ИИ могут быть ужасными. Представьте себе финансового консультанта на базе ИИ, который непреднамеренно обрушивает рынки из-за неверно истолкованной точки данных, или ИИ в здравоохранении, который рекомендует неправильное лечение на основе предвзятых данных обучения. Потенциал вреда не ограничивается отдельными секторами; по мере того, как агенты ИИ все больше интегрируются в нашу повседневную жизнь, их влияние растет экспоненциально. Ошибка может отразиться на всем обществе, затронув все: от личной конфиденциальности до мировой экономики.

В основе этого дефицита доверия лежит фундаментальная проблема: централизация. Разработка и внедрение моделей ИИ в значительной степени были компетенцией горстки технологических гигантов. Эти централизованные модели ИИ работают как черные ящики, их процессы принятия решений скрыты от общественного контроля. Из-за отсутствия прозрачности практически невозможно доверять их решениям в операциях с высокими ставками. Как мы можем полагаться на то, что агент ИИ сделает критический выбор, если мы не можем понять или проверить его рассуждения?

Децентрализация как ответ

Однако решение этих проблем существует: децентрализованный ИИ. Парадигма, которая предлагает путь к более прозрачным и заслуживающим доверия агентам ИИ. Этот подход использует сильные стороны технологии блокчейн и других децентрализованных систем для создания моделей ИИ, которые не только мощные, но и подотчетные.

Инструменты для создания доверия к агентам ИИ уже существуют. Блокчейны могут обеспечить проверяемые вычисления, гарантируя, что действия ИИ можно будет проверить и отследить. Каждое решение, принимаемое агентом ИИ, может быть записано в публичном реестре, что позволит достичь беспрецедентной прозрачности. Одновременно с этим передовые криптографические методы, такие как машинное обучение в доверенной среде выполнения (TeeML), могут защитить конфиденциальные данные и поддерживать целостность модели, достигая как прозрачности, так и конфиденциальности.

Поскольку агенты ИИ все чаще работают рядом или непосредственно на публичных блокчейнах, концепция проверяемости становится решающей. Традиционные модели ИИ могут испытывать трудности с доказательством целостности своих операций, но агенты ИИ на основе блокчейна могут предоставлять криптографические гарантии своего поведения. Эта проверяемость — не просто техническая тонкость; это фундаментальное требование для доверия в средах с высокими ставками.

Конфиденциальные вычислительные технологии, в частности, доверенные среды выполнения (TEE), предлагают важный уровень гарантий. TEE обеспечивают безопасный анклав, где могут происходить вычисления ИИ, изолированные от потенциального вмешательства. Эта технология гарантирует, что даже операторы системы ИИ не смогут вмешиваться или шпионить за процессом принятия решений агентом, что еще больше укрепляет доверие.

Такие фреймворки, как Runtime Off-chain Logic (ROFL) от Oasis Network, представляют собой передовую часть этого подхода, обеспечивая бесшовную интеграцию проверяемых вычислений ИИ с возможностью аудита и прозрачностью в цепочке. Такие инновации расширяют возможности приложений, управляемых ИИ, при этом сохраняя самые высокие стандарты доверия и прозрачности.

На пути к надежному будущему ИИ

Путь к надежным агентам ИИ не лишен трудностей. Технические препятствия остаются, и широкое внедрение децентрализованных систем ИИ потребует изменения как в отраслевых практиках, так и в общественном понимании. Однако потенциальные выгоды огромны. Представьте себе мир, в котором агенты ИИ принимают критически важные решения с полной прозрачностью, где их действия могут быть проверены и проверены кем угодно, и где сила искусственного интеллекта распределена, а не сосредоточена в руках нескольких корпораций.

Также есть шанс разблокировать значительный экономический рост. Одно исследование 2023 года из Пекина показало, что увеличение проникновения ИИ на 1% приводит к увеличению общей производительности факторов (TFP) на 14,2%. Однако большинство исследований производительности ИИ сосредоточены на общих LLM, а не на агентах ИИ. Автономные агенты ИИ, способные выполнять несколько задач независимо, потенциально могут дать больший прирост производительности. Надежные и проверяемые агенты ИИ, вероятно, будут еще более эффективными.

Возможно, пришло время обновить знаменитую цитату Скиннера. Реальная проблема уже не в том, думают ли машины, а в том, можем ли мы доверять их мыслям. С децентрализованным ИИ и блокчейном у нас есть инструменты для создания такого доверия. Теперь вопрос в том, есть ли у нас мудрость, чтобы их использовать.

Примечание: Мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают точку зрения CoinDesk, Inc. или ее владельцев и аффилированных лиц.