Оригинальное название: Можем ли мы когда-нибудь доверять агентам искусственного интеллекта?
Автор оригинала: Марко Стокич
Первоисточник: https://www.coindesk.com/
Составитель: Mars Finance, Daisy
Марко Стокич, директор по искусственному интеллекту в Oasis, сказал, что децентрализованный искусственный интеллект дает нам возможность доверять агентам искусственного интеллекта, которые будут интегрированы в нашу цифровую жизнь.
Знаменитый гарвардский психолог Б. Ф. Скиннер однажды заметил: «Настоящий вопрос не в том, могут ли машины думать, а в том, могут ли думать люди». Эта шутка подчеркивает важный момент: наше доверие к технологиям зависит от человеческого суждения. Что нам действительно нужно беспокоиться, так это не интеллект машин, а мудрость и ответственность людей, которые ими управляют. По крайней мере, так было раньше.
Поскольку такое программное обеспечение, как ChatGPT, теперь стало неотъемлемой частью жизни многих работников, идеи Скиннера могут показаться устаревшими. Быстрый рост агентов ИИ — программных объектов, которые могут чувствовать окружающую среду и предпринимать действия для достижения конкретных целей — фундаментально меняет парадигму. Эти цифровые помощники, появившиеся в результате развития потребительского искусственного интеллекта в начале 2020-х годов, теперь проникли в нашу цифровую жизнь, выполняя самые разные задачи — от планирования встреч до принятия инвестиционных решений.
Что такое ИИ-агент?
Существуют значительные различия между агентами ИИ и большими языковыми моделями (LLM), такими как ChatGPT, в их способности действовать автономно. LLM в первую очередь используется для обработки и генерации текста, а агенты ИИ предназначены для восприятия окружающей среды, принятия решений и действий для достижения конкретных целей. Эти агенты сочетают в себе различные технологии искусственного интеллекта, включая обработку естественного языка, компьютерное зрение и обучение с подкреплением, что позволяет им адаптироваться и учиться на основе своего опыта.
Однако с постоянным увеличением и итерацией агентов ИИ беспокойство людей постепенно возрастает. Можем ли мы по-настоящему доверять этим цифровым объектам? Этот вопрос далек от академической дискуссии. Агенты ИИ работают в сложных средах, принимая решения на основе огромных наборов данных и сложных алгоритмов, которые даже их создатели с трудом могут полностью понять, как они работают. Эта присущая ему двусмысленность порождает недоверие. Когда ИИ-агент рекомендует определенное лечение или предсказывает рыночные тенденции, как мы определяем логику его выбора?
Когда доверие к агентам ИИ оказывается неуместным, последствия могут быть катастрофическими. Представьте себе, что финансовый консультант на базе искусственного интеллекта случайно вызвал обвал рынка из-за неправильного прочтения одной точки данных или медицинский искусственный интеллект, рекомендующий неправильное лечение на основе предвзятых данных обучения. Потенциальный вред не ограничивается одной конкретной областью; по мере того, как агенты ИИ все больше интегрируются в нашу повседневную жизнь, их влияние растет в геометрической прогрессии. Когда допущена ошибка, ее последствия могут распространиться по всему обществу, затрагивая все: от личной жизни до глобальной экономики.
В основе этого отсутствия доверия лежит фундаментальная проблема: централизация.
Разработку и внедрение моделей искусственного интеллекта в основном контролируют несколько технологических гигантов. Эти централизованные модели ИИ действуют как черные ящики, и их процессы принятия решений скрыты от общественного внимания. Отсутствие прозрачности делает практически невозможным доверять их решениям в операциях с высоким уровнем риска. Как мы можем полагаться на то, что ИИ-агент сделает критический выбор, если мы не можем понять или проверить его доводы?
Решение: децентрализация
Однако решение этих проблем существует: децентрализованный ИИ. Эта парадигма открывает путь к более прозрачным и заслуживающим доверия агентам ИИ. Этот подход использует сильные стороны технологии блокчейн и других децентрализованных систем для создания моделей ИИ, которые не только мощные, но и ответственные.
Инструменты для установления доверия к агентам ИИ уже существуют. Блокчейн позволяет проводить проверяемые расчеты и гарантирует, что действия ИИ можно будет проверить и отследить. Решения, принимаемые каждым агентом ИИ, могут быть записаны в общедоступном реестре, что обеспечивает беспрецедентную прозрачность. В то же время передовые технологии шифрования, такие как машинное обучение Trusted Execution Environment (TeeML), могут защитить конфиденциальные данные и поддерживать целостность модели, обеспечивая двойные гарантии прозрачности и конфиденциальности.
Поскольку агенты ИИ все чаще работают в публичных блокчейнах или рядом с ними, концепция проверяемости становится критически важной. Традиционным моделям ИИ может быть сложно доказать целостность своих операций, но агенты ИИ на основе блокчейна способны предоставить криптографические гарантии своих действий. Эта проверяемость — это больше, чем просто техническая деталь; это фундаментальное требование для построения доверия в средах с высокими ставками.
Технологии конфиденциальных вычислений, особенно доверенные среды выполнения (TEE), обеспечивают важный уровень гарантий. TEE обеспечивают безопасную гавань, в которой могут выполняться расчеты ИИ, избегая потенциальных помех. Эта технология еще больше повышает доверие, гарантируя, что даже операторы системы искусственного интеллекта не смогут вмешиваться или шпионить за процессом принятия решений агента.
Такие фреймворки, как Runtime Off-chain Logic (ROFL) от Oasis Network, представляют собой передовую линию этого подхода, органично сочетая поддающиеся проверке вычисления ИИ с возможностью аудита и прозрачности в цепочке. Эти инновации расширяют возможности приложений на основе искусственного интеллекта, сохраняя при этом самые высокие стандарты доверия и прозрачности.
На пути к надежному будущему искусственного интеллекта
Путь к надежным агентам ИИ непрост. Технические барьеры остаются, и широкое внедрение децентрализованных систем искусственного интеллекта потребует изменений в отраслевой практике и понимании общественности. Однако потенциальные выгоды огромны. Представьте себе мир, в котором агенты ИИ принимают важные решения с полной прозрачностью, чьи действия может проверить и проверить кто угодно, и где власть ИИ децентрализована, а не сконцентрирована в руках нескольких компаний.
В то же время это возможность добиться значительного экономического роста. Исследование, проведенное в Пекине в 2023 году, показало, что увеличение проникновения ИИ на 1% приведет к увеличению общей факторной производительности (СФП) на 14,2%. Однако большинство исследований производительности ИИ сосредоточено на моделях большого языка общего назначения (LLM), а не на агентах ИИ. Автономные агенты искусственного интеллекта, способные независимо выполнять несколько задач, потенциально могут привести к еще большему повышению производительности. Доверенные и проверяемые агенты ИИ могут быть более эффективными.
Возможно, пришло время обновить цитату Скиннера. Реальный вопрос уже не в том, думают ли машины, а в том, можем ли мы доверять их мышлению. Благодаря децентрализованному искусственному интеллекту и технологии блокчейна у нас есть инструменты для построения этого доверия. Вопрос теперь в том, хватит ли нам мудрости использовать эти инструменты.