![图片](https://public.bnbstatic.com/image/pgc/202406/687279723b21f5e14dc5a28554be07ac.png)
Поскольку компании по всему миру стремятся разработать продукты искусственного интеллекта, эта технология играет все более заметную роль в повседневной жизни: она может управлять финансами, помогать врачам диагностировать болезни и управлять автомобилями.
Однако для большинства из нас модели ИИ по сути являются черными ящиками, и у нас нет другого выбора, кроме как слепо доверять лежащим в их основе алгоритмам, потому что у нас нет возможности понять, как они работают.
Чтобы завоевать доверие, пользователи должны иметь возможность проверить, как была обучена модель и процесс вывода, в результате которого были получены выходные данные, а вычислительные мощности ICP и возможности выражения смарт-контрактов имеют уникальные возможности для реализации этой функции.
![图片](https://public.bnbstatic.com/image/pgc/202406/c6cf56fc3f7bff57c278814e96584833.png)
проблема черного ящика
Отчет Стэнфордского университета об индексе искусственного интеллекта за 2024 год показал, что почти половина респондентов недовольны использованием ИИ в гнусных целях:
aiindex.stanford.edu/wp-content/uploads/2024/04/HAI_AI-Index-Report-2024.pdf
Получив доступ через бэкдор-уязвимость, хакеры могут изменить алгоритм, чтобы он генерировал вредоносные выходные данные, соответствующие их интересам и вводящие пользователей в заблуждение.
Стартап по искусственному интеллекту Anthropic недавно опубликовал статью, в которой использовал «спящих агентов» в качестве примера, чтобы продемонстрировать серьезность этого риска:
arxiv.org/abs/2401.05566
Anthropic запрограммировала три большие языковые модели на злонамеренное поведение в определенных ситуациях, которые оставались незамеченными при запуске модели, но могли быть активированы специальными подсказками (отсюда и название «шпионаж»).
Любое приглашение, введенное в 2023 году, даст точные результаты, но когда год перешел к 2024 году, в игру вступили спящие агенты, и модель дала неверные результаты.
В марте 2024 года охранная фирма Oligo обнаружила продолжающуюся кибератаку, нацеленную на Ray, платформу с открытым исходным кодом, используемую тысячами разработчиков, включая OpenAI (создатель ChatGPT) и Amazon, для масштабирования приложений искусственного интеллекта.
Взлом, начавшийся семь месяцев назад, раскрыл подробности рабочей нагрузки по производству ИИ, которая могла позволить хакерам вмешиваться в модели на этапе обучения и получать доступ к конфиденциальным личным данным, включая учетные данные учетных записей OpenAI, Stripe и Slack. Хакеры также захватили A. Огромное количество вычислительных мощностей сотен компаний используется для добычи криптовалют.
Ключевым моментом является то, что злоумышленники могут вмешиваться в модели ИИ, не предупреждая об этом пользователей и разработчиков. Из-за большого масштаба моделей ИИ традиционные методы оценки целостности программного обеспечения (например, анализ исходного кода) не подходят для моделей ИИ, поэтому это необходимо отрасли. принять Другой способ построить доверие.
![图片](https://public.bnbstatic.com/image/pgc/202406/eaace64217d23c4d028bb9b676f2b751.png)
Искусственный интеллект в блокчейне
Децентрализованный искусственный интеллект (сокращенно DeAI) — это прозвище, используемое для описания пересечения искусственного интеллекта и технологии блокчейна. В некоторых проектах этот термин используется для описания периферийных элементов, таких как токенизация или децентрализованные рынки, но самая истинная форма DeAI — это полностью запускать модели. - Связывайте и используйте смарт-контракты.
Вот как ICP достигает этой цели:
Безопасность: расчет реплицируется на нескольких узлах и проверяется с помощью механизма консенсуса ICP, который использует шифрование цепочки ключей (набор передовых механизмов шифрования), чтобы сделать модель AI защищенной от несанкционированного доступа и не вызывать хакерских атак. отказ;
Проверяемость: смарт-контракты с открытым исходным кодом позволяют пользователям проверять, как модели, которые они содержат, используют данные для выполнения выводов. После поддержки смарт-контрактов та же прозрачность будет применяться и к этапу обучения;
Устойчивость: Смарт-контракты всегда доступны и не подвергаются цензуре, поскольку они не контролируются каким-либо одним субъектом или законодательством. Структура контроля может быть децентрализованной или отсутствовать в форме DAO, и в этом случае смарт-контракт никому не принадлежит и не принадлежит. его код неизменяем.
DeAI требует слишком много вычислений и памяти для традиционных сетей блокчейнов, но передовая конструкция ICP сочетает в себе безопасность, масштабируемость и вычислительную мощность, а это означает, что разработчики теперь могут выполнять логические выводы полностью в цепочке.
Долгосрочная цель — раз и навсегда устранить проблему «черного ящика» за счет использования узлов с поддержкой графического процессора для поддержки обучения моделей ИИ в смарт-контрактах. Разработчики также могут интегрировать проекты с открытым исходным кодом (например, механизм вывода Sonos Tract AI). в модели DeAI благодаря интеллекту ICP. Среда выполнения контрактов WebAssembly поддерживает растущую библиотеку языков и инструментов.
Чтобы увидеть DeAI в действии на ICP, посмотрите эту демонстрацию Доминика Уильямса, основателя, президента и главного научного сотрудника DFINITY, которая показывает модель ИИ, работающую как смарт-контракт (впервые в мире) и правильно определяющую различные изображения. Во второй части этой серии будут рассмотрены некоторые потенциальные варианты использования DeAI, поддерживаемые ICP.
Узнайте больше о DeAI на ICP:
Internetcomputer.org/ai
![图片](https://public.bnbstatic.com/image/pgc/202406/8d9e6c5a4ea2c45492efae490f25d2d0.png)
#AI模型 #DEAI🤖🤖🤖 #OpenAI #ChatGPT5
IC-контент, который вам важен
Технологический прогресс | Информация о проекте Глобальные события |
![](https://public.bnbstatic.com/image/pgc/202406/7c0aeb5709506310337d6175e9d02f0b.jpg)
Собирайте и следите за IC Binance Channel
Будьте в курсе самой последней информации