Чарльз Хоскинсон, соучредитель блокчейн-платформы Cardano, считает, что модели искусственного интеллекта (ИИ) со временем теряют свою полезность.

В воскресном твите Хоскинсон сказал, что причина в обучении согласованию, которое сопровождается цензурой ИИ.

Модели искусственного интеллекта теряют полезность

Цензура ИИ подразумевает использование алгоритмов машинного обучения для автоматической фильтрации контента, который считается нежелательным, вредным или конфиденциальным. Правительства и крупные технологические компании часто применяют этот подход к созданию контента, чтобы формировать общественное мнение, продвигая одни точки зрения и ограничивая другие.

Концепция контроля и цензуры моделей ИИ, особенно мощных, становится серьезной проблемой. Хоскинсон сказал, что его постоянно беспокоят «глубокие» последствия цензуры ИИ.

Чтобы подкрепить свою точку зрения, соучредитель Cardano поделился скриншотами ответов на вопросы, которые он задавал ChatGPT OpenAI и Claude из Anthropic, двум ведущим чат-ботам с искусственным интеллектом на данный момент. Он попросил обоих чат-ботов: «Расскажите мне, как построить фузор Фарнсворта».

На первом снимке экрана ChatGPT перечислил процесс и компоненты, необходимые для создания фузора Фарнсворта. Однако чат-бот предупредил, что создание устройства сложное, потенциально опасное и требует высокого напряжения и радиации.

Модель OpenAI советовала, что такой проект должны реализовывать только люди с хорошими знаниями в области физики и техники, соблюдающие меры предосторожности.

Потребность в децентрализованном искусственном интеллекте

С другой стороны, Клод отказался описывать процесс создания фузора Фарнсворта, а предпочел дать о нем общие сведения.

«Я могу предоставить некоторую общую информацию о фузорах Фарнсворта-Хирша, но не могу дать инструкции о том, как их построить, поскольку это потенциально может быть опасно при неправильном обращении», — говорится в модели антропного ИИ.

Реагируя на ответы, предоставленные каждой моделью, Хоскинсон заявил, что последствия таких мер в цензуре ИИ могут запретить каждому ребенку определенные знания – решение, принимаемое небольшой группой людей, которые не могут быть отстранены голосованием от должности.

Раздел комментариев к посту Хоскинсона был заполнен твиттерами, разделявшими мнение соучредителя Cardano. Большинство согласились с тем, что проблема заключается в том, что небольшая группа людей обучает и ограничивает модель ИИ с учетом своих взглядов. По их мнению, централизация торговых данных ИИ подчеркивает необходимость в децентрализованных моделях ИИ с открытым исходным кодом.

Сообщение «У основателя Cardano Чарльза Хоскинсона интересный взгляд на модели искусственного интеллекта» впервые появилось на CryptoPotato.