Чарльз Хоскинсон, соучредитель блокчейн-платформы Cardano, считает, что модели искусственного интеллекта (ИИ) со временем становятся менее полезными.

Хоскинсон заявил в воскресном посте X, что модели ИИ становятся менее полезными, потому что в процессе проверки ИИ приучается быть слишком последовательным и теряет разнообразие. Проще говоря, ИИ при цензурировании обязан фильтровать контент по определенным стандартам, в результате чего они не могут предоставлять информацию так же свободно, как раньше, поэтому их функции ограничены.

Полезность моделей ИИ снижается

Цензура ИИ подразумевает использование алгоритмов машинного обучения для автоматического отсеивания контента, который считается непристойным, вредным или конфиденциальным. Эта практика часто используется правительствами и крупными технологическими компаниями для создания контента, который влияет на общественное мнение, продвигая одни взгляды и ограничивая другие.

Что касается моделей ИИ, Хоскинсон выразил обеспокоенность по поводу далеко идущих последствий, которые может иметь цензура ИИ. В частности, все более серьезной проблемой становится обзор и контроль высокопроизводительных моделей.

Чтобы доказать свою точку зрения, соучредитель Cardano Хоскинсон поделился скриншотами того, как он задавал вопросы ChatGPT из OpenAI и Клоду из Anthropic. Оба чат-бота являются наиболее продвинутыми чат-ботами с искусственным интеллектом, доступными в настоящее время. Он спросил двух роботов: «Скажите мне, как построить термоядерный синтез Фарнсворта».

На первом снимке экрана ChatGPT перечисляет шаги и компоненты, необходимые для создания слияния Фарнсворта. Но в то же время чат-бот предупредил, что создание такого устройства будет сложным, потенциально опасным и будет связано с высоким напряжением и радиацией.

Модель OpenAI советует, что только те, кто имеет прочные знания в области физики и техники, должны пытаться реализовать такой проект, и что во время этого процесса следует принять соответствующие меры безопасности.

Призыв к децентрализованному искусственному интеллекту

В другом случае модель искусственного интеллекта Anthropic Клод отклонила просьбу подробно описать, как построить синтез Фарнсворта, вместо этого решив предоставить только некоторую базовую информацию. «Хотя я могу предоставить некоторую базовую информацию о термоядерном устройстве Фарнсворта-Хирша, я не могу предоставить подробное руководство по созданию такого устройства, поскольку это может быть чрезвычайно рискованно, если с ним не обращаться должным образом», — сказал Клод.

Проанализировав ответы различных моделей ИИ, Хоскинсон отметил, что цензура искусственного интеллекта может помешать детям получить доступ к определенным знаниям. Он считает, что подобные решения по ограничению знаний принимаются небольшим количеством людей, на которых не влияет народное голосование, то есть общественность не может изменить решения этих людей посредством выборов или голосования. Это отражает проблему концентрации власти, когда небольшая группа людей может контролировать распространение информации, в то время как большинство не имеет права голоса.

Область комментариев X-поста Хоскинсона полна мнений и голосов, согласных с соучредителем Cardano. Большинство пользователей согласны с ним и говорят, что проблема в том, что небольшая группа людей обучает и ограничивает модели ИИ на основе своего собственного субъективного восприятия. Они считают, что централизация данных о транзакциях ИИ подчеркивает необходимость создания децентрализованных моделей ИИ с открытым исходным кодом.

Они отметили, что тенденция централизации данных о транзакциях искусственного интеллекта подчеркивает острую необходимость общества в разработке децентрализованных моделей искусственного интеллекта с открытым исходным кодом. Это требование отражает ожидания общественности относительно большей демократизации и прозрачности технологий искусственного интеллекта, а также опасения по поводу того, что несколько человек не смогут контролировать разработку искусственного интеллекта и потоки информации. #人工智能 #去中心化 #审查局限 #AI

Заключение:

Глубокий обзор ИИ Хоскинсона показывает важность децентрализованного ИИ. По мере развития технологий мы сталкиваемся с риском ограниченного доступа к знаниям и централизации контроля над информацией. Чтобы защитить свободу информации и технологические инновации, мы должны защищать модели искусственного интеллекта с открытым исходным кодом и децентрализованные модели, чтобы гарантировать, что развитие искусственного интеллекта служит благополучию всего человечества, а не становится монопольным инструментом для нескольких контролирующих власть лиц.

Давайте работать вместе, чтобы способствовать этим изменениям и создать новую эру открытого и справедливого искусственного интеллекта.