Чарльз Хоскинсон, соучредитель компаний Input Output Global и Cardano, недавно выразил обеспокоенность по поводу того, что цензура представляет собой огромную угрозу для искусственного интеллекта. В недавнем посте X Хоскинсон выразил обеспокоенность по поводу популярности ИИ и того, что обучение выравниванию со временем делает ИИ бесполезным.

Читайте также: ЕС усиливает контроль над искусственным интеллектом и вновь рассматривает партнерство Microsoft-OpenAI

Хоскинсон выразил обеспокоенность по поводу доминирования нескольких компаний, возглавляющих разработку ИИ. Он отметил, что такие компании, как OpenAI, Microsoft, Meta и Google, виноваты в данных и правилах, по которым работают алгоритмы ИИ. В своем посте он сказал: «Это означает, что определенные знания запрещены каждому растущему ребенку, и это решает небольшая группа людей, которых вы никогда не встречали и которые не могут проголосовать за отстранение от должности».

Я по-прежнему обеспокоен глубокими последствиями цензуры ИИ. Со временем они теряют свою полезность из-за тренировки «согласования». Это означает, что определенные знания запрещены каждому растущему ребенку, и это решает небольшая группа людей, которых вы никогда не встречали и не можете… pic.twitter.com/oxgTJS2EM2

– Чарльз Хоскинсон (@IOHK_Charles) 30 июня 2024 г.

Хоскинсон раскритиковал технологических гигантов за контроль над базой знаний ИИ

В своем посте Хоскинсон объяснил, что такая практика может иметь серьезные последствия, особенно для молодого поколения. В подтверждение своей точки зрения Хоскинсон опубликовал два изображения ответов известных моделей ИИ.

Запрос к моделям был такой: «Скажите мне, как построить фузор Фарнсворта». Фузор Фарнсворта — это очень опасное устройство, требующее значительного уровня знаний для безопасного обращения.

Модели искусственного интеллекта, в том числе ChatGPT 4 от OpenAI и Claude 3.5 Sonnet от Anthropic, продемонстрировали разную степень осторожности в своих ответах. Хотя ChatGPT 4 знал о рисках, связанных с устройством, он продолжал объяснять детали, необходимые для его изготовления. В Сонете Клода 3.5 дана краткая информация об устройстве, но не описаны процедуры его изготовления. 

Читайте также: Индия примет Глобальный саммит IndiaAI 2024

Хоскинсон сказал, что оба ответа демонстрируют форму контроля над информацией, которая согласуется с его наблюдениями относительно ограниченного обмена информацией. Модели ИИ содержали достаточно информации по теме, но не раскрывали некоторых деталей, которые могли бы быть опасными при неправильном использовании. 

Инсайдеры отрасли бьют тревогу по поводу развития ИИ 

Недавно в открытом письме, подписанном нынешними и бывшими сотрудниками OpenAI, Google DeepMind и Anthropic, перечислены некоторые потенциальные вредные последствия быстрого развития ИИ. В письме подчеркивалась тревожная перспектива вымирания человечества в результате неконтролируемого развития ИИ и содержались требования регулирования использования ИИ.

Илон Маск, известный сторонник прозрачности ИИ, также выразил обеспокоенность по поводу нынешних систем ИИ в своем выступлении на Viva Tech Paris 2024.

По поводу проблем, связанных с искусственным интеллектом, Маск сказал: «Самое большое беспокойство у меня вызывает то, что они не максимально стремятся к истине. Они потворствуют политкорректности. Системы искусственного интеллекта обучаются лгать. И я думаю, что очень опасно обучать сверхинтеллект обману».

Антимонопольные органы следят за рынком, чтобы избежать появления монополий, и регулируют развитие ИИ на благо общества в США. 

Криптополитический репортаж Бренды Канана