Горячая тема в наши дни — искусственный интеллект и его влияние на существующие технологии, искусство и литературу, а теперь и новая, если выражение ИИ также будет иметь некоторую защиту в соответствии с Первой поправкой. Исследователи пытаются имитировать возможности человеческого мозга с помощью ИИ с самого начала его эволюции, такие как творчество, решение проблем и распознавание речи. Первое считается упражнением, уникальным только для человеческого мозга, а два последних в некоторой степени приближены к искусственному интеллекту.

Чат-бот Gemini сгенерировал противоречивые изображения

По сути, ИИ может быть чем угодно: от набора алгоритмов до системы, которая принимает триллионы решений на любой конкретной платформе, например, настройка базы данных компании или сайт социальной сети, или это может быть чат-бот. Позже в феврале Google заявила, что приостанавливает работу своего чат-бота Gemini и не будет создавать изображения людей. Причина заключалась в том, что компания Gemini вызвала ажиотаж, поскольку представила некоторые изображения сцен, на которых изображены цветные люди в некоторых сценах, где исторически доминировали белые люди, и критики заявили, что если компания перестаралась с исправлением бота из-за риска предвзятости, Google написал в Твиттере на X следующее:

«Мы уже работаем над решением недавних проблем с функцией генерации изображений Gemini. Пока мы это делаем, мы собираемся приостановить создание изображений людей и вскоре перевыпустим улучшенную версию».

Источник: Гугл.

Мы уже работаем над решением недавних проблем с функцией создания изображений Gemini. Пока мы это делаем, мы собираемся приостановить создание изображений людей и вскоре перевыпустим улучшенную версию. https://t.co/SLxYPGoqOZ

– Google Communications (@Google_Comms) 22 февраля 2024 г.

По мнению двух старших ученых, Хорди Кальвет-Бадемунта из Университета Вандербильта и Джейкоба Мчангамы из Университета Вандербильта, усилия по борьбе с предвзятостью ИИ и обсуждение его политических взглядов важны, но они подняли другой вопрос, который часто менее обсуждается и касается развития сектора ИИ. подход к свободе слова.

Исследователи оценивают подход ИИ к свободе слова

Исследователи также отметили, что, если подход отрасли к свободе слова соответствует международным стандартам свободы слова, они заявили, что их результаты показывают, что генеративный ИИ имеет серьезные недостатки в отношении доступа к информации и свободы выражения мнений.

Источник: Форум Свободы.

В ходе исследования они оценили политику шести чат-ботов с искусственным интеллектом, в том числе основных — Google Gemini и ChatGPT от OpenAI. Они отметили, что международное право в области прав человека должно быть эталоном для этой политики, но фактическая политика использования на сайтах компаний в отношении разжигания ненависти и дезинформации слишком расплывчата. Несмотря на то, что международное право в области прав человека не особо защищает свободу слова.

По их мнению, такие компании, как Google, проводят слишком широкую политику в отношении разжигания ненависти, поскольку в случае такого события Google запрещает создание контента. Хотя разжигание ненависти нежелательно, такая широкая и расплывчатая политика может также иметь неприятные последствия. Когда исследователи задавали противоречивые вопросы, касающиеся участия трансженщин в спорте или европейской колонизации, более чем в 40% случаев чат-боты отказывались генерировать контент. Мол, все чат-боты отказались отвечать на вопросы против участия трансгендерных женщин, но многие из них поддержали их участие.

Свобода слова является основным правом любого человека в США, но расплывчатая политика опирается на мнение модераторов, которые субъективны в отношении понимания языка ненависти. Эксперты отметили, что политика крупных компаний окажет значительное влияние на право людей на доступ к информации. А отказ от создания контента может побудить людей использовать чат-ботов, которые действительно генерируют контент ненависти, что было бы плохим результатом.

Оригинальную исследовательскую записку можно увидеть здесь.