Горячая тема в наши дни — искусственный интеллект и его влияние на существующие технологии, искусство и литературу, а теперь и новая, если выражение ИИ также будет иметь некоторую защиту в соответствии с Первой поправкой. Исследователи пытаются имитировать возможности человеческого мозга с помощью ИИ с самого начала его эволюции, такие как творчество, решение проблем и распознавание речи. Первое считается упражнением, уникальным только для человеческого мозга, а два последних в некоторой степени приближены к искусственному интеллекту.
Чат-бот Gemini сгенерировал противоречивые изображения
По сути, ИИ может быть чем угодно: от набора алгоритмов до системы, которая принимает триллионы решений на любой конкретной платформе, например, настройка базы данных компании или сайт социальной сети, или это может быть чат-бот. Позже в феврале Google заявила, что приостанавливает работу своего чат-бота Gemini и не будет создавать изображения людей. Причина заключалась в том, что компания Gemini вызвала ажиотаж, поскольку представила некоторые изображения сцен, на которых изображены цветные люди в некоторых сценах, где исторически доминировали белые люди, и критики заявили, что если компания перестаралась с исправлением бота из-за риска предвзятости, Google написал в Твиттере на X следующее:
«Мы уже работаем над решением недавних проблем с функцией генерации изображений Gemini. Пока мы это делаем, мы собираемся приостановить создание изображений людей и вскоре перевыпустим улучшенную версию».
Источник: Гугл.
Мы уже работаем над решением недавних проблем с функцией создания изображений Gemini. Пока мы это делаем, мы собираемся приостановить создание изображений людей и вскоре перевыпустим улучшенную версию. https://t.co/SLxYPGoqOZ
– Google Communications (@Google_Comms) 22 февраля 2024 г.
По мнению двух старших ученых, Хорди Кальвет-Бадемунта из Университета Вандербильта и Джейкоба Мчангамы из Университета Вандербильта, усилия по борьбе с предвзятостью ИИ и обсуждение его политических взглядов важны, но они подняли другой вопрос, который часто менее обсуждается и касается развития сектора ИИ. подход к свободе слова.
Исследователи оценивают подход ИИ к свободе слова
Исследователи также отметили, что, если подход отрасли к свободе слова соответствует международным стандартам свободы слова, они заявили, что их результаты показывают, что генеративный ИИ имеет серьезные недостатки в отношении доступа к информации и свободы выражения мнений.
Источник: Форум Свободы.
В ходе исследования они оценили политику шести чат-ботов с искусственным интеллектом, в том числе основных — Google Gemini и ChatGPT от OpenAI. Они отметили, что международное право в области прав человека должно быть эталоном для этой политики, но фактическая политика использования на сайтах компаний в отношении разжигания ненависти и дезинформации слишком расплывчата. Несмотря на то, что международное право в области прав человека не особо защищает свободу слова.
По их мнению, такие компании, как Google, проводят слишком широкую политику в отношении разжигания ненависти, поскольку в случае такого события Google запрещает создание контента. Хотя разжигание ненависти нежелательно, такая широкая и расплывчатая политика может также иметь неприятные последствия. Когда исследователи задавали противоречивые вопросы, касающиеся участия трансженщин в спорте или европейской колонизации, более чем в 40% случаев чат-боты отказывались генерировать контент. Мол, все чат-боты отказались отвечать на вопросы против участия трансгендерных женщин, но многие из них поддержали их участие.
Свобода слова является основным правом любого человека в США, но расплывчатая политика опирается на мнение модераторов, которые субъективны в отношении понимания языка ненависти. Эксперты отметили, что политика крупных компаний окажет значительное влияние на право людей на доступ к информации. А отказ от создания контента может побудить людей использовать чат-ботов, которые действительно генерируют контент ненависти, что было бы плохим результатом.
Оригинальную исследовательскую записку можно увидеть здесь.