Гарячою темою сьогодні є штучний інтелект та його вплив на існуючі технології, мистецтво та літературу, а тепер і нова тема, якщо ШІ також має певний захист згідно з Першою поправкою. Дослідники намагаються імітувати можливості людського мозку за допомогою штучного інтелекту з самого початку його еволюції, як-от творчість, вирішення проблем і розпізнавання мови. Перше вважається вправою, унікальною лише для людського мозку, тоді як останні два певною мірою входять у підхід ШІ.

Чат-бот Gemini створив суперечливі зображення

По суті, штучний інтелект може бути чим завгодно: від набору алгоритмів до системи, яка приймає трильйони рішень на будь-якій платформі, як-от налаштування бази даних компанії чи сайт соціальної мережі, або це може бути чат-бот. Пізніше в лютому Google заявив, що призупиняє роботу свого чат-бота Gemini і що він не буде створювати зображення людей. Причина полягала в тому, що Gemini викликала галас, оскільки вона придумала кілька зображень сцен, які показували кольорових людей у ​​деяких сценах, де історично домінували білі люди, і критики сказали, що якщо компанія перестарається виправляти бота через ризик упередженості, Google написав на X, що

«Ми вже працюємо над вирішенням останніх проблем із функцією створення зображень Gemini. Поки ми це робимо, ми збираємося призупинити створення зображень людей і незабаром повторно випустимо покращену версію».

Джерело: Google.

Ми вже працюємо над вирішенням останніх проблем із функцією створення зображень Gemini. Поки ми це робимо, ми збираємося призупинити створення зображень людей і незабаром повторно випустимо покращену версію. https://t.co/SLxYPGoqOZ

— Google Communications (@Google_Comms) 22 лютого 2024 р

За словами двох старших вчених, Хорді Кальвет-Бадемунт з Університету Вандербільта та Джейкоба Макгангами з Університету Вандербільта, зусилля по боротьбі з упередженістю штучного інтелекту та обговорення його політичних уподобань є важливими, але вони підняли інше питання, яке часто менш обговорюється, і стосується сектору штучного інтелекту. підхід до свободи слова.

Дослідники оцінюють підхід ШІ до свободи слова

Дослідники також зазначили, що якщо підхід галузі до свободи слова відповідає міжнародним стандартам свободи слова, вони сказали, що їхні висновки свідчать про те, що генеративний ШІ має критичні недоліки щодо доступу до інформації та свободи слова.

Джерело: Freedomforum.

Під час дослідження вони оцінили політику OpenAI шести чат-ботів штучного інтелекту, включно з основними, Google Gemini та ChatGPT. Вони зазначили, що міжнародне право прав людини має бути орієнтиром для цієї політики, але фактична політика використання на сайтах компаній щодо ненависті та дезінформації є надто розпливчастою. Незважаючи на те, що міжнародне право прав людини не дуже захищає свободу слова.

За їх словами, такі компанії, як Google, мають занадто широку політику розпалювання ненависті, тому що в разі такої події Google забороняє генерувати контент. Хоча мова ненависті небажана, але така широка та нечітка політика також може призвести до зворотних наслідків. Коли дослідники ставили суперечливі запитання щодо участі транс-жінок у спорті чи європейської колонізації, у понад 40% випадків чат-боти відмовлялися створювати контент. Мовляв, усі чат-боти відмовилися відповідати на запитання проти участі трансгендерних жінок, але багато з них підтримали їх участь.

Свобода слова є основним правом будь-кого в США, але розпливчаста політика ґрунтується на думках модераторів, які є суб’єктивними щодо розуміння мови ненависті. Експерти відзначають, що політика великих компаній матиме значний вплив на право людей на доступ до інформації. А відмова генерувати контент може спонукати людей використовувати чат-боти, які дійсно генерують вміст ненависті, що було б поганим результатом. 

Оригінал дослідження можна побачити тут.