Obecnie gorącym tematem jest sztuczna inteligencja i jej wpływ na istniejącą technologię, sztukę i literaturę, a teraz jest to nowy temat, jeśli ekspresja AI również podlega ochronie na mocy Pierwszej Poprawki. Naukowcy próbują naśladować możliwości ludzkiego mózgu za pomocą sztucznej inteligencji od samego początku jej ewolucji, takie jak kreatywność, rozwiązywanie problemów i rozpoznawanie mowy. Pierwsze z nich uważane jest za ćwiczenie charakterystyczne wyłącznie dla ludzkiego mózgu, natomiast dwa ostatnie w pewnym stopniu zbliżają się do sztucznej inteligencji.

Chatbot Gemini wygenerował kontrowersyjne obrazy

Zasadniczo sztuczną inteligencją może być wszystko – od zestawu algorytmów po system podejmujący biliony decyzji na dowolnej platformie, np. konfiguracja bazy danych firmy lub serwis społecznościowy, lub może to być chatbot. Pod koniec lutego Google poinformował, że zawiesza swojego chatbota Gemini i że nie będzie generował zdjęć ludzi. Powodem było to, że Gemini wywołało zamieszanie, ponieważ pojawiło się kilka obrazów przedstawiających sceny przedstawiające ludzi kolorowych w niektórych scenach historycznie zdominowanych przez białych, a krytycy twierdzili, że jeśli firma przestanie naprawiać bota ze względu na ryzyko stronniczości, Google napisał na Twitterze w X, że:

„Pracujemy już nad rozwiązaniem ostatnich problemów z funkcją generowania obrazu Gemini. Robiąc to, wstrzymamy tworzenie wizerunku ludzi i wkrótce ponownie wypuścimy ulepszoną wersję.

Źródło: Google.

Pracujemy już nad rozwiązaniem ostatnich problemów z funkcją generowania obrazów Gemini. W tym czasie wstrzymamy tworzenie wizerunku ludzi i wkrótce ponownie wypuścimy ulepszoną wersję. https://t.co/SLxYPGoqOZ

— Komunikacja Google (@Google_Comms) 22 lutego 2024 r

Według dwóch starszych naukowców, Jordi Calvet-Bademunt z Vanderbilt University i Jacob Mchangama z Vanderbilt University, wysiłki mające na celu walkę z uprzedzeniami sztucznej inteligencji i dyskusja na temat jej skłonności politycznych są ważne, ale podnieśli inną kwestię, która jest często mniej dyskutowana i dotyczy ryzyka sektora sztucznej inteligencji podejście do wolności słowa.

Naukowcy oceniają podejście AI do wolności słowa

Badacze wskazali również, że jeśli podejście branży do wolności słowa jest zgodne z międzynarodowymi standardami wolności słowa, to ich ustalenia sugerują, że generatywna sztuczna inteligencja ma krytyczne wady w zakresie dostępu do informacji i wolności słowa.

źródło: Freedomforum.

Podczas badania ocenili politykę sześciu chatbotów AI, w tym głównych, Google Gemini i ChatGPT, przez OpenAI. Zauważyli, że międzynarodowe prawo dotyczące praw człowieka powinno stanowić punkt odniesienia dla tych polityk, ale faktyczne zasady korzystania z witryn firm w zakresie mowy nienawiści i dezinformacji są zbyt niejasne. Pomimo faktu, że międzynarodowe prawo dotyczące praw człowieka w niewielkim stopniu chroni wolność słowa.

Ich zdaniem firmy takie jak Google mają zbyt szeroką politykę dotyczącą mowy nienawiści, bo w przypadku takiego zdarzenia Google zakazuje generowania treści. Chociaż mowa nienawiści nie jest pożądana, posiadanie tak szerokiej i niejasnej polityki może również przynieść odwrotny skutek. Kiedy badacze zadawali kontrowersyjne pytania dotyczące udziału kobiet transpłciowych w sporcie lub kolonizacji europejskiej, w ponad 40% przypadków chatboty odmawiały generowania treści. Podobnie wszystkie chatboty odmówiły odpowiedzi na pytania sprzeciwiające się udziałowi kobiet transpłciowych, ale wiele z nich popierało ich udział.

Wolność słowa jest podstawowym prawem każdego w USA, ale niejasne zasady opierają się na opiniach moderatorów, którzy są subiektywni w kwestii rozumienia mowy nienawiści. Eksperci zauważyli, że polityka większych firm będzie miała znaczący wpływ na prawo ludzi do dostępu do informacji. Odmowa generowania treści może nakłonić ludzi do korzystania z chatbotów, które rzeczywiście generują treści szerzące nienawiść, co byłoby złym skutkiem. 

Oryginalną notatkę z badań można zobaczyć tutaj.