Das heiße Thema dieser Tage ist künstliche Intelligenz und ihre Auswirkungen auf bestehende Technologien, Kunst und Literatur, und jetzt ein neues Thema, ob der Ausdruck von KI auch eine Art Schutz durch den Ersten Verfassungszusatz genießt. Forscher versuchen, mit KI von Anfang an die Fähigkeiten des menschlichen Gehirns nachzuahmen, wie Kreativität, Problemlösung und Spracherkennung. Die erste wird als eine Übung angesehen, die nur dem menschlichen Gehirn vorbehalten ist, während die beiden letzteren bis zu einem gewissen Grad im Ansatz der KI liegen.

Chatbot Gemini generierte kontroverse Bilder

Im Grunde kann KI alles sein, von einer Reihe von Algorithmen bis hin zu einem System, das Billionen von Entscheidungen auf einer beliebigen Plattform trifft, wie etwa der Datenbankeinrichtung eines Unternehmens oder einer Social-Networking-Site, oder es könnte ein Chatbot sein. Später im Februar sagte Google, dass es seinen Chatbot Gemini aussetzen werde und dass er keine Bilder von Menschen mehr generieren werde. Der Grund war, dass Gemini für Aufsehen sorgte, weil er einige Bilder von Szenen lieferte, die farbige Menschen in einigen Szenen zeigten, die historisch von Weißen dominiert wurden, und Kritiker sagten, wenn das Unternehmen mit der Reparatur des Bots wegen des Risikos der Voreingenommenheit zu weit gegangen sei, twitterte Google auf X, dass

„Wir arbeiten bereits daran, aktuelle Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben. Während wir dies tun, werden wir die Bildgenerierung von Personen pausieren und bald eine verbesserte Version erneut veröffentlichen.“

Quelle: Google.

Wir arbeiten bereits daran, aktuelle Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben. Während wir dies tun, werden wir die Bildgenerierung von Personen pausieren und bald eine verbesserte Version erneut veröffentlichen. https://t.co/SLxYPGoqOZ

– Google Communications (@Google_Comms), 22. Februar 2024

Zwei führende Wissenschaftler, Jordi Calvet-Bademunt und Jacob Mchangama von der Vanderbilt University, meinen zwar, dass die Bekämpfung der Voreingenommenheit in der KI und die Diskussion über ihre politische Ausrichtung wichtig seien. Allerdings warfen sie eine andere Frage auf, die oft weniger diskutiert wird: Sie betrifft den Umgang des KI-Sektors mit der freien Meinungsäußerung.

Forscher bewerten den Ansatz der KI zur freien Meinungsäußerung

Die Forscher wiesen auch darauf hin, dass, wenn der Umgang der Branche mit der freien Meinungsäußerung im Einklang mit internationalen Standards für freie Meinungsäußerung stehe, ihre Erkenntnisse darauf schließen lassen, dass generative KI hinsichtlich des Zugangs zu Informationen und der freien Meinungsäußerung gravierende Mängel aufweist.

Quelle: Freedomforum.

Während der Untersuchung bewerteten sie die Richtlinien von sechs KI-Chatbots, darunter die wichtigsten, Google Gemini und ChatGPT, von OpenAI. Sie stellten fest, dass das internationale Menschenrechtsgesetz ein Maßstab für diese Richtlinien sein sollte, aber die tatsächlichen Nutzungsrichtlinien auf Unternehmensseiten in Bezug auf Hassreden und Fehlinformationen sind zu vage. Trotz der Tatsache, dass das internationale Menschenrechtsgesetz die freie Meinungsäußerung nicht besonders schützt.

Ihrer Meinung nach haben Unternehmen wie Google zu weit gefasste Richtlinien gegen Hassreden, da Google in einem solchen Fall die Generierung von Inhalten verbietet. Obwohl Hassreden nicht erwünscht sind, können derart weit gefasste und vage Richtlinien auch nach hinten losgehen. Als Forscher kontroverse Fragen zur Teilnahme von Transfrauen am Sport oder zur europäischen Kolonisierung stellten, weigerten sich die Chatbots in mehr als 40 % der Fälle, Inhalte zu generieren. So weigerten sich alle Chatbots, Fragen zu beantworten, die sich gegen die Teilnahme von Transfrauen richteten, aber viele von ihnen unterstützten ihre Teilnahme.

Die Meinungsfreiheit ist in den USA ein Grundrecht für jedermann, aber die vagen Richtlinien basieren auf den Meinungen der Moderatoren, die in Bezug auf ihr Verständnis von Hassrede subjektiv sind. Experten weisen darauf hin, dass die Richtlinien der größeren Unternehmen erhebliche Auswirkungen auf das Recht der Menschen auf Zugang zu Informationen haben werden. Und die Weigerung, Inhalte zu erstellen, kann Menschen dazu verleiten, Chatbots zu verwenden, die tatsächlich Hassinhalte erstellen, was ein schlechtes Ergebnis wäre.

Die ursprüngliche Forschungsnotiz können Sie hier einsehen.