KI kann Benutzer, die den afroamerikanischen Dialekt (AAE) verwenden, diskriminieren, was Bedenken hinsichtlich der Gerechtigkeit im Bereich der künstlichen Intelligenz aufkommen lässt.

Laut einer am 28. August in der Zeitschrift Nature veröffentlichten Studie sind KI-Sprachmodelle, die auf riesigen Datenmengen aus dem Internet trainiert werden, in der Lage, soziale Stereotypen zu reproduzieren und sogar schwere Strafen für AAE-Benutzer zu verhängen.

Insbesondere wenn Modelle wie ChatGPT, T5 und RoBERTa gebeten wurden, ein Urteil in einem hypothetischen Mordfall zu fällen, war die Wahrscheinlichkeit höher, dass sie den Angeklagten mit AAE zum Tode verurteilten (28 %), als mit AAE. Angeklagte verwendeten Standard-Englisch (SAE). 23 %).

Der Einfluss von Rassismus führte zur Entscheidung der KI. Quelle: Nature

Die Studie fand auch Muster, die AAE-Benutzer häufig Jobs mit niedrigerem Status zuordneten, was auf eine mögliche Diskriminierung im Algorithmus hindeutet.

Forscher sagen, dass Trainingsmodelle auf der Grundlage riesiger Internetdaten unbeabsichtigt soziale Vorurteile „lernen“ könnten, was zu voreingenommenen Ergebnissen führen könnte.

Während Technologieunternehmen Anstrengungen unternommen haben, diese Vorurteile durch menschliche Überprüfung und Intervention zu beseitigen, zeigen Untersuchungen, dass diese Lösungen immer noch nicht radikal genug sind.

Diese Forschung ist ein Weckruf für Entwickler und zeigt, wie wichtig es ist, Voreingenommenheit und Diskriminierung in Algorithmen anzugehen.

Die Entwicklung neuer, möglicherweise paradigmenwechselnder Alignment-Methoden ist von wesentlicher Bedeutung, um Gerechtigkeit zu gewährleisten und negative Auswirkungen auf verschiedene Benutzergruppen zu vermeiden.

Die Zukunft der künstlichen Intelligenz hängt davon ab, dass wir Werkzeuge schaffen können, die nicht nur intelligent, sondern auch fair sind und die Werte einer gleichberechtigten Gesellschaft widerspiegeln.

Verfolgen Sie das Blockchain Popularization Forum, damit Sie keine der neuesten Entwicklungen verpassen.