Umělá inteligence může vykazovat diskriminaci vůči uživatelům, kteří používají afroamerický dialekt (AAE), což vyvolává obavy o spravedlnost v oblasti umělé inteligence.

Podle výzkumu zveřejněného v časopise Nature dne 28. srpna jsou jazykové modely AI, trénované na masivních datech z internetu, schopné reprodukovat sociální stereotypy, a to i za použití přísných trestů pro uživatele AAE.

Konkrétně, když byli požádáni o vynesení rozsudku za hypotetický případ vraždy, modely jako ChatGPT, T5 a RoBERTa s větší pravděpodobností odsoudily obžalovaného k smrti pomocí AAE (28 %) ve srovnání s obžalovanými, kteří používali standardní angličtinu (SAE) (23 %). .

Vliv rasismu vedl k rozhodnutí AI Zdroj: Nature

Studie také objevila vzorce, které často přiřazovaly uživatele AAE k pozicím s nižším statusem, což naznačuje potenciální diskriminaci v algoritmu.

Výzkumníci tvrdí, že tréninkové modely na masivních internetových datech by se mohly neúmyslně „naučit“ sociálním předsudkům, což by vedlo ke zkresleným výsledkům.

Zatímco technologické společnosti vynaložily úsilí na odstranění těchto předsudků prostřednictvím lidské kontroly a zásahu, výzkum ukazuje, že tato řešení stále nejsou dostatečně radikální.

Tento výzkum je budíčkem pro vývojáře ohledně důležitosti řešení zkreslení a diskriminace v algoritmech.

Pro zajištění rovnosti a zamezení negativním dopadům na různé skupiny uživatelů je nezbytný vývoj nových, potenciálně měnících metod sladění.

Budoucnost umělé inteligence závisí na tom, zda budeme schopni vytvářet nástroje, které budou nejen inteligentní, ale také spravedlivé a budou odrážet hodnoty rovné společnosti.

Sledujte Fórum pro popularizaci blockchainu, aby vám neunikl žádný nejnovější vývoj.