La IA puede mostrar discriminación contra los usuarios que utilizan el dialecto afroamericano (AAE), lo que genera preocupaciones sobre la equidad en el campo de la inteligencia artificial.

Según una investigación publicada en la revista Nature el 28 de agosto, los modelos de lenguaje de IA, entrenados con datos masivos de Internet, son capaces de reproducir estereotipos sociales, aplicando incluso sanciones severas a los usuarios de AAE.

Específicamente, cuando se les pidió que dictaran una sentencia por un caso de asesinato hipotético, los modelos como ChatGPT, T5 y RoBERTa tenían más probabilidades de sentenciar a muerte al acusado usando AAE (28%) en comparación con los acusados ​​que usaban inglés estándar (SAE) (23%). .

La influencia del racismo llevó a la decisión de AI Fuente: Nature

El estudio también encontró patrones que a menudo asignaban a los usuarios de AAE a trabajos de menor estatus, lo que sugiere una posible discriminación en el algoritmo.

Los investigadores dicen que entrenar modelos con datos masivos de Internet podría "aprender" involuntariamente sesgos sociales, lo que conduciría a resultados sesgados.

Si bien las empresas de tecnología se han esforzado por eliminar estos sesgos mediante revisión e intervención humana, las investigaciones muestran que estas soluciones aún no son lo suficientemente radicales.

Esta investigación es una llamada de atención para los desarrolladores sobre la importancia de abordar el sesgo y la discriminación en los algoritmos.

El desarrollo de nuevos métodos de alineación que potencialmente cambien los paradigmas es esencial para garantizar la equidad y evitar impactos negativos en diferentes grupos de usuarios.

El futuro de la inteligencia artificial depende de que seamos capaces de crear herramientas que no sólo sean inteligentes sino también justas y reflejen los valores de una sociedad igualitaria.

Siga el Foro de Popularización de Blockchain para no perderse ninguna de las últimas novedades.