A IA pode apresentar discriminação contra utilizadores que utilizam o dialecto afro-americano (AAE), levantando preocupações sobre a equidade no domínio da inteligência artificial.
De acordo com pesquisa publicada na revista Nature em 28 de agosto, modelos de linguagem de IA, treinados em dados massivos da internet, são capazes de reproduzir estereótipos sociais, aplicando até penalidades severas aos usuários de AAE.
Especificamente, quando solicitados a proferir uma sentença para um caso hipotético de assassinato, modelos como ChatGPT, T5 e RoBERTa eram mais propensos a condenar o réu à morte usando AAE (28%) em comparação com os Réus que usavam Inglês Padrão (SAE) (23%) .
A influência do racismo levou à decisão da AI Fonte: Nature
O estudo também encontrou padrões que frequentemente atribuíam usuários de AAE a empregos de status inferior, sugerindo potencial discriminação no algoritmo.
Os pesquisadores dizem que modelos de treinamento em dados massivos da Internet podem “aprender” preconceitos sociais involuntariamente, levando a resultados tendenciosos.
Embora as empresas tecnológicas tenham feito esforços para eliminar estes preconceitos através da análise e intervenção humana, a investigação mostra que estas soluções ainda não são suficientemente radicais.
Esta pesquisa é um alerta para os desenvolvedores sobre a importância de abordar o preconceito e a discriminação nos algoritmos.
O desenvolvimento de novos métodos de alinhamento com potencial de mudança de paradigma é essencial para garantir a equidade e evitar impactos negativos nos diferentes grupos de utilizadores.
O futuro da inteligência artificial depende de sermos capazes de criar ferramentas que não sejam apenas inteligentes, mas também justas e que reflitam os valores de uma sociedade igualitária.
Acompanhe o Fórum de Popularização do Blockchain para não perder nenhum dos desenvolvimentos mais recentes.