人工智能可能会对使用非裔美国人方言(AAE)的用户表现出歧视,引发人们对人工智能领域公平性的担忧。

根据 8 月 28 日发表在《自然》杂志上的研究显示,经过互联网海量数据训练的人工智能语言模型能够再现社会刻板印象,甚至对 AAE 用户实施严厉的惩罚。

具体来说,当被要求对假设的谋杀案作出判决时,与被告使用标准英语 (SAE) (23%) 相比,ChatGPT、T5 和 RoBERTa 等模型更有可能使用 AAE (28%) 判处被告死刑。

种族主义的影响导致AI的决定 来源:Nature

该研究还发现了经常将 AAE 用户分配到地位较低的工作的模式,这表明算法中存在潜在的歧视。

研究人员表示,基于海量互联网数据的训练模型可能会无意中“学习”社会偏见,从而导致有偏见的结果。

尽管科技公司已努力通过人工审查和干预来消除这些偏见,但研究表明这些解决方案仍然不够激进。

这项研究为开发人员敲响了警钟,让他们认识到解决算法中的偏见和歧视问题的重要性。

开发新的、可能改变范式的协调方法对于确保公平并避免对不同用户群体产生负面影响至关重要。

人工智能的未来取决于我们能否创造出不仅智能而且公平、体现平等社会价值观的工具。

关注区块链普及论坛,不错过任何最新动态。