人工智能可能會對使用非裔美國人方言(AAE)的用戶表現出歧視,引發人們對人工智能領域公平性的擔憂。

根據 8 月 28 日發表在《自然》雜誌上的研究顯示,經過互聯網海量數據訓練的人工智能語言模型能夠再現社會刻板印象,甚至對 AAE 用戶實施嚴厲的懲罰。

具體來說,當被要求對假設的謀殺案作出判決時,與被告使用標準英語 (SAE) (23%) 相比,ChatGPT、T5 和 RoBERTa 等模型更有可能使用 AAE (28%) 判處被告死刑。

種族主義的影響導致AI的決定 來源:Nature

該研究還發現了經常將 AAE 用戶分配到地位較低的工作的模式,這表明算法中存在潛在的歧視。

研究人員表示,基於海量互聯網數據的訓練模型可能會無意中“學習”社會偏見,從而導致有偏見的結果。

儘管科技公司已努力通過人工審查和干預來消除這些偏見,但研究表明這些解決方案仍然不夠激進。

這項研究爲開發人員敲響了警鐘,讓他們認識到解決算法中的偏見和歧視問題的重要性。

開發新的、可能改變範式的協調方法對於確保公平並避免對不同用戶羣體產生負面影響至關重要。

人工智能的未來取決於我們能否創造出不僅智能而且公平、體現平等社會價值觀的工具。

關注區塊鏈普及論壇,不錯過任何最新動態。