通過將社會階層特徵傳輸到人工智能中,語言服務將得到改善,從而帶來社會不平等(根據誰來做這項工作,不平等程度會加劇或減輕)。這種理解引發了哈佛醫學院生物醫學信息學助理 Lawrence Weru 提出的一個緊迫問題:如果我們研究的目標領域恰好關注歧視的形式,涉及不同的羣體,而我們反過來將這種帶有偏見的算法引入決策過程,那麼 N 世代將如何考慮和解決這一問題?

人工智能發展需要多樣性

如果我們將注意力轉向搜索引擎對 AI 的探索和應用,這些問題本身是否令人費解?那麼,至關重要的是,公交車司機要小心謹慎。在大多數情況下,問題只有當問題尚未解決時纔會被人們注意到並引起足夠的關注。無障礙的重要性以及它所包含的內容令人難以理解。此外,它爲 AI 提供瞭如此積極的目的,使人們能夠安然生活。我們正在與其他科技公司合作,並將在電信方面增加一些這方面的分量。

微軟的免費 iPhone 應用程序 AI Seeing 就是一個例子,它可講述環境、閱讀文檔並執行其他基本任務,即使視力受損。該應用程序具有文本轉語音功能,可作爲口語閱讀輔助工具;因此,可以避免音頻格式的書面文本無法理解。Voiceitt 是另一種創新的輔助設備,它使那些無法說話的人在短時間內說話。該大學通過與 Voiceitt 通信應用程序和 Webex 技術的合作,特別幫助專業和困難員工流利地說話。此外,他們在表演期間的產出(通常是口頭交流)被翻譯並配上字幕,使聾啞人士可以參加會議。

人工智能的另一個好處是,開發設計師可以爲界面創建算法,根據每個用戶的視覺、聽覺或運動能力等,獨立、動態地響應他們的需求。儘管有許多發現和解決方案,但殘疾人仍然無法獲得成功所需的服務。

通過包容性人工智能促進無障礙

因此,重點轉向推動勞動力的積極變化,重點關注參與人工智能開發的公司的高管層。AI Equity Lab 強調,“在制定人工智能系統時,每個人的身份都至關重要,這意味着它不應該被設計成讓黑人和其他少數羣體過時。人工智能可以被設計成創造一種環境,讓人們可以徹底討論以前的事件,並探索受影響羣體(包括少數羣體或代表性不足的羣體)的經濟現實。”

這句話本質上表明瞭人工智能設計團隊掌握着權力,決定如何使用這項技術以及用於什麼目的。這可以通過確保所有團隊成員都來自不同的背景,特別是少數族裔,並選擇那些來自以前處於弱勢羣體的人來參與來實現。這種責任要求我們大大增加成功設計人工智能的機會,這種人工智能既能關注複雜問題,又能平衡地對待世界上少數羣體的經歷。

在開發階段解決人工智能系統中的偏見問題將帶來相當好的結果,因爲那時偏見很容易修復,而不是等到後期才解決,因爲那樣會造成無法估量的損失。因此,人工智能的開發者必須是一羣來自不同背景的人,並且應該不斷檢查人工智能的使用範圍;因此,應該始終積極觀察人工智能系統。在這些條件下,偏見應該讓任何技術的消費者意識到不要禁止使用這樣的小玩意。

總而言之,全球人工智能自主監督團隊的核心是可及性、包容性和應用是優先事項。歧視或有偏見的技術是一個問題,它揭示了人工智能系統的真實過去,當我們看到系統被誤認爲女性和男性、老年人和年輕人、白人和非洲裔美國人時,這些問題就暴露無遺了。技術界在人工智能發展中扮演的角色應該考慮代表性不足的羣體的觀點和經驗,後者代表了普通高管和設計過程中用戶的聲音;最終,結果將是與那些人工智能應用將對社會產生重大利益的人進行急需的合作。