人工智能(AI)改變了我們的生活和工作方式。技術正在影響每一個領域,從市場營銷和技術到醫療保健。
人工智能愛好者正在努力瞭解技術如何利用機器學習(ML)作爲基礎來解決當今世界所面臨的最複雜問題。
機器學習是將數據輸入系統的過程,以使系統能夠執行任務。現在,這可能聽起來並沒有什麼新鮮的,但機器學習的迷人之處在於,系統可以利用其獲得的數據自我學習任務,甚至在沒有人類明確指示的情況下變得更擅長執行任務,這在人工智能爆發之前是常態。
這就是爲什麼我們正在朝着自駕車這樣的事物前進,這在之前是不可想象的。通過機器學習驅動,這樣的汽車會隨着時間的推移“學習”成爲更好的“司機”。
但是,謹慎地說一句。
人工智能迅速接管直接影響人類生活的任務。自然地,人們開始提出問題:
人工智能是否公平,還是有偏見?
人工智能會侵犯我們的基本人權嗎?
這樣的討論被稱爲人工智能倫理——識別和解決我們如何使用人工智能而不違揹人類價值觀的實踐。
在這篇博客中,我們將討論並導航如何進行困難和坦率的對話,以使人工智能和機器學習的道德指南針保持一致。
什麼是人工智能倫理?
倫理人工智能密切審視人工智能如何與人類社會互動和影響人類。參與倫理人工智能的人討論如何公平地構建人工智能系統——具體來說,人工智能如何從數據中做出決策,以最小化任何風險。
爲了強調這一點,讓我們以手術爲例。
醫療人工智能的一個例子可能是提供者訓練一個系統來幫助醫生優先考慮外科手術等待名單上的患者。在這種情況下,人工智能倫理學家會確保系統使用適當的指標來確定優先級(如醫療狀況的嚴重性),而不是不道德的因素(如優先考慮來自富裕社區的人)。
此外,倫理學家會確保人工智能接收公平的數據。如果人工智能被給予有偏見的數據進行學習,它將只會延續有害的刻板印象。
總體而言,倫理人工智能的核心是創造有益於社會並最小化傷害的系統。
重要的是不要被技術進步所左右,以至於危及社會的某些成員。
爲什麼人工智能倫理很重要
倫理人工智能通過以下方式保護個人免受傷害。
保護基本權利
企業中的人工智能通常處理敏感數據,例如一個人的財務或生物識別信息。
如果不實施倫理保護,這些系統可能會侵犯人權。例如:
數據可能被濫用
數據可能被出售給惡意實體
人們可能會受到未經授權的監視
在這方面,倫理人工智能的角色是確保這些系統透明地運行。
防止不平等影響
儘管機器學習是智能的,學習充滿人類偏見的數據可能會帶來災難性的後果。這就像放大種族主義、性別歧視等。結果可能導致:
有偏見的貸款決策
不公平的招聘實踐
有缺陷的法律裁決
倫理系統設計介入以根除認知和無意識偏見。
解決生存和社會風險
人工智能以導致生存危機的方式被濫用是一個真實的問題。一個主要的例子是深度僞造。
深度僞造是用於創建超寫實假媒體的名稱。惡意行爲者可以創建一個名人深度僞造(相似者),並使其說出任何他們想說的話——想想這可能對受害者和整個社會造成的損害。
深度僞造可能導致:
虛假信息的傳播
身份盜竊
這樣的後果在全球事件(如大選)期間可能是災難性的。
人工智能發展中的關鍵倫理問題
我們提出了關於人工智能使用的重要問題,但我們如何實施人工智能倫理?有幾個問題需要考慮。
誰來決定什麼是對的?
誰來決定什麼是對的和錯的?畢竟,除非有人遵循嚴格的行爲準則(如在有組織的宗教中),否則道德依然是主觀的。
你的權利可能是我的錯誤。
那麼,誰來決定?(以及誰來決定誰決定?)
是否應該是:
整個組織?
一個專門的指導小組?
政府?
開發者?
教皇?
一般來說,最佳的前進方式是一個多樣化的指導小組,可能在不同的光譜兩端持有意見。我們獲得的輸入越多,做出明智選擇的機會就越大,因爲每個小組可以彌補彼此的人工智能盲點。
而且,儘管道德可能是主觀的,但其中有很大一部分有99.99%的人的共識,因此道德困境並不一定每次都複雜,但我們需要集體決策。
我們如何防止偏見?
人工智能系統必須設計以避免對個人或羣體的歧視。訓練數據中的偏見可能導致不公平的結果,例如基於人口統計因素拒絕貸款。確保公平需要多樣化的數據集和嚴格的測試,以檢測和糾正偏見。
我們在透明嗎?
人們需要了解人工智能系統如何做出決策。缺乏透明度會混淆和削弱信任,尤其是在醫療保健或刑事司法等關鍵領域。可解釋的人工智能意味着人們可以理解決策背後的推理。
我們在保護人們的隱私嗎?
作爲透明性的一個衍生物,系統應該清晰地傳達如何收集、存儲和共享用戶數據——鑑於隱私是人工智能中的主要倫理關注。
當事情出錯時,誰負責?
當事情出錯時,需要遵循一個指揮鏈。
開發者、組織或監管機構必須建立問責框架,以管理風險併爲錯誤提供補救措施。
人工智能推理在多大程度上取代人類的推理?
人類因素絕不能從人工智能的方程中去掉。沒有人類監督的人工智能決策可能會造成損害。
對工作的影響
人工智能有潛力自動化任務,這可能會使各個行業的工人失業。
公司感到與人工智能相關的裁員是不可避免的。(圖片來源。)
倫理人工智能包括解決這些干擾的策略,例如再培訓計劃或創造新的就業機會以減輕經濟影響。
錯誤信息
正如提到的,人工智能技術如深度僞造可以傳播虛假信息並操縱公衆輿論。
倫理框架必須專注於檢測和防止人工智能的濫用,以保護信息和民主過程的完整性。
當人工智能出錯時:真實案例研究
鑑於人工智能在過去幾年中的特定實例中出錯,上述關切是有效的。
有偏見的人工智能招聘
亞馬遜的人工智能招聘工具懲罰包含“女性”一詞的簡歷,因歷史招聘數據中的模式而偏向男性候選人。
政府中的算法歧視
荷蘭兒童保育補貼醜聞是政府應用中算法偏見的一個明顯例子。一個人工智能系統將低收入家庭和擁有雙重國籍的人標記爲潛在的欺詐者,導致了錯誤指控。
爲政治利益操縱數據
劍橋分析醜聞揭示了人工智能驅動的分析如何在政治中被濫用。通過利用Facebook用戶的數據,該公司影響了2016年美國總統選舉,引發了關於數據隱私和人工智能在塑造政治結果時的倫理界限的辯論。
開發倫理人工智能系統的步驟
正如你所看到的,人工智能可以像它是一個良好的源泉一樣具有破壞性。因此,迫切需要以倫理的方式開發人工智能。
這就是方法。
建立倫理人工智能原則
每個組織都需要一個倫理人工智能標準操作程序,概述他們計劃如何負責任地使用人工智能。這些應該成爲強制性公開的。良好的人工智能倫理優先考慮人權、隱私和民主價值。
這個標準操作程序然後作爲組織的北極星。去年一份報告建議人工智能公司將30%的資金用於安全和倫理的研發。
而且需要倫理人工智能的並不僅僅是盈利公司。即使是頂尖的英國大學也在制定指導性的倫理人工智能原則。
進行倫理風險評估
僅僅有政策是不夠的。公司需要定期審覈其人工智能開發和使用,以識別隱患,比如隱私侵犯和歧視性輸出。
本質上,它是在使用好的人工智能(如能夠預見潛在風險的預測分析)來智勝壞的人工智能(無論是惡意的還是無害的)。
實施健全的倫理原則
Bright Data通過優先考慮倫理實踐在人工智能和數據收集中脫穎而出。他們與世界倫理數據論壇等組織合作,解決科技界負責任的數據使用面臨的挑戰。
清晰的倫理指南是他們的方法,支持數據收集和處理的透明度和問責制。
他們的承諾進一步通過他們的信任中心等倡議得以體現,該中心設定了倫理網絡數據收集的標準,同時保護客戶和合作夥伴的利益。
通過關注明確的用戶同意並遵守GDPR和CCPA等法規,Bright Data展示了負責任的實踐如何與創新並行。他們對倫理實踐的承諾使其在人工智能和數據收集領域脫穎而出,樹立了創新與責任如何並行的榜樣。
最終思考
人工智能的倫理髮展對於應對機器學習帶來的道德挑戰至關重要。
當我們解決隱私、公平和社會影響等倫理問題時,我們可以幫助人工智能系統與人類價值觀保持一致並促進信任。
對於組織而言,將倫理人工智能原則納入其開發流程不僅僅是道德或法律義務。這是負責任創新的先決條件。
後AI倫理101:導航機器學習的道德景觀首次出現在元宇宙帖子上。