英國政府已同意撥款 1200 萬英鎊用於一系列顛覆性項目,致力於在人工智能的重大發展威脅到差距擴大的情況下做出正確的決策。這筆資金由 RAi UK(即 Responsible AI UK)撥出,這是一個耗資 3100 萬英鎊的項目,計劃在四年內研究生成式人工智能的社會後果和影響。一個相關的例子是針對健康、社會保障、執法和金融服務行業等問題的三個項目,以及研究智能運營的人工智能問責制和公衆參與設計新技術的兩個項目。

加強執法和金融服務

由於如果沒有共同規則的有效實施以及執法機構和金融服務提供商之間的密切合作,反洗錢和反恐怖融資就很難徹底取得成功,因此打擊洗錢和恐怖主義融資的鬥爭仍將持續下去。

圖表顯示,如果事件有可能發生,那麼成本將在 3 英鎊左右。我們還必須花費 500 萬美元來解決執法部門缺乏人工智能的問題。因此,該項目負責人、諾森比亞大學的 Marion Oswald 教授已經解釋了這樣一個事實,那就是人工智能恰恰可以開始解決信息過載和運營效率低下的問題。然而,人工智能工具不符合法律對產生合理結果的標準。可以按照這種順序開發一個結構,將人工智能引起的不可預測性與受人工智能影響的三個主要羣體聯繫起來,從而有助於生產能夠產生概率人工智能結果但保持正義和責任的應用程序。

解決法學碩士的侷限性

另外還有 3500 萬英鎊的資金用於研究大型語言模型 (LLM) 的限制,這些模型在醫療和社會過程中發揮着重要作用。倫敦大學的一位名叫 Maria Liakata 的教授領導了這項倡議。在這方面,她認爲協調道德實踐不可或缺的部分是需要可靠地應用模型。該項目旨在徹底分析社會技術障礙,並防止在隱私侵犯頻發的敏感領域(例如法律和醫療保健)出現意外後果。

參與式危害審計工作臺和方法項目位於格拉斯哥大學,獲得了 350 萬英鎊的贊助。團隊負責人 Simone Stumpf 博士指出,改善人工智能錯誤預測和生成的動機是他們試圖完成的主要任務。通過這個項目,我們將幫助那些在特定領域擁有最專業知識的人使用工具來檢測潛在風險並使系統保持良好狀態。這將使其他利益相關者能夠積極參與決策過程,從而確保未來幾代人工智能系統的創建考慮到所有道德問題。

來自 UKRI 的額外支持

英國研究與創新 (UKRI) 技術任務基金已投資 400 萬英鎊,旨在加強這些項目。其中,75 萬英鎊已分配給數字善良網絡、艾倫圖靈研究所和阿達洛夫萊斯研究所,旨在促進公衆參與並在人工智能研究和政策制定過程中賦予公衆聲音權力。領導這一倡議的海倫肯尼迪教授一直強調公衆參與制定公平和負責任的人工智能政策,她強調了公衆輿論在這裏的重要作用。此外,這筆 65 萬英鎊的基金將分配給生產力研究所編制的針對人工智能實施的項目。

戴安娜·科伊爾教授提倡跨學科研究,不僅要彌合研究人員之間的差距,還要彌合政策制定者、企業和人工智能技術開發者之間的差距,以確保人工智能技術能夠提高生產力和社會福利。這些戰略基金是英國研究與創新署爲支持人工智能研究和開發而實施的10億英鎊項目組合的一部分。這是英國爲提高其在人工智能道德發展方面的競爭力而採取的措施之一。