英国政府已同意拨款 1200 万英镑用于一系列颠覆性项目,致力于在人工智能的重大发展威胁到差距扩大的情况下做出正确的决策。这笔资金由 RAi UK(即 Responsible AI UK)拨出,这是一个耗资 3100 万英镑的项目,计划在四年内研究生成式人工智能的社会后果和影响。一个相关的例子是针对健康、社会保障、执法和金融服务行业等问题的三个项目,以及研究智能运营的人工智能问责制和公众参与设计新技术的两个项目。

加强执法和金融服务

由于如果没有共同规则的有效实施以及执法机构和金融服务提供商之间的密切合作,反洗钱和反恐怖融资就很难彻底取得成功,因此打击洗钱和恐怖主义融资的斗争仍将持续下去。

图表显示,如果事件有可能发生,那么成本将在 3 英镑左右。我们还必须花费 500 万美元来解决执法部门缺乏人工智能的问题。因此,该项目负责人、诺森比亚大学的 Marion Oswald 教授已经解释了这样一个事实,那就是人工智能恰恰可以开始解决信息过载和运营效率低下的问题。然而,人工智能工具不符合法律对产生合理结果的标准。可以按照这种顺序开发一个结构,将人工智能引起的不可预测性与受人工智能影响的三个主要群体联系起来,从而有助于生产能够产生概率人工智能结果但保持正义和责任的应用程序。

解决法学硕士的局限性

另外还有 3500 万英镑的资金用于研究大型语言模型 (LLM) 的限制,这些模型在医疗和社会过程中发挥着重要作用。伦敦大学的一位名叫 Maria Liakata 的教授领导了这项倡议。在这方面,她认为协调道德实践不可或缺的部分是需要可靠地应用模型。该项目旨在彻底分析社会技术障碍,并防止在隐私侵犯频发的敏感领域(例如法律和医疗保健)出现意外后果。

参与式危害审计工作台和方法项目位于格拉斯哥大学,获得了 350 万英镑的赞助。团队负责人 Simone Stumpf 博士指出,改善人工智能错误预测和生成的动机是他们试图完成的主要任务。通过这个项目,我们将帮助那些在特定领域拥有最专业知识的人使用工具来检测潜在风险并使系统保持良好状态。这将使其他利益相关者能够积极参与决策过程,从而确保未来几代人工智能系统的创建考虑到所有道德问题。

来自 UKRI 的额外支持

英国研究与创新 (UKRI) 技术任务基金已投资 400 万英镑,旨在加强这些项目。其中,75 万英镑已分配给数字善良网络、艾伦图灵研究所和阿达洛夫莱斯研究所,旨在促进公众参与并在人工智能研究和政策制定过程中赋予公众声音权力。领导这一倡议的海伦肯尼迪教授一直强调公众参与制定公平和负责任的人工智能政策,她强调了公众舆论在这里的重要作用。此外,这笔 65 万英镑的基金将分配给生产力研究所编制的针对人工智能实施的项目。

戴安娜·科伊尔教授提倡跨学科研究,不仅要弥合研究人员之间的差距,还要弥合政策制定者、企业和人工智能技术开发者之间的差距,以确保人工智能技术能够提高生产力和社会福利。这些战略基金是英国研究与创新署为支持人工智能研究和开发而实施的10亿英镑项目组合的一部分。这是英国为提高其在人工智能道德发展方面的竞争力而采取的措施之一。