英国政府は、人工知能の大幅な発展により格差が拡大する恐れがある場合に適切な意思決定を行うことを目的とした一連の破壊的プロジェクトに1,200万ポンドを充てることに同意した。この資金は、RAi UK(Responsible AI UK)を通じて割り当てられており、生成型AIの社会的影響と影響を調査するために4年間にわたって計画されている3,100万ポンドのプロジェクトである。関連する例としては、健康、社会保障、法執行、金融サービス業界などの問題を対象とした3つのプロジェクトと、スマートオペレーションのAIの説明責任と新技術の設計における一般市民の参加を調査する他の2つのプロジェクトが挙げられる。

法執行と金融サービスの強化

共通ルールの効果的な実施と法執行機関と金融サービス提供者との緊密な連携なしにAML-CFTを徹底的に成功させることは難しいため、マネーロンダリングやテロ資金供与との戦いは今後も続くでしょう。

チャートは、出来事が「確率的」である場合、その金額は約3ポンドになることを示しています。また、法執行機関向けのAIの不足に対処するために500万ドルを費やす必要があります。そこで、この取り組みを率いるノーサンブリア大学のマリオン・オズワルド教授は、まさにそこが情報過多と運用の非効率性の問題の解決策としてAIが始められる場所であるという事実をすでに説明しています。しかし、AIツールは、AIにとって合理的な結果を生み出すための法律の基準を満たしていません。この順序で、AIによって引き起こされる予測不可能性およびAIの影響を受ける3つの主要なグループを結び付ける構造を開発し、確率的なAI結果を生み出しながらも正義と責任を維持できるアプリケーションの作成に役立つ可能性があります。

LLMの限界への対処

さらに3ポンド。500万ドルの予算は、医療や社会のプロセスで活用される大規模言語モデル(LLM)の制約に焦点を当てたプロジェクトに割り当てられています。ロンドン大学のマリア・リアカタ教授がこの取り組みを主導しました。この点で、彼女は倫理的慣行を調整する上で不可欠な部分は、モデルの信頼できる適用の必要性であると考えています。このプロジェクトは、社会技術的な障壁を徹底的に分析し、法律や医療など、プライバシー侵害が頻繁に発生する敏感な分野で意図しない結果を防ぐことを目的としています。

グラスゴー大学を拠点とする「参加型危害監査ワークベンチおよび方法論」プロジェクトは、350万ポンドのスポンサーシップを受けています。チームリーダーのシモーネ・スタンフ博士は、AIの予測ミスや生成ミスのインセンティブを改善することが、彼らが達成しようとしている主な課題であると指摘しました。このプロジェクトを通じて、私たちは特定の分野で最も専門知識を持つ人々がツールを使用して潜在的なリスクを検出し、システムを良好な状態に保つことを支援します。これにより、他の利害関係者が意思決定プロセスに積極的に参加できるようになり、将来の世代のAIシステムがすべての倫理的問題を念頭に置いて作成されるようになります。

UKRIからの追加サポート

英国研究イノベーション機構(UKRI)の技術ミッション基金は、これらのプロジェクトを強化するために400万ポンドを投資しました。そのうち75万ポンドは、デジタル・グッド・ネットワーク、アラン・チューリング研究所、エイダ・ラブレス研究所に割り当てられ、AIの研究と政策立案プロセスにおいて一般市民の参加を促進し、一般市民の意見に力を与えることを目的としています。この取り組みを主導し、公正で責任あるAI政策の策定における一般市民の関与を常に強調しているヘレン・ケネディ教授は、ここでの世論の重要な役割を強調しました。また、この65万ポンドの基金は、AIの実装を目標とする生産性研究所がまとめたプロジェクトに割り当てられます。

ダイアン・コイル教授は、研究者だけでなく政策立案者、企業、AI技術開発者の間の溝を埋めることで、AI技術が生産性と社会の福祉を向上させることを確実にする学際的な研究を提唱しました。このような戦略的資金は、AIの研究開発を強化するためにUKRIが実施している10億ポンドのプロジェクトポートフォリオの一部です。これは、AIの倫理的開発における競争力を向上させるために英国が行っている対策の1つです。