米国商務省傘下の国立標準技術研究所 (NIST) の一部である米国人工知能安全研究所は、AI の安全性研究と評価の強化を目的とした新しい契約を発表しました。覚書 (MOU) を通じて正式に締結されたこれらの契約は、2 つの大手 AI 企業である Anthropic および OpenAI との協力体制を確立するものです。このパートナーシップは、両社の新しい AI モデルへのアクセスを容易にし、これらのモデルが一般公開される前と後に研究所が徹底的な評価を実施できるようにするために設計されています。
この覚書により、米国AI安全研究所は、AnthropicおよびOpenAIと共同研究を行うことが可能となり、AI機能の評価と安全リスクの特定に重点を置くことになる。この協力により、高度なAIシステムに関連する潜在的リスクを軽減する方法論が進歩することが期待される。米国AI安全研究所所長のエリザベス・ケリー氏は、安全性は技術革新の重要な要素であると強調し、これらのAI企業との今後の技術協力に期待を表明した。同氏は、これらの合意は、責任あるAI開発を導くための研究所の継続的な取り組みにおける重要な節目となると指摘した。
これらの協力関係に加え、米国 AI 安全研究所は、Anthropic と OpenAI の両社に、モデルの安全性向上の可能性についてフィードバックを提供します。この作業は、英国 AI 安全研究所との緊密な連携のもとで行われ、AI 技術の安全で信頼できる開発を確保するためのより広範な国際的取り組みを反映しています。
米国 AI 安全研究所の取り組みは、NIST の計測科学、技術、標準の進歩における長い歴史に根ざしています。これらの契約に基づいて実施される評価は、バイデン・ハリス政権の AI に関する大統領令に沿った NIST の幅広い AI イニシアチブに貢献します。その目標は、主要な AI 開発者が政権に対して行った自発的なコミットメントに基づいて、安全でセキュリティが高く、信頼できる AI システムの開発をサポートすることです。
ロイターの報道によると、カリフォルニア州議会は水曜日、物議を醸しているAI安全法案を承認し、現在はギャビン・ニューサム知事の決定を待っている。民主党のニューサム知事は9月30日までに法案を拒否するか署名して法律として成立させる必要がある。この法律は、一定のコストや計算能力を超えるAIモデルに対して安全テストやその他の安全対策を義務付けるもので、一部のテクノロジー企業はこの措置がイノベーションを妨げる可能性があると主張している。
注目の画像はPixabayより