人工知能企業のOpenAIとAnthropicは最近、自社が開発する「重要な」新しいAIモデルへの早期アクセスを米国AIセキュリティ研究所に提供することに合意したとコインテレグラフが報じた。
この協定は安全保障上の共通の懸念から署名されたと言われているが、技術的進歩が安全保障に重大な影響を与える場合に政府の具体的な役割がどのようなものになるのかは不明である。
OpenAIのCEO兼共同創設者であるサム・アルトマン氏は、Xソーシャルメディアプラットフォーム上で、この合意は必要なステップであると述べ、米国が国家レベルで引き続き主導する必要性を強調した。
OpenAI と Anthropic はどちらも、人間の力であらゆるタスクを完了できる AI である汎用人工知能 (AGI) の開発に取り組んでいます。各企業は、人間の利益を中核として安全に AGI を構築するという独自の憲章と使命を持っています。
製品の発売前に自社のモデルを公開する契約を米国政府と結ぶことで、企業はその責任を連邦政府に引き渡すことになる。
OpenAIは、その「Strawberry」プロジェクトと「Orion」プロジェクトがAIにおける高度な推論と幻覚問題の解決が可能であると言われており、画期的な一歩を踏み出している可能性があるとコインテレグラフは報じた。米国政府は、これらのツールとその初期の内部反復を ChatGPT ですでに確認しています。
米国立標準技術研究所のブログ投稿によると、この契約と関連するセキュリティ ガイダンスは参加企業の自主的なものであることが示されています。支持者らは、このような軽い規制が成長を助け、業界が自ら規制できるようになると主張している。
しかし、ライトタッチ規制に伴う潜在的な問題の 1 つは、透明性の欠如です。 OpenAI または Anthropic が成功したとしても、政府が国民に知る必要がないと判断した場合には、それを公開する法的義務はありません。