Odaily Planet Daily News OpenAIとGoogle DeepMindの従業員は共同で、高度なAIには大きなリスクがあり、早急に強化する必要があるとの懸念を表明した。これに応えて、OpenAI は本日、強力で安全な人工知能システムを提供するという自社の取り組みを強調する声明を発表しました。 OpenAIは、AI技術の重要性に鑑み、公開書簡の内容に同意し、AI技術の開発をより良く促進するには真剣な議論をどのように進めるかが重要であると述べた。 私たちは今後も世界中の政府、市民社会、その他のコミュニティと連携し、調和のとれた AI 環境の構築に協力していきます。 匿名の整合性ホットラインや、取締役会メンバーや企業のセキュリティ リーダーが参加する安全セキュリティ委員会 (安全セキュリティ委員会) などはすべて、AI を規制する効果的な手段です。 OpenAIは、必要な安全対策が講じられるまで同社は新しいAIテクノロジーをリリースしないと述べている。同社は、政府規制への支持と人工知能の安全性に関する自主的な取り組みへの参加を改めて表明した。 報復への懸念に応え、広報担当者は同社が元従業員全員の差別禁止協定を解除し、標準的な離職文書からそのような条項を削除したことを確認した。 (IT House) 本日初め、OpenAI (ChatGPT)、Anthropic (Claude)、DeepMind (Google) の元および現従業員 13 名、および人工知能分野の専門家が、「人工知能に警告する権利」請願書を立ち上げました。この請願は、高度な人工知能システムのリスクに対する国民の認識を高めるために、内部告発者保護の強化を主張することを目的としている。 OpenAIの元従業員ウィリアム・サンダース氏は、潜在的に危険な新技術を扱う際には、独立した専門家、政府、国民とリスクに関する情報を共有する方法が必要だとコメントした。