OpenAI で何が起こっているのか? セキュリティ チームの半分が去った!
OpenAI の AGI セキュリティ チームから退職者が出ています。人工知能 (AGI) システムのセキュリティに関する懸念が浮上しています。
OpenAI の #AGI セキュリティ チームから大規模な退職がありました。このチームは、開発する人工汎用知能 (AGI) システムが人類に脅威を与えないようにする責任を負っています。元 OpenAI ガバナンス研究者の Daniel Kokotajlo 氏によると、このチームの研究者のほぼ半数が過去数か月で同社を去ったとのことです。
#ChatGPT などの言語 GPT モデルで知られる人工知能大手 OpenAI の AGI チームは、2024 年以降、約 30 人から 16 人に減少しました。これにより、OpenAI がセキュリティに十分な注意を払っているかどうかという懸念が生じています。
ココタジロ氏によると、これらの退職は組織的な運動の結果ではなく、個々の研究者が会社を去ることを決めた結果だという。#OpenAI は声明で、世界で最も安全なAIシステムを提供できると自信があると述べた。
しかし、これらの主要な退職が同社のセキュリティ研究の将来に疑問を投げかけることは無視できない。この展開は、#OpenAI が将来のAGIシステムのセキュリティにどのように取り組むのか、このチームを去る研究者がどのような新しいプロジェクトに重点を置くのかといった疑問を提起している。