AIの未来に関する対照的な視点
テクノロジー業界の2人の著名な声が人工知能(AI)の未来に関して異なる見解を示し、イノベーションと安全性の間の緊張の高まりを強調しました。
日曜日のブログ投稿で、OpenAI CEOのサム・アルトマンは、同社のユーザーベースが300百万以上の週次アクティブユーザーに3倍に増加したことを明らかにし、人工一般知能(AGI)に向けて加速しています。
反省: https://t.co/rHdE40AuOG
— サム・アルトマン (@sama) 2025年1月6日
アルトマンは、OpenAIがAGIを構築する能力に自信を示し、2025年までにAIエージェントが「労働力に加わり」、ビジネスの生産性に大きな影響を与えると予測しました。
彼はまた、「超知性」を開発する野心を示唆しましたが、その実現のタイムラインは不明です。
🚨サム・アルトマン: 私たちは、従来理解されていたAGIを構築できると自信を持っています
OpenAI CEO、サム・アルトマン:
「私たちは、2025年には最初のAIエージェントが「労働力に加わり」、企業の生産量を実質的に変える可能性があると考えています。」
私たちは、目標を超えることを始めています… pic.twitter.com/OXiQTwogP5
— マリオ・ナフアル (@MarioNawfal) 2025年1月6日
一方、アルトマンの発表の数時間前に、イーサリアム共同創設者のヴィタリック・ブテリンは、警告が発生した場合に大規模なAI操作を一時的に停止できる「ソフトポーズ」機能を含む、AIシステムのためのグローバルなフェイルセーフメカニズムを実装するためにブロックチェーン技術を活用することを提案しました。
AIには堅牢な安全メカニズムが必要です
ブテリンは「d/acc」または分散型/防御型加速の概念を紹介しました。これは技術進歩に対するより慎重なアプローチです。
無制限の成長を支持する「e/acc」と対照的に、d/accは安全性と人間のエージェンシーを優先しながらイノベーションを支持します。
マーク・アンドリーセンのような著名なシリコンバレーの支持者たちは、e/accの「成長を優先する」メンタリティを支持している一方で、ブテリンのモデルは防御的な構造をまず構築することを強調しています。
ブテリンは書きました:
「d/accは、他のテクノロジー分野への暗号の根本的な価値(分散化、検閲耐性、オープンなグローバル経済と社会)の拡張です。」
d/accの進化を振り返り、ブテリンはAGIと超知性システムのために、ゼロ知識証明のような既存の暗号メカニズムを活用するより慎重な道を提案しました。
彼の枠組みの下では、AIシステムは運用を維持するために3つの国際グループからの週次承認を必要とします。
ブテリンは説明しました:
「署名はデバイスに依存しない(希望すれば、ブロックチェーン上で公開されたことを証明するゼロ知識証明を要求することもできます)、したがってオール・オア・ナッシングです:すべてのデバイスを承認しない限り、1つのデバイスが動作し続けることを認可する実用的な方法はありません。」
左: 目標。右: 手段。 pic.twitter.com/Veav3mAcVz
— vitalik.eth (@VitalikButerin) 2025年1月5日
この設定はマスター・スイッチのように機能し、すべての承認されたコンピューターが同時に動作するか、またはどれも動作しないようにし、選択的な強制を防ぎ、潜在的な災害に対する安全策を提供します:
「そのような重大な瞬間が起こるまで、ソフトポーズの能力を持つことは、開発者にほとんど害を及ぼさないでしょう。」
AIは準備ができているのか?
この提案は、AIの進展と安全性をどうバランスさせるかについての業界内の継続的な議論を強調しています。
グローバルな制御システムの支持者たちは、これを達成するためにはAI開発者、政府、暗号セクター間で前例のない協力が必要だと主張しています。
ブテリンは付け加えました:
「『戦時モード』の1年は、無関心の条件下での100年の労働に相当することがあります。人々を制限しなければならない場合、すべての人を平等に制限し、実際に協力してそれを整理しようとする努力をする方が良いように思えます。」
異なる視点が存在する中で、中心的な問いは続きます:AIは進展の準備ができていますか、それとも進む前に堅牢な安全策が不可欠ですか?