イーサリアムの共同創設者であるヴィタリック・ブテリンは、超知能AIに関連するリスクと強力な防衛メカニズムの必要性について警鐘を鳴らしました。

ブテリンのコメントは、人工知能の急速な発展に伴い、AIの安全性に対する懸念が大幅に増大している時期に出されました。

ブテリンのAI規制計画:責任、ポーズボタン、国際的な管理

2023年1月5日付のブログ投稿で、ヴィタリック・ブテリンは、「d/accまたは防御的加速」の背後にあるアイデアを概説しました。ここでは、技術は害を与えるのではなく防御するために開発されるべきです。しかし、これはブテリンが人工知能に関連するリスクについて語るのは初めてではありません。

「AIが間違った方向に進むことで世界が悪化する方法の一つは(ほぼ)最悪の方法です:それは文字通り人類の絶滅を引き起こす可能性がある」とブテリンは2023年に述べました。

ブテリンは、2023年の理論を今再検討しています。ブテリンによれば、超知能は存在するまでの数年の可能性があるとのことです。

「AGIまでのタイムラインが3年、超知能までのタイムラインがさらに3年である可能性が高いです。したがって、世界が破壊されるか、あるいは取り返しのつかない罠に陥ることを望まないのであれば、良いものを加速するだけでなく、悪いものを遅らせる必要があります」とブテリンは書きました。

AI関連のリスクを軽減するために、ブテリンは人間の意思決定と緊密に結びついた分散型AIシステムの創造を提唱しています。AIが人間の手の中の道具であり続けることを確保することで、壊滅的な結果の脅威を最小化できます。

ブテリンは、軍が『AIの運命』シナリオの責任ある行為者になり得ることを説明しました。AIの軍事利用は、ウクライナやガザで見られたように、世界的に増加しています。ブテリンはまた、発効するAI規制は軍を免除する可能性が高く、それが重大な脅威となると考えています。

イーサリアムの共同創設者は、AIの使用を規制する計画をさらに概説しました。彼は、AIに関連するリスクを回避するための第一歩は、ユーザーに責任を持たせることだと述べました。

「モデルがどのように開発され、どのように使用されるかの関係はしばしば不明瞭ですが、ユーザーがAIの使用方法を正確に決定します」とブテリンは説明し、ユーザーが果たす役割を強調しました。

責任のルールが機能しない場合、次のステップは、AI規制が潜在的に危険な進歩のペースを遅らせる「ソフトポーズ」ボタンを実装することになります。

「目標は、重要な期間において世界中の利用可能な計算能力を約90-99%削減する能力を持つことです。これにより、人類が準備するための時間をさらに稼ぐことができます。」

彼は、ポーズはAIの位置確認と登録によって実装できると言った。

別のアプローチは、AIハードウェアを制御することです。ブテリンは、AIハードウェアには制御用のチップを搭載できると説明しました。

そのチップは、AIシステムが国際機関から週に3つの署名を受け取った場合にのみ機能することを可能にします。彼はさらに、少なくとも1つの機関は軍事関連でないべきだと付け加えました。

それでも、ブテリンは自分の戦略には穴があり、単なる「一時的な応急処置」に過ぎないと認めました。