ハーバード大学の著名な心理学者 B.F. スキナーはかつて、「本当の問題は機械が考えるかどうかではなく、人間が考えるかどうかだ」と意見を述べた。この気の利いた観察は、かつては重要だった点を強調している。つまり、テクノロジーに対する信頼は人間の判断にかかっているということだ。私たちが心配すべきなのは機械の知性ではなく、それを制御する人々の知恵と責任だ。少なくとも、当時はそうだった。
ChatGPT のようなソフトウェアが今や多くの人の職場生活に欠かせないものとなっているため、スキナー氏の洞察はほとんど古風に思える。AI エージェント (環境を認識し、特定の目標を達成するために行動を起こすことができるソフトウェア エンティティ) の急速な増加により、パラダイムが根本的に変化した。2020 年代初頭の消費者向け AI ブームから生まれたこれらのデジタル アシスタントは、現在、私たちのデジタル生活に浸透し、予定のスケジュール設定から投資の決定までさまざまなタスクを処理している。
AIエージェントとは何ですか?
AI エージェントは、ChatGPT のような大規模言語モデル (LLM) とは自律的なアクションの能力において大きく異なります。LLM は主にテキストを処理および生成しますが、AI エージェントは環境を認識し、決定を下し、特定の目標を達成するためのアクションを実行するように設計されています。これらのエージェントは、自然言語処理、コンピューター ビジョン、強化学習などのさまざまな AI テクノロジーを組み合わせて、経験から適応して学習できるようにします。
しかし、AI エージェントが増殖し、反復するにつれて、不安も募ります。私たちはこれらのデジタル エンティティを本当に信頼できるのでしょうか? この疑問は、学問的なものではありません。AI エージェントは複雑な環境で動作し、膨大なデータセットと複雑なアルゴリズムに基づいて決定を下しますが、その作成者でさえ完全に理解するのは困難です。この固有の不透明性が不信感を生み出します。AI エージェントが医療処置を推奨したり、市場の動向を予測したりする場合、その選択の背後にある理由を私たちはどのように確信できるのでしょうか?
AI エージェントへの誤った信頼の結果は悲惨なものになる可能性があります。AI 搭載のファイナンシャル アドバイザーがデータ ポイントを誤って解釈したために市場を誤って暴落させたり、偏ったトレーニング データに基づいて誤った治療を推奨するヘルスケア AI を想像してみてください。被害の可能性は個々のセクターに限定されません。AI エージェントが日常生活にさらに統合されるにつれて、その影響は飛躍的に増大します。一歩間違えると社会全体に波及し、個人のプライバシーから世界経済まであらゆるものに影響を及ぼす可能性があります。
この信頼の欠如の根底には、中央集権化という根本的な問題があります。AI モデルの開発と展開は、主に一握りのテクノロジー大手の管轄下にあります。これらの中央集権化された AI モデルはブラック ボックスとして機能し、意思決定プロセスは一般の監視から隠されています。この透明性の欠如により、ハイリスクな業務における彼らの決定を信頼することは事実上不可能です。AI エージェントの推論を理解または検証できない場合、AI エージェントに重要な選択を任せることができるでしょうか。
解決策としての分散化
しかし、これらの懸念に対する解決策は存在します。分散型 AI です。これは、より透明性が高く、信頼できる AI エージェントへの道を提供するパラダイムです。このアプローチは、ブロックチェーン技術やその他の分散型システムの強みを活用して、強力であるだけでなく説明責任も果たす AI モデルを作成します。
AI エージェントへの信頼を構築するためのツールはすでに存在しています。ブロックチェーンは検証可能な計算を可能にし、AI アクションが監査可能かつ追跡可能であることを保証できます。AI エージェントが下すすべての決定は公開台帳に記録され、前例のない透明性が実現されます。同時に、信頼できる実行環境機械学習 (TeeML) などの高度な暗号化技術は機密データを保護し、モデルの整合性を維持し、透明性とプライバシーの両方を実現します。
AI エージェントがパブリック ブロックチェーンに隣接して、または直接ブロックチェーン上で動作することが増えるにつれて、検証可能性の概念が重要になります。従来の AI モデルでは、動作の整合性を証明するのに苦労する場合がありますが、ブロックチェーン ベースの AI エージェントでは、動作の暗号化による保証を提供できます。この検証可能性は、単なる技術的な利点ではなく、リスクの高い環境での信頼の基本的な要件です。
機密コンピューティング技術、特に信頼できる実行環境 (TEE) は、重要な保証レイヤーを提供します。TEE は、潜在的な干渉から隔離された AI 計算を実行できる安全な領域を提供します。このテクノロジーにより、AI システムのオペレーターであってもエージェントの意思決定プロセスを改ざんしたりスパイしたりすることができなくなり、信頼性がさらに強化されます。
Oasis Network の Runtime Off-chain Logic (ROFL) などのフレームワークは、このアプローチの最先端を代表しており、検証可能な AI コンピューティングとオンチェーンの監査可能性および透明性のシームレスな統合を可能にします。このようなイノベーションにより、信頼性と透明性の最高水準を維持しながら、AI 駆動型アプリケーションの可能性が広がります。
信頼できるAIの未来に向けて
信頼できる AI エージェントへの道には課題がないわけではありません。技術的なハードルは残っており、分散型 AI システムを広く採用するには、業界の慣行と一般の理解の両方を変える必要があります。しかし、潜在的なメリットは計り知れません。AI エージェントが完全な透明性を持って重要な決定を下し、その行動を誰でも検証および監査でき、人工知能の力が少数の企業に集中するのではなく分散される世界を想像してみてください。
大幅な経済成長を実現するチャンスもあります。北京で行われた2023年の研究では、AIの普及率が1%増加すると、全要素生産性(TFP)が14.2%増加することがわかりました。ただし、ほとんどのAI生産性研究は、AIエージェントではなく、一般的なLLMに焦点を当てています。複数のタスクを独立して実行できる自律型AIエージェントは、生産性をさらに向上させる可能性があります。信頼性が高く監査可能なAIエージェントは、おそらくさらに効果的でしょう。
おそらく、スキナーの有名な引用文を更新する時期が来ているのでしょう。本当の問題は、もはや機械が考えるかどうかではなく、その考えを信頼できるかどうかです。分散型 AI とブロックチェーンがあれば、その信頼を築くツールが得られます。今の問題は、それらを使用する知恵が私たちにはあるかどうかです。
注: このコラムで述べられている見解は著者のものであり、必ずしも CoinDesk, Inc. またはその所有者や関連会社の見解を反映するものではありません。