著名哈佛心理學家 B.F. 斯金納曾表示,“真正的問題不是機器是否會思考,而是人類是否會思考。”這一詼諧的言論強調了一個曾經至關重要的觀點:我們對技術的信任取決於人類的判斷。我們不應該擔心機器智能,而應該擔心控制它的人的智慧和責任。至少情況是這樣的。

如今,ChatGPT 等軟件已成爲許多人工作生活中不可或缺的一部分,斯金納的見解似乎有些過時了。人工智能代理(能夠感知環境並採取行動實現特定目標的軟件實體)的迅速崛起從根本上改變了這一模式。這些數字助理誕生於 2020 年代初的消費者人工智能熱潮,如今已滲透到我們的數字生活中,處理從安排約會到做出投資決策等各種任務。

什麼是 AI 代理?

AI 代理與 ChatGPT 等大型語言模型 (LLM) 在自主行動能力方面存在顯著差異。LLM 主要處理和生成文本,而 AI 代理則旨在感知環境、做出決策並採取行動以實現特定目標。這些代理結合了各種 AI 技術,包括自然語言處理、計算機視覺和強化學習,使它們能夠適應並從經驗中學習。

但隨着人工智能代理的激增和迭代,一種令人不安的不安感也在增加。我們真的能信任這些數字實體嗎?這個問題遠非學術問題。人工智能代理在複雜的環境中運行,根據龐大的數據集和複雜的算法做出決策,甚至連它們的創造者都難以完全理解。這種固有的不透明性滋生了不信任。當人工智能代理推薦醫療方案或預測市場趨勢時,我們如何確定其選擇背後的原因?

錯誤地信任人工智能代理的後果可能是可怕的。想象一下,一個人工智能金融顧問由於誤解數據點而無意中導致市場崩潰,或者一個醫療人工智能根據有偏見的訓練數據推薦錯誤的治療方法。潛在的危害不僅限於個別行業;隨着人工智能代理越來越融入我們的日常生活,它們的影響力呈指數級增長。一個失誤可能會波及整個社會,影響從個人隱私到全球經濟的一切。

這種信任缺失的核心在於一個根本問題:中心化。人工智能模型的開發和部署在很大程度上是少數幾家科技巨頭的職權範圍。這些中心化的人工智能模型就像黑匣子一樣運行,它們的決策過程不受公衆監督。這種缺乏透明度的情況使得人們幾乎不可能相信他們在高風險操作中的決策。當我們無法理解或驗證人工智能的推理時,我們如何能依靠它做出關鍵的選擇呢?

答案是去中心化

然而,這些問題確實存在解決方案:去中心化人工智能。這一範例爲更透明、更值得信賴的人工智能代理提供了一條道路。這種方法利用區塊鏈技術和其他去中心化系統的優勢來創建不僅功能強大而且可信賴的人工智能模型。

建立對人工智能代理的信任的工具已經存在。區塊鏈可以實現可驗證計算,確保人工智能行爲可審計和可追溯。人工智能代理做出的每一個決定都可以記錄在公共賬本上,從而實現前所未有的透明度。同時,可信執行環境機器學習 (TeeML) 等先進的加密技術可以保護敏感數據並保持模型完整性,實現透明度和隱私性。

隨着人工智能代理越來越多地在公共區塊鏈附近或直接在公共區塊鏈上運行,可驗證性的概念變得至關重要。傳統的人工智能模型可能難以證明其操作的完整性,但基於區塊鏈的人工智能代理可以爲其行爲提供加密保證。這種可驗證性不僅僅是一種技術細節;它是高風險環境中信任的基本要求。

機密計算技術,尤其是可信執行環境 (TEE),提供了重要的保障。TEE 提供了一個安全的空間,可以進行 AI 計算,不受潛在干擾。這項技術確保即使是 AI 系統的操作人員也無法篡改或監視代理的決策過程,從而進一步增強了信任。

像 Oasis Network 的運行時鏈下邏輯 (ROFL) 這樣的框架代表了這種方法的前沿,能夠將可驗證的 AI 計算與鏈上可審計性和透明度無縫集成。此類創新擴展了 AI 驅動應用程序的可能性,同時保持了最高的信任和透明度標準。

邁向值得信賴的人工智能未來

通往值得信賴的人工智能代理的道路並非一帆風順。技術障礙仍然存在,而廣泛採用分散式人工智能系統將需要行業實踐和公衆理解的轉變。然而,潛在的回報是巨大的。想象一個世界,人工智能代理完全透明地做出關鍵決策,他們的行爲可以被任何人驗證和審計,人工智能的力量是分散的,而不是集中在少數幾家公司的手中。

這也有機會實現顯著的經濟增長。北京 2023 年的一項研究發現,人工智能滲透率每提高 1%,全要素生產率 (TFP) 就會提高 14.2%。然而,大多數人工智能生產力研究都側重於一般的法學碩士,而不是人工智能代理。能夠獨立執行多項任務的自主人工智能代理可能會帶來更大的生產力提升。值得信賴且可審計的人工智能代理可能會更加有效。

也許是時候更新斯金納的名言了。真正的問題不再是機器是否會思考,而是我們能否信任它們的想法。有了去中心化的人工智能和區塊鏈,我們就有了建立這種信任的工具。現在的問題是,我們是否有智慧去使用它們。

注意:本專欄中表達的觀點爲作者的觀點,並不一定反映 CoinDesk, Inc. 或其所有者和附屬公司的觀點。