翻譯:白話區塊鏈

AI與加密貨幣/區塊鏈的交匯已成爲一個被吹捧的故事情節,但其重要性遠不止於此。本系列將探討區塊鏈技術和哲學如何解決由AI引入的許多問題,特別是關於集中化和獲取權限,旨在爲社會創造更積極的總和結果。

在本系列的第一篇文章中,我們探討AI與加密貨幣之間的基本原因。我們將審視技術協調的當前格局,探索加密貨幣如何促進自下而上的協調,並分析這種模式如何能夠在AI價值鏈的各個環節中應用——從數據收集到推斷。

如果您在閱讀完本文後產生了更多的問題,並對探索加密貨幣如何解決AI問題的興趣增加了,那麼我們已經達到了我們的目標!未來的文章將聚焦於AI堆棧的不同部分(如數據、訓練、推斷等),深入探討具體的使用案例和解決方案。

 

1、全程協調

協調是指讓人或羣體能夠順暢高效地共同合作。它是維繫社會、公司和社區的粘合劑。當我們談論協調時,實際上是在探討如何使人們能夠調整他們的努力和決策,以實現共同的目標。

1)協調有兩種主要方式:自上而下和自下而上。

自上而下的協調指的是一種層級結構,頂層的決策影響着整個羣體。自上而下的協調類似於金字塔結構。想象一個傳統的公司結構:決策由高層執行決定,逐級傳遞給管理者,最終影響到廣大的員工。在這種模式下,只要高層同意,決策就會實施。權力集中在少數人手中。

自下而上的協調指的是一種網絡化結構,個體或羣體共同參與決策過程。自下而上的協調更像是一個網狀結構。想象一個社區,每個人都有發言權:決策由所有參與者的集體輸入而產生。權力分佈給參與者。

image.png

這兩種方法各有優勢和劣勢。自上而下的方式在危機情況下可以快速高效。自下而上的方式可能較爲緩慢,但通常會帶來更多的參與和創造性解決方案。

這些協調模式是有用的模型,幫助我們理解處理像AI這樣能夠影響數十億人的強大技術時所面臨的挑戰和機遇。

2)當前形勢:科技領域的自上而下協調

當今科技領域主要採用的協調模式是自上而下的:少數幾家公司及其內部的個人決定資源分配,並設定影響數十億用戶的技術政策。這種模式因其在將團隊協調朝特定目標推進和創造顯著財務回報方面的效率而持續存在。儘管這與某些理論認爲的公司優勢如降低交易成本和改善協調有關,但少數幾家科技公司對權力的極度集中超出了最初的預期或合理性。

這些優勢使得基礎設施和Web2公司成爲全球最大和最有影響力的公司之一。然而,這種權力集中對用戶來說是有代價的。例如,大多數社交媒體平臺由少數幾家公司主導,他們設定平臺政策,影響和規定數十億用戶的體驗和獎勵。你可以在社交媒體上發佈你認爲正確的事情,只要"你認爲正確的事情"是社交媒體平臺政策的範圍內。如果超出了這些範圍,你的帖子可能會被刪除,你的賬戶可能會被封禁。同樣,你也可以利用大型科技平臺來謀生,只要他們能從你賺的錢中收取30%(或更多)。在其他社交媒體平臺的情況中,獲取率是“100%”,因爲這些平臺上的創作者沒有任何收入。

自上而下的協調模式雖然在快速決策和資源分配方面效率高,但會導致零和遊戲甚至負和遊戲。這意味着公司必須不斷努力超越對手以維持其主導地位。例如,如果一個社交媒體平臺不利用用戶數據來爲他們服務,那麼另一個競爭對手會這樣做。這種壓力被股東的期望和資本投資的回報需要加劇。

集中控制權和獎勵於頂層的中心化權力結構通常以用戶爲代價。互聯網最初設想的開放、平等和點對點系統的願景被一組新的、通過可預測的“吸引然後提取”週期獲得權力的互聯網原生門戶所取代。

 

2、人工智能(AI)領域:重複這一週期?

在人工智能領域,許多常見的因素都在爲這一週期重演鋪平道路:

  • 少數中央集權的實體由少數幾個幕後決策者控制,他們決定了有潛力影響數十億用戶的技術政策。

  • 激烈的競爭,力圖建立最大、最好的模型,以吸引儘可能多的用戶。

  • 大量資本投入競賽,面臨回本和盈利的壓力,這可能會使用戶利益和公司最初的理想被邊緣化。

我們開始在人工智能領域看到這種情況在上演,儘管人工智能還處於早期階段(並且正在快速發展)。例如,平臺已經開始使用用戶生成的數據進行許可以牟利。例如,Reddit與Google達成協議,每年許可Reddit數據達6000萬美元。其他公司,如Adobe和Slack,因在其政策中聲明可以使用用戶數據來訓練AI模型而引起用戶反對。這在用戶和平臺之間創建了一種提取式關係,因爲這些平臺上的有價值數據(消息、互動和帖子)是用戶創建的,但用戶並沒有參與這些數據帶來的價值創造。

用戶可以使用這些中央巨頭基於用戶數據創建的AI模型,但隱含地必須同意公司的社會(以及可能的政治)偏好,這可能會影響模型的輸出(參見Google Gemini的推出)。相關地,我們看到OpenAI從一個致力於爲人類利益開發開源AI的非營利組織,轉變爲引入外部資本後的封閉和企業化營利結構。這再次創造了一種情況,即存在着優先考慮股東而非用戶的激勵機制。

AI可能朝向這種提取式模型的風險足以讓人質疑是否需要一種不同的協調方法——例如像加密貨幣所提供的自下而上的方法——即使這種方法可能無法解決所有問題,但或許能夠提供更好的解決方案。

 

3、加密貨幣實現了自下而上的協調

比特幣引入了抗審查的貨幣概念,這種貨幣不受中心化實體控制,而是由密碼學、軟件代碼和經濟激勵所保障,全部建立在一個去中心化網絡上。區塊鏈技術構建在開源的理念之上,提供了一種新的自下而上的協調模式。協調的角色從中心化的當事方轉變爲這些分佈式網絡的機制和激勵設計,所有這些都由開源軟件代碼驅動,並由點對點系統中的個體和羣體共同治理,無需中心化信任。

加密貨幣結合了三大學術領域的創新:密碼學、網絡與分佈式系統以及博弈論。密碼學是數學的一個分支,通過加密和解密信息實現跨網絡的信息安全。網絡與分佈式系統是計算機科學的一個分支,通常被認爲是支持點對點基礎設施的架構。博弈論——作爲機制設計領域的重要組成部分——來自經濟學,創造了協調不同當事方實現目標的激勵結構,例如系統的連續性和維護。

這些領域的聯合創新使得加密貨幣具備了許多核心原理,從而實現了自下而上的協調:

  • 不可變賬本:區塊鏈的最重要特徵之一是其不可變性。它們是不可更改的真實來源,幾乎不可能被刪除或篡改。在人工智能驅動的創作時代,區塊鏈提供了唯一的無信任數字產權、所有權和歸屬證明方法。

  • 個體層面的所有權:加密貨幣使用戶能夠在互聯網上擁有資產,無需信任的平臺作爲中介來驗證所有權,從而在點對點的方式下實現無信任的合約協議。這些資產以代幣的形式存在,可編程並且可以代表任意數據或對象。通過基於加密貨幣的資產所有權,用戶不僅完全控制着代表財務產品的代幣,還控制着代表其身份、數據和偏好的代幣。

  • 去中心化:區塊鏈網絡是建立在點對點分佈式節點網絡之上的。在這種背景下,去中心化意味着沒有單一實體或司法管轄區能夠在不遵循協議的情況下改變、損壞或控制網絡。在去中心化系統中,政策由參與者和網絡用戶共同制定和決定,這些參與者包括用戶、驗證者、投資者以及更廣泛的社區成員,通過開源代碼中定義的明確定義的共識機制。

加密貨幣創造了一個獨特的設計空間,允許個體或羣體通過代碼進行基層方式的協調和強制執行。加密貨幣並不提倡一種協調形式,而是在哲學上允許用戶根據其偏好選擇加入或退出。如果用戶或一組用戶對網絡/協議的任何部分表示不同意,他們可以加入另一個網絡,並帶走他們的資產和數據,在某些情況下甚至可以完全啓動一個新網絡。

這些基本原理使得無信任、透明和去中心化的生態系統得以形成。AI面臨着前面提到的自上而下模式中所描述的中心化風險。我們心中的重要問題是,AI能否從由加密貨幣實現的自下而上的協調模式中受益?

 

4、人工智能中的自上而下與自下而上協調方式

爲了瞭解加密的自下而上協調模型如何有助於人工智能,讓我們來審視人工智能價值鏈——創造和部署的不同階段,並比較每個階段的自上而下和自下而上的協調方式。

image.png

1)數據:人工智能的基礎

互聯網上的一切都以某種形式存在數據中。任何形式的內容、知識產權、軟件代碼、圖像、內容、音樂,以及您快速劃過或點擊的方式等都是數據的一種形式,數據是訓練AI模型的核心要素之一。如今用於訓練基礎模型的最流行數據集包括Common Crawl,這是一個擁有1萬億個令牌(1個令牌大約代表1個單詞)的數據集,以及ImageNet,一個包含1400萬個帶標註圖像的數據集。

image.png

數據協調中的關鍵問題是數據的獲取,其核心包括數據所有權。

在自上而下的協調模型中,人工智能公司通常假定它們可以使用在網上抓取的數據,並宣稱這是合理使用,而不需要補償那些創建數據的用戶。然而,創建者、用戶和數據所有者對人工智能公司在沒有明確許可的情況下訓練其數據的合法性和道德性提出了反對意見。有許多訴訟案件(如《紐約時報》訴OpenAI、報紙訴OpenAI、音樂行業訴AI初創公司等),聲稱人工智能公司不能簡單地使用抓取的數據。甚至像X這樣的集中平臺也關閉了它們的API,並使用速率限制來防止機器人抓取它們的網站。

在由加密經濟機制促成的自下而上協調模型中,用戶可以在區塊鏈上註冊並將其數據、內容和知識產權進行代幣化。一旦上鍊,用戶可以設定其他人合法使用其數據的權限,包括決定是否希望因提供數據而獲得補償。這創建了一個系統,使用戶在(人工智能)公司使用這些數據時能夠獲益,同時也允許(人工智能)公司在不像今天那樣操作於灰色地帶的情況下合法使用這些數據。

2)訓練:構建AI模型

訓練指的是教導機器學習模型識別其訓練數據中的模式和關係的過程。這一步驟的目標是使模型開發出描述其訓練數據中不同數據點之間關係的參數或權重。

訓練下一代AI模型需要大量的計算資源和時間。具有更多參數的模型需要更多的數據和計算能力來訓練(例如更大的GPU集羣)。例如,訓練GPT-4花費了OpenAI約1億美元,而訓練Gemini Ultra花費了Google約2億美元。

image.png

在訓練階段的一個關鍵協調問題是如何資助AI模型的開發,考慮到其高昂的成本。

在自上而下的協調模型中,AI的資金主要來自大型科技公司、私人基金和機構投資者。沒有大規模衆籌的概念可以支持下一代AI模型的開發。這種資金模型優化了少數參與者的利益,很可能以用戶爲代價。AI公司必須優先考慮股東的利益積累,儘管用戶和其他利益相關者(例如第三方開發者)對AI模型最終成功的貢獻可能會遠遠超過他們所獲得的回報。

在由加密技術驅動的自下而上協調模型中,任何擁有有用資源的人都可以爲AI模型的開發做出貢獻,並從這些AI模型所創造的價值中獲利。用戶可以通過使用加密代幣幫助資助AI模型的創建,並擁有該模型的一部分。除了提供資金外,基於加密的系統還可以用來激勵用戶貢獻其他資源,例如他們的數據和/或多餘的計算能力,這正是中心化公司籌集資金的重要途徑之一。

一些敏銳的懷疑者可能會指出,在AI領域已經存在一個健康的開源運動,它已經在沒有加密技術的情況下有效地進行協調。但是,如果缺乏貢獻的激勵,開源項目將缺乏必要的協調系統,無法實現其長期承諾成爲對中心化封閉解決方案的真正替代。換句話說,如今的開源AI缺乏一個能夠允許其在全球範圍內協調參與者和合作者,並讓他們捕捉到他們所創造的價值的激勵層。

3)推斷:將AI投入實際運用

一旦模型訓練完成,用戶可以輸入提示並要求模型基於提示返回一些輸出。模型將根據訓練階段開發的參數來執行此操作。模型生成輸出的這一過程稱爲推斷。

在自上而下的協調模型中,私有模型是不透明的系統,不提供用戶或社區對模型參數的洞察,它們就像黑匣子一樣運作。在過去幾年中,我們看到模型中出現了偏見,特別是基於創建模型的組織的基本偏好。例如,當Google推出Gemini時,該模型未能準確地描繪出歷史人物的種族和性別特徵。許多其他中心化模型也限制了用戶基於其管理團隊設置的政策提出某些類型的問題。

此外,驗證推斷是否由正確的模型執行僅僅是信任平臺的問題。這種基於信任的系統爲潛在操縱敞開了大門,尤其是當AI公司面臨將其投資變現的壓力時。

在由加密技術驅動的自下而上協調模型中,驗證推斷是否正確是通過鏈上驗證和可證明的基於密碼學的技術實現的,從而實現了無需信任的操作。這種方法可以減少模型輸出中的偏見,並增加透明度。

 

5、協調問題超越AI價值鏈:所有權、歸因和合法性

隨着人工智能在我們日常生活中的更深度整合和規模化應用,引發了超越數據、訓練和推斷技術方面的深層協調問題。

這些問題圍繞着兩個主要主題展開:所有權與歸屬,以及合法性與稀缺性。關於所有權與歸屬:

  • 誰擁有由AI模型創建的圖像?

  • 當圖像被重新制作(裁剪、編輯、轉換爲視頻等)並生成衍生作品時會發生什麼?

  • 如果這些模型的輸出用於商業目的,誰應該得到補償,以及補償的內容是什麼?

  • 訓練AI模型所使用的數據的創建者/所有者是否應該爲模型生成的任何輸出獲得補償?

  • 如果一個AI代理代表您行事,並使用了基於偏見數據訓練的AI模型創建您要用於盈利的內容,如果這個代理出現錯誤或造成損害,責任應由誰承擔?

在合法性和稀缺性問題上:

  • 隨着AI實現了無限豐富和AI生成內容在互聯網上氾濫,我們如何區分“真實”和“虛假”的內容?

  • 如果人們對AI伴侶產生情感依賴,誰擁有這些伴侶?誰控制它們?創造者/所有者是否可以從影響個人的決策或行爲中受益?

  • 隨着AI伴侶變得更加個性化,與它們的互動是否應作爲平臺自由使用的訓練數據?

這些問題突顯了將傳統的所有權、歸因和稀缺性概念應用於AI生成內容和互動的複雜性。由加密貨幣啓用的自下而上協調模型可能爲解決這些問題提供新的框架,潛在地允許更加細緻和公平的所有權和補償系統。

 

6、Coda:中世紀的機構,似神的科技

擁有如此強大的技術如人工智能,我們本應該生活在數字復興時代。然而,我們目睹的是對最智能人工智能的軍備競賽,其中數據最大的利益相關者和貢獻者——用戶,往往未被優先考慮。

加密貨幣爲自下而上協調提供了一個新的設計空間,對人工智能尤爲重要,因爲人工智能可能導致權力極度集中化的風險。與以往的技術不同,人工智能集中化帶來的風險可能導致負和結果,這使得對替代協調模型的需求更加緊迫(和有趣)。

E.O. 威爾遜曾說:“人類真正的問題在於:我們擁有舊石器時代的情感,中世紀的機構和似神的科技。” 我們現在手持着似神的人工智能技術,然而我們的協調和治理方法仍然根植於過時的、類似中世紀機構的自上而下模型。這種不匹配可能最終成爲社會最重要的協調失敗。