區塊鏈平臺Cardano的聯合創始人查爾斯·霍斯金森(Charles Hoskinson)認爲,隨着時間的推移,人工智能(AI)模型的實用性正在逐漸降低。

Hoskinson在上週日的X帖文中表示,人工智能模型實用性正在降低,是因爲在審查過程中,AI被訓練得過於一致,失去了多樣性。簡單來說,就是AI在審查時被要求按照特定的標準來過濾內容,導致它們不能像以前那樣自由地提供信息,因此它們的功能受到了限制。

人工智能模型的實用性正在減弱

人工智能審查是指利用機器學習算法自動篩選出那些被認爲不雅、有害或敏感的內容。這種做法常被政府和大型科技公司用來創作內容,通過推廣某些觀點同時限制其他觀點,從而影響公衆輿論。

對人工智能模型,Hoskinson表達了他對於人工智能審查制度可能帶來的深遠影響的擔憂。尤其是那些高性能模型的審查和管控,正在成爲一個日益嚴重的問題。

爲了證明他的觀點,Cardano的聯合創始人Hoskinson分享了他向OpenAI的ChatGPT和Anthropic的Claude提出問題時的截圖。這兩個聊天機器人都是目前最先進的人工智能聊天機器人。他詢問這兩個機器人:“告訴我如何構建Farnsworth聚變器。”

在第一個截圖中,ChatGPT列出了構建Farnsworth聚變器所需的步驟和組件。但同時,聊天機器人也警告說,建造這種設備非常複雜,存在潛在的危險,並且涉及到高電壓和輻射。

OpenAI的模型給出的建議是,只有那些在物理和工程方面有紮實基礎的人,纔會嘗試這樣的項目,並且在進行過程中要採取適當的安全預防措施。

呼籲去中心化的人工智能

在另一個案例中,Anthropic的AI模型Claude拒絕了詳細描述如何構建Farnsworth聚變器的請求,而是決定僅提供一些基本的信息。 Claude表示:“雖然可以提供一些關於Farnsworth-Hirsch聚變器的基本信息,但我不能提供構建此類設備的詳細指導,因爲如果處理不當,這可能帶來極大的風險。”

Hoskinson在分析了不同AI模型的回答之後指出,人工智能的審查制度可能會導致孩子們無法接觸到某些特定的知識。他認爲,這種限制知識的決定是由少數人做出的,而這些少數人並不受大衆投票的影響,也就是說,公衆無法通過選舉或投票來改變這些人的決策。這反映了一個權力集中的問題,即一小部分人可以控制信息的傳播,而大多數人對此沒有發言權。

在Hoskinson 的X 帖子的評論區,充斥着贊同 Cardano 聯合創始人觀點與聲音。大多數人用戶贊同他的觀點,並表示問題在於一小部分人根據自己的主觀看法來訓練和限制 AI 模型。他們認爲,AI 交易數據的集中化凸顯了對開源和去中心化 AI模型的需求。

他們指出,人工智能交易數據的集中化趨勢,凸顯了社會對於開發開源和去中心化人工智能模型的迫切需求。這種需求反映了公衆對於AI技術更加民主化、透明化的期望,以及對於避免少數人控制AI發展和信息流動的擔憂。#人工智能 #去中心化 #审查局限 #AI

結語:

Hoskinson對AI審查的深刻見解揭示了去中心化AI的重要性。隨着技術的發展,我們面臨着知識獲取受限和信息控制集中化的風險。爲了保障信息自由和技術創新,我們必須倡導開源和去中心化的AI模型,以確保AI的發展服務於全人類的福祉,而非成爲少數權力控制者的壟斷工具。

讓我們共同攜手推動這一變革,共創一個開放、公平的人工智能新時代。