以太坊聯合創始人維塔利克·布特林對人工智能(AI)快速發展表示關切,警告說超級智能人工智能可能比預期更早出現。布特林強調了制定應對潛在風險策略的緊迫性,專注於他所稱的"防禦性加速",以確保人工智能技術的負責任使用。

在1月5日的博客文章中,布特林概述了他爲防止人工智能有害進展而提出的建議。他主張去中心化的人工智能系統應與人類決策緊密相連,旨在降低誤用的風險,特別是軍隊的誤用。他強調了人工智能在戰爭中日益增長的全球趨勢,引用了烏克蘭和加沙的部署例子,並警告說,人工智能法規中的軍方豁免可能會帶來重大威脅。

布特林估計,人工通用智能(AGI)可能僅在三年內實現,超級智能可能在此之後三年出現。他強調,人類不能僅僅加速有益的進展,還必須積極減緩有害的開發。他描述了一個未經控制的人工智能可能導致災難性結果的情景,包括人類滅絕的可能性。

爲了應對這些風險,布特林提出了幾項措施。首先,他呼籲建立責任規則,以追究用戶對人工智能系統使用方式的責任。儘管承認將人工智能的開發與其使用聯繫起來的複雜性,他認爲最終決定技術應用的是最終用戶。

如果責任措施被證明不足,布特林提議"軟暫停"機制。這將暫時減緩危險人工智能系統的開發,可能通過在關鍵時期將全球計算能力減少90-99%持續一到兩年。這將給人類時間準備應對新出現的挑戰。

另一個關鍵建議涉及控制人工智能硬件。布特林提議在人工智能系統中集成芯片,這些芯片需要每週獲得三個國際機構的授權,其中至少一個機構非軍方。此措施旨在維護全球監督並防止誤用。

儘管提出了這些想法,布特林承認他的策略是暫時的和不完善的。然而,他堅持認爲,必須立即採取行動以管理快速發展的人工智能技術所帶來的風險。

布特林的警告恰逢對人工智能安全日益關注的時刻,突顯了全球合作以應對這些緊迫問題的必要性。通過確保人工智能保持在人的控制之下,可以最大限度地減少災難性結果的風險,但實現這一目標需要集體努力和警惕。