阿特曼希望人工智慧能「愛人類」;人工智慧已經走了很長一段路。

OpenAI首席執行官薩姆·阿特曼表達了對人工智慧的雄心壯志:希望它「愛人類」。

儘管他對將這一特質嵌入人工智慧系統充滿信心,但他承認這並不確定。

“我想是的,”當哈佛商學院高級副院長德博拉·斯帕爾提問時,阿特曼這樣回答。

薩姆·阿特曼表示,如果他對人工智慧有一個願望,那就是它能「愛人類」,並且將人工智慧系統對齊為以特定方式運作的努力出乎意料地良好 pic.twitter.com/zQJmviq0W8

—— Tsarathustra (@tsarnick) 2024年11月20日

曾經看似科幻小說的領域,從艾薩克·阿西莫夫的小說到詹姆斯·卡梅隆的電影史詩,已演變成一場嚴肅且緊迫的辯論。

人工智慧起義的想法,之前被視為推測,如今已成為一個合法的監管問題。

曾經可能被 relegated 為陰謀論的對話,如今正塑造著全球的政策討論。

阿特曼強調了OpenAI與政府的「相當建設性」關係,承認在應對人工智慧的快速發展中合作的重要性。

他還指出,人工智慧這一規模的項目理想情況下應由政府主導,強調其發展與社會的巨大影響。

阿特曼指出:

“在一個良好運作的社會中,這將是一個政府項目。鑑於這並未發生,我認為以這種方式作為美國項目更好。”

人工智慧安全指導方針仍然尚未完善

聯邦政府在推進人工智慧安全立法方面進展甚微。

加州最近的一次嘗試試圖讓人工智慧開發者對災難性誤用負責,例如製造大規模毀滅性武器或攻擊關鍵基礎設施。

儘管該法案在州立法機構通過,但最終還是被加州州長加文·紐瑟姆否決了。

解決人工智慧與人類福祉的對齊問題的迫切性已被該領域一些最具影響力的聲音所強調。

諾貝爾獎得主杰弗里·辛頓,常被稱為“人工智慧之父”,表達了嚴重的擔憂,承認他看不到保證人工智慧安全的明確途徑。

杰弗里·辛頓表示,人工智慧公司應被迫將三分之一的計算資源用於安全研究,因為在未來20年內人工智慧將變得比我們更聰明,我們需要開始擔心那時會發生什麼 pic.twitter.com/ocT3Scmyxg

—— Tsarathustra (@tsarnick) 2024年10月25日

同樣,特斯拉首席執行官埃隆·馬斯克始終警告人工智慧對人類構成生存風險。

諷刺的是,馬斯克,作為目前人工智慧實踐的直言批評者,曾是OpenAI創立的關鍵人物,提供了重要的早期資金——這一貢獻讓阿特曼至今仍感到“感激”,即使馬斯克現在正起訴該組織。

人工智慧安全的挑戰促使了專門組織的創建,這些組織專門用於解決這些問題。

像Alignment Research Center和Safe Superintelligence這樣的團體,都是由OpenAI前首席科學官創立的,旨在探索確保人工智慧系統與人類價值對齊的策略。

這些努力凸顯了人工智慧的快速發展必須與同樣嚴謹的保障措施相匹配,以保護人類的未來。

阿特曼希望人工智慧能夠具備同理心

阿特曼認為,目前的人工智慧設計非常適合對齊,確保人工智慧系統不對人類造成傷害比許多人想像的更可行。

他說:

“其中一個出乎意料地運作良好的事情是,能夠讓人工智慧系統以特定方式行為。所以如果我們能夠在多種不同案例中清楚地表達這意味著什麼,那麼,我認為我們可以讓系統這樣行動。”

他提出了一種創新的方法來定義應指導人工智慧發展的原則和價值:利用人工智慧本身直接與公眾交流。

阿特曼設想使用人工智慧聊天機器人對數十億用戶進行調查,收集他們的價值觀和優先事項的見解。

通過促進深入且廣泛的溝通,人工智慧可以獲得對社會挑戰的細緻理解,並確定哪些措施能最有效地服務於公眾的福祉。

他解釋說:

“我對這個思想實驗感興趣[其中]一個人工智慧與你聊幾個小時,討論你的價值體系。它這樣做過,對我和其他每個人也是如此。然後說‘好吧,我不能讓每個人都高興。’"

阿特曼建議,這種集體反饋可以用來使人工智慧系統與人類的更廣泛利益對齊,可能為人工智慧在與社會目標和諧運作中創造一個框架。

這種方法不僅強調了人工智慧作為促進全球對話的工具的潛力,還提出了發人深省的問題。

薩姆·阿特曼表示,讓用戶向人工智慧解釋他們的價值體系並讓其在此基礎上達成共識是人工智慧對齊的一個有前途的方向 pic.twitter.com/Ev97Ts3fQN

—— Tsarathustra (@tsarnick) 2024年11月20日

這種方法真的能捕捉到人類價值的複雜性嗎?

它能否平衡數十億人的多樣化觀點,以實現社會共同利益的統一願景?

阿特曼的想法提供了一瞥,展示人工智慧不僅能服務於人類,還能與人類合作以解決我們最迫切的挑戰。

許多前OpenAI員工擔心安全問題已在人工智慧中被忽視。

OpenAI曾經有一個專門的超對齊團隊,專注於防止未來的數位超智能失控並造成災難性傷害。

2023年12月,該團隊發布了一篇早期研究論文,概述了潛在過程,其中一個大型語言模型將監督另一個,作為安全保障。

然而,到第二年春天,該團隊在其領導者伊利亞·蘇茨基弗和簡·萊克離開公司後解散。

萊克提到,隨著公司向人工通用智能(AGI)推進,他與OpenAI的領導層在安全優先事項上出現了越來越多的分歧——這是與人類智力相當的人工智慧智能水平。

建立超越人類的智能機器本身是一個危險的事業。

OpenAI正在肩負全人類的巨大責任。

—— 簡·萊克 (@janleike) 2024年5月17日

他的離開突顯了在開發AGI的競賽中,創新與安全之間的緊張關係日益加劇。

當萊克離開時,阿特曼在X(前身為推特)上發表帖子對他的貢獻表示感謝,但這一情況讓許多人質疑OpenAI將如何應對未來的安全關注。

我非常感謝@janleike對OpenAI的對齊研究和安全文化的貢獻,看到他離開我感到非常難過。他是對的,我們還有很多事情要做;我們致力於做到這一點。接下來的幾天我會有一篇更長的帖子。

🧡 https://t.co/t2yexKtQEk

—— 薩姆·阿特曼 (@sama) 2024年5月17日