前谷歌首席執行官埃裏克·施密特警告人工智能開發者要控制其發展上限。他還強調了美國在與中國的人工智能競賽中獲勝的重要性。

施密特週日在與喬治·斯蒂芬諾普洛斯一起參加美國廣播公司新聞頻道《本週》節目時警告稱,人工智能系統有可能獨立運行,甚至自我改進。

施密特說:“我們很快就能讓計算機自行運行,決定它們想做什麼。”

施密特:人工智能不應不受控制

施密特重申了先進人工智能不受控制發展的風險,並指出具有自我完善能力的系統會帶來重大危險。

這位谷歌前首席執行官表示:“當系統能夠自我改進時,我們需要認真考慮拔掉它。”

當斯蒂芬諾普洛斯問施密特,這樣的人工智能系統是否可以抵抗關閉它們的努力時,施密特回答說:“嗯,從理論上講,我們最好有人來掌管插頭——打個比方。”

儘管人們對人工智能生存風險的擔憂日益加劇,但一些專家認爲這種擔憂被誇大了。倫敦帝國理工學院研究副教務長尼克·詹寧斯教授就是駁斥世界末日預言的人之一。

詹寧斯認爲,雖然人工智能可以在特定任務上表現出色,但在各個領域創建具有類人智能的系統仍然遠遠超出了科學家目前的能力。

“開發能夠出色完成單一任務的人工智能是可以實現的,”詹寧斯解釋道。“但打造能夠在多個領域反映人類智能的通用人工智能並不是我們近期可以期待的事情。”

對人工智能威脅的不同看法

與此同時,領先的人工智能研究人員仍對此表示擔憂,他們警告稱,目標不明確和安全措施不足會帶來危險。加州大學伯克利分校教授斯圖爾特·拉塞爾和博士後學者邁克爾·科恩認爲,如果不加以控制,強大的人工智能系統最終可能會對人類的生存構成威脅。

在《科學雜誌》發表的一篇見解論文中,拉塞爾和科恩呼籲對人工智能的發展進行更嚴格的監管。他們強調,科技公司在將人工智能系統投入市場之前,需要證明其安全性。他們認爲,如果沒有明確的目標和強有力的保障措施,先進的人工智能系統可能會損害人類的利益。

拉塞爾和科恩寫道:“如果這些人工智能的目標與人類的目標相沖突,那麼就可能帶來災難。”他們認爲,科技公司應該負責確保其系統的安全,並確定人工智能絕不能跨越的關鍵“紅線”。

關於人工智能安全性的爭論愈演愈烈

人工智能的快速發展已經帶來了挑戰,包括虛假信息的傳播、社會兩極分化和算法偏見。對安全和監管的擔憂尚未跟上技術發展的步伐。

施密特的言論反映出行業領袖們對應對這些挑戰的迫切需求。埃隆·馬斯克等專家長期以來一直呼籲制定先發制人的法規來降低人工智能的風險。

馬斯克曾將人工智能描述爲“我們作爲一個文明所面臨的最大風險”,他警告稱,當局幾乎沒有採取任何措施來應對其危險。同樣,物理學家斯蒂芬霍金擔心,達到奇點,即機器超越人類智能的臨界點,可能會讓人類無法控制先進的人工智能系統。

霍金在採訪中表示,如果沒有監管,人工智能可能會成爲“人類遇到的最好的事情,也可能是最糟糕的事情”。

中美人工智能競爭加劇

施密特指出,儘管美國之前在人工智能發展方面領先於中國,但在過去六個月中,差距已顯著縮小。“中國以驚人的方式趕上來了,”他說,並將當前局勢描述爲兩個超級大國之間的一場高風險競賽。

“也許在未來一兩年內,系統可以開始進行自己的研究。他們被稱爲人工智能科學家,而不是人類科學家。因此,你將從擁有 1,000 名人類科學家發展到擁有 100 萬名人工智能科學家。我認爲這會增加坡度,當你以這種速度前進時,你的競爭對手很難趕上你,”他評論道。

施密特認爲,即將上任的特朗普政府將優先考慮美國在人工智能領域的競爭力,他認爲這是一個積極的舉措。“只要人類價值觀得到維護,”他說,“我們就沒問題。”

一個循序漸進的系統,幫助您在 90 天內開啓您的 Web3 職業生涯並獲得高薪加密工作。