著名人工智能專家傑弗裏·辛頓擔心,人工智能技術的快速發展可能在未來30年內導致人類滅絕。據《衛報》報道,憑藉人工智能研究獲得諾貝爾物理學獎的辛頓估計,這種災難性結果發生的概率爲10%至20%。

**不受控制的人工智能的風險**

辛頓強調,人工智能發展速度已遠超預期,超越人類智能的人工智能系統的出現可能難以控制。他呼籲各國政府加強對人工智能技術的監管,認爲僅靠企業的營利動機無法保證人工智能的安全發展。

**專家預測與對比觀點**

許多領域的專家預測,智能超過人類的人工智能系統將在未來20年內出現,這對人類構成重大威脅。然而,並非所有專家都分享希頓的擔憂。Meta的首席科學家,也是被稱爲“人工智能教父”的揚·勒昆認爲,人工智能最終可能會拯救人類免於滅絕。

**謹慎和監管的必要性**

隨着人工智能技術以空前的速度不斷進步,希頓的警告提醒我們需要謹慎和監管。儘管人工智能的潛在好處巨大,但與失控發展相關的風險必須仔細考慮並加以解決。

來源:Panewslab.com

這篇文章“人工智能教父警告快速發展的人工智能帶來的 人類滅絕風險”首次刊登在CoinBuzzFeed上。