著名人工智能專家傑弗裏·希頓表示,人工智能技術的快速發展可能在未來30年內導致人類滅絕。根據《衛報》的報道,希頓因其人工智能研究獲得諾貝爾物理學獎,他估計這一災難性結果的概率爲10%到20%。

**不受控制的人工智能風險**

希頓強調,人工智能發展的速度遠遠超過了預期,而超越人類智能的人工智能系統的出現可能難以控制。他呼籲各國政府加強對人工智能技術的監管,認爲單靠企業的利潤驅動動機無法保證安全的人工智能發展。

**專家預測與對立觀點**

許多領域的專家預測,智力超過人類的人工智能系統將在未來20年內出現,對人類構成重大威脅。然而,並非所有專家都認同希頓的擔憂。Meta的首席科學家、被稱爲“人工智能教父”的揚·勒昆認爲,人工智能最終可能會拯救人類免於滅絕。

**謹慎和監管的必要性**

隨着人工智能技術以空前的速度不斷髮展,希頓的警告提醒我們需要謹慎和監管。儘管人工智能的潛在好處巨大,但與不受控制的發展相關的風險必須得到仔細考慮和解決。

來源:Panewslab.com

文章“人工智能教父”警告快速發展中人類滅絕風險首次出現在CoinBuzzFeed上。