PANews によると、ノーベル賞受賞物理学者で「AI のゴッドファーザー」として知られるジェフリー・ヒントン氏が、人工知能がもたらす潜在的なリスクについて厳しい警告を発した。ヒントン氏は、AI が今後 30 年以内に人類を絶滅させる可能性は 10% から 20% だと見積もっている。同氏は AI 技術の急速な進歩に懸念を示しており、AI 技術は予想よりも速いペースで進歩しており、人間の知能を超えて制御不能になる AI システムにつながる可能性があると考えている。

ヒントン氏は、企業の利益追求だけに頼るだけではAIの安全な発展を保障するには不十分だとして、政府によるAI技術の規制強化を求めている。同氏は、AI分野の専門家の多くが、今後20年以内に人間よりも知能の高いAIシステムが登場し、人類に大きな脅威をもたらすと予測していることを強調した。

対照的に、AI のもう一人の著名人で Meta の主任科学者である Yann LeCun 氏は、異なる見解を持っています。LeCun 氏は、AI が人類を絶滅から救う可能性があると信じており、この技術の将来的な影響についてより楽観的な見方を示しています。