ChainCatcher のメッセージによると、金十の報道によれば、「人工知能の教父」ジェフリー・ヒントン(Geoffrey Hinton)は、今後30年以内に10%から20%の確率で人工知能が人類の滅亡を引き起こす可能性があると考えています。彼は、技術革新のスピードが予想以上に速いと警告しています。
ヒントンは、今年AIに対する貢献によりノーベル物理学賞を受賞しましたが、以前彼は人類にとってAI技術が10%の確率で壊滅的な結果を引き起こす可能性があると述べていました。
英国放送協会の第四放送局「今日」の番組が、彼にAI終末の可能性と10%の発生確率の分析に変化があったかどうか尋ねたところ、彼は「何も変わっていない、10%から20%だ」と答えました。