PANewsの12月30日の報道によると、ノーベル物理学賞を受賞した「人工知能の父」ジャフリー・ヒントンは、今後30年以内にAIによって人類が絶滅する確率は10%から20%の間であると警告しています。彼は、AI技術の発展速度が「予想を超えている」と指摘し、人間の知能を超えるAIシステムは制御が難しい可能性があると述べています。
ジャフリー・ヒントンは、政府に対してAI技術の規制を強化するよう呼びかけており、企業の利益動機だけではAIの安全な開発を保障できないと考えています。彼は、多くのAI分野の専門家が今後20年以内に人間よりも賢いAIシステムが登場するという予測をしており、これは人類に重大な脅威をもたらすと強調しています。
一方、同じく「AIの父」と称されるMetaのチーフサイエンティスト、ヤン・ルカンは異なる見解を持っており、AIが人類を絶滅から救う可能性があると考えています。