著名な人工知能の専門家であるジェフリー・ヒントンは、AI技術の急速な発展が今後30年以内に人類の絶滅を引き起こす可能性があると懸念を表明しました。『ガーディアン』の報告によれば、AI研究でノーベル物理学賞を受賞したヒントンは、この壊滅的な結果の確率を10%から20%と見積もっています。
**制御されないAIのリスク**
ヒントンは、AIの開発速度が期待をはるかに超えており、人間の知能を超えるAIシステムの出現は制御が難しい可能性があると強調しました。彼は政府に対してAI技術の監視を強化するよう求め、企業の利益追求だけでは安全なAI開発を保証できないと主張しました。
**専門家の予測と対照的な見解**
多くの専門家は、今後20年以内に人間よりも賢いAIシステムが登場し、人類に重大な脅威をもたらすと予測しています。しかし、すべての専門家がヒントンの懸念を共有しているわけではありません。メタの最高科学者であり、「AIの教父」としても知られるヤン・ルカンは、AIが最終的に人類を絶滅から救う可能性があると考えています。
**注意と規制の必要性**
AI技術が前例のない速度で進化し続ける中、ヒントンの警告は注意と規制の必要性を思い出させるものです。AIの潜在的な利点は広範ですが、制御されない開発に伴うリスクは慎重に考慮し対処しなければなりません。
出典: Panewslab.com
「AIの教父」が急速なAIの中で人間絶滅のリスクを警告するという投稿が最初にCoinBuzzFeedに掲載されました。