著名な人工知能の専門家ジェフリー・ヒントンは、AI技術の急速な発展が今後30年以内に人類の絶滅につながる可能性があることを懸念しています。The Guardianによる報告によれば、AI研究でノーベル物理学賞を受賞したヒントンは、この壊滅的な結果の確率を10%から20%と見積もっています。

**制御されていないAIのリスク**

ヒントンは、AI開発の速度が期待をはるかに超えていることを強調し、人間の知能を超えるAIシステムの出現は制御が難しいかもしれないと述べました。彼は、企業の利益追求の動機だけでは安全なAI開発を保証できないと主張し、政府にAI技術の監視を強化するよう呼びかけました。

**専門家の予測と対照的な見解**

この分野の多くの専門家は、今後20年以内に人間よりも賢いAIシステムが登場し、人類に対して重大な脅威をもたらすと予測しています。しかし、すべての専門家がヒントンの懸念を共有しているわけではありません。Metaのチーフサイエンティストで「AIの教父」としても知られるヤン・ルカンは、AIが最終的に人類を絶滅から救う可能性があると信じています。

**慎重さと規制の必要性**

AI技術が前例のない速度で進化し続ける中、ヒントンの警告は慎重さと規制の必要性を思い出させるものです。AIの潜在的な利益は膨大ですが、制御されていない開発に伴うリスクは慎重に考慮し、対処される必要があります。

出典: Panewslab.com

「AIの教父」が急速なAIの進展の中で人類絶滅のリスクを警告するという投稿が、CoinBuzzFeedに初めて掲載されました。