MetaのAI責任者であるヤン・ルカン氏は、一般にAGIと呼ばれる人間レベルのインテリジェントAIシステムについて心配し始めるのはまだ早いと述べた。

こちらもお読みください: AGI 推測の詳細

「現時点では、人間レベルの知能システムの設計についてのヒントすらありません」とルカン氏は月曜日のXに投稿した。「ですから、心配するのは時期尚早です。そして、『実存的リスク』を防ぐために規制するのは時期尚早です。」

AIはただ危険になるだけではいけないとルカン氏は言う

多くの専門家は、AGI が現実になるには何十年、あるいは何世紀もかかると考えています。しかし、専門家はそのようなモデルが人類の存在を脅かす可能性があると警告しており、政府の間では懸念の種となっています。

関連記事:Google、OpenAI、その他13社が危険なAIモデルを導入しないと誓約

ルカン氏は、AIシステムは「突然現れて危険になるような自然現象ではない」と考えている。人間はAIを安全にする力を持っている、なぜなら人間はAIを創造する者だからだ、と彼は語った。

AI は、突然現れて危険になるような自然現象ではありません。AI を設計し、構築するのは私たちです。ターボジェットがひどい故障を起こすシナリオは何千通りも考えられます。しかし、私たちはターボジェットを広く普及させる前に、非常に信頼性の高いものにすることに成功しました。…

— ヤン・ルカン (@ylecun) 2024 年 5 月 27 日

「ターボジェットがひどい故障を起こすシナリオは何千通りも想像できます。しかし、私たちはターボジェットを広く配備する前に、非常に信頼性の高いものにすることができました」とルカン氏は付け加えた。「AIについても同様の疑問が残ります。」

メタのAI責任者は、法学修士課程では人間の知能に到達できないと語る

先週、LeCun氏は、ChatGPT、Geminiなどの人気のAIチャットボットを動かす大規模言語モデルは人間の知能には及ばないとも意見を述べた。

こちらもお読みください: OpenAI の ChatGPT-4o は感情や気持ちを表現できる

フォーブス誌のインタビューで、ルカン氏は、LLM は訓練が必要であり、入力されたデータと同じパフォーマンスしか発揮できないことから、「論理の理解には限界がある」と述べた。さらに、LLM は「本質的に安全ではない」ため、人間レベルの AI システムの構築を目指す研究者は他のモデル タイプを検討する必要があると指摘した。

OpenAI、MetaがAGI開発への関心を確認

ChatGPTの開発元であるOpenAIは、そのような強力なモデルの作成を計画している。5月に共同設立者のサム・アルトマン氏は、コストに関係なくAGIを作成すると述べた。

「年間 5 億ドルを消費しようが、50 億ドルを消費しようが、あるいは 500 億ドルを消費しようが、私は気にしません。本当に気にしません。支払い方法を見つけられる限り、私たちは AGI を作り続けます。費用はかかりますが。」

サム・アルトマン

Metaは人間レベルの知能の実現に向けた取り組みも開始している。1月にマーク・ザッカーバーグは、Metaの「長期的なビジョンは、汎用的な知能を構築し、責任を持ってオープンソース化し、誰もが恩恵を受けられるように広く利用できるようにすることだ」と認めた。

イビアム・ウェイアスによるCryptopolitanレポート