すでに混雑しているこの分野に、また新たな人工知能チャットボットが参入してきましたが、どうやらこのチャットボットは、ほとんどのチャットボットができないことができるようです。つまり、間違いから学ぶことができるのです。

9月5日のXの投稿で、HyperWrite AIのCEOであるマット・シューマー氏は、「Reflection 70B」の開発を発表し、これを「世界最高のオープンソースモデル」であると主張した。

同氏は、新しい AI は、LLM が自分の間違いを修正できるように開発された技術である「リフレクション・チューニング」を使用してトレーニングされたと付け加えた。

Reflection Llama-3.1 70Bは、いくつかのベンチマークにおいて、AnthropicのClaude 3.5 SonnetやOpenAIのGPT-4oなどのトップのクローズドソースモデルにさえ「匹敵する」ことができると彼は主張した。Llama 3.1は、7月にリリースされたMetaのオープンソースAIである。

同氏は、現在の AI モデルは幻覚を起こすことが多いが、リフレクション・チューニングにより、答えを出す前に間違いを認識して修正できるようになると述べた。

「現在の法学修士課程の学生は幻覚を起こす傾向があり、幻覚を起こしていることに気づけないのです。」

AI 幻覚とは、生成 AI チャットボットが、存在しない、または人間の観察者には知覚できないパターンやオブジェクトを認識し、不正確な出力を生成する現象です。

反射チューニングの例。出典: Matt Shumer

リフレクション チューニングは、AI モデルに独自の出力を分析して学習させることで AI モデルを改善するために使用される手法です。

AI の応答は AI にフィードバックされ、AI 自身の応答を評価して、たとえば長所、短所、改善すべき領域を特定するよう要求できます。

このプロセスは何度も繰り返され、AI は出力に対する自己認識を高め、自身のパフォーマンスをより適切に批評および改善することを目的として、その機能を継続的に改良することができます。

シューマー氏は「適切なプロンプトがあれば、多くのユースケースで非常に優れたツールとなる」と付け加え、新モデルのデモリンクを提供した。

マイクロソフトが支援するOpenAIは2023年に、AIの幻覚を防ぐのに役立つ方法についてのアイデアをまとめた研究論文を発表した。

1 つのアイデアは「プロセス監視」であり、これは AI モデルをトレーニングして、正しい最終結論に報酬を与えるだけでなく、答えに到達する際の個々の正しい推論ステップごとに自分自身に報酬を与えるというものです。

「モデルの論理的誤りや幻覚を検出し、軽減することは、整合性のあるAGI(人工汎用知能)を構築するための重要なステップです」と、OpenAIの研究者であるカール・コッベ氏は当時CNBCに語った。

雑誌:台湾のAIドローン「地獄の風景」計画、人類を滅ぼすには法学修士課程があまりにも愚か:AI Eye