Ein neues KI-Chatbot-Modell namens "Reflection 70B" wurde vorgestellt und verspricht, ein Problem zu lösen, das viele KI-Modelle plagt: Halluzinationen.

Reflection-Tuning: Lernen aus Fehlern

Das Modell wurde mit "Reflection-Tuning" trainiert, einer Technik, die es KIs ermöglicht, aus ihren Fehlern zu lernen und diese zu korrigieren.

Matt Shumer, CEO von HyperWrite AI, bezeichnet "Reflection 70B" als "das weltweit beste Open-Source-Modell". Es wurde auf Basis von Llama 3.1, einem Open-Source-KI-Modell von Meta, entwickelt und soll in mehreren Benchmarks mit geschlossenen Modellen wie Anthropic's Claude 3.5 Sonnet und OpenAI's GPT-4o mithalten können.

Halluzinationen: Ein Problem für KI-Modelle

KI-Halluzinationen treten auf, wenn ein KI-Chatbot Muster oder Objekte wahrnimmt, die nicht existieren oder für menschliche Beobachter nicht wahrnehmbar sind. Dies führt zu falschen Ausgaben.

Reflection-Tuning soll dieses Problem lösen, indem es KIs befähigt, ihre eigenen Fehler zu erkennen und zu korrigieren, bevor sie eine Antwort geben.

Wie funktioniert Reflection-Tuning?

Die KI analysiert ihre eigenen Ausgaben und lernt aus ihnen. Sie identifiziert Stärken, Schwächen und Bereiche, die verbessert werden können. Dieser Prozess wird wiederholt, wodurch die KI ihre Fähigkeiten kontinuierlich verbessert und sich ihrer eigenen Ausgaben bewusster wird.

OpenAI's Ansatz zur Halluzinationsbekämpfung

OpenAI, unterstützt von Microsoft, hat 2023 ein Forschungspapier veröffentlicht, das Ideen zur Verhinderung von KI-Halluzinationen vorstellt.

Eine Idee ist "Prozessüberwachung", bei der KI-Modelle dafür belohnt werden, jeden einzelnen, korrekten Schritt der Argumentation bei der Erarbeitung einer Antwort zu belohnen, anstatt nur eine korrekte Schlussfolgerung zu belohnen.

"Das Erkennen und Mildern logischer Fehler oder Halluzinationen eines Modells ist ein entscheidender Schritt auf dem Weg zur Entwicklung einer ausgerichteten AGI [künstlichen allgemeinen Intelligenz]", sagte Karl Cobbe, Forscher bei OpenAI, gegenüber CNBC.

Reflection 70B: Ein vielversprechender Ansatz

"Reflection 70B" könnte ein wichtiger Schritt in Richtung zuverlässigerer und genauerer KI-Modelle sein. Die Fähigkeit, aus Fehlern zu lernen, ist entscheidend für die Entwicklung von KI-Systemen, die den Menschen wirklich nützen können.

#Reflection70B #News #Haberler #Noticias #Nachrichten