Es gibt schon wieder einen neuen Chatbot mit künstlicher Intelligenz auf dem bereits überfüllten Markt, aber dieser kann anscheinend das, was die meisten nicht können – aus seinen Fehlern lernen.
In einem Beitrag vom 5. September auf X kündigte Matt Shumer, CEO von HyperWrite AI, die Entwicklung von „Reflection 70B“ an und behauptete, es sei „das weltweit beste Open-Source-Modell“.
Er fügte hinzu, dass die neue KI mit „Reflection-Tuning“ trainiert wurde, einer Technik, die entwickelt wurde, um LLMs zu ermöglichen, ihre eigenen Fehler zu beheben.
Reflection Llama-3.1 70B könne in mehreren Benchmarks sogar mit den besten Closed-Source-Modellen wie Claude 3.5 Sonnet von Anthropics und GPT-4o von OpenAI „mithalten“, behauptete er. Llama 3.1 ist die Open-Source-KI von Meta, die im Juli eingeführt wurde.
Er sagte, dass aktuelle KI-Modelle oft halluzinieren, aber Reflection-Tuning ermöglicht es ihnen, ihre Fehler zu erkennen und zu korrigieren, bevor sie sich auf eine Antwort festlegen.
„Derzeitige LLMs neigen zu Halluzinationen und können dies nicht erkennen.“
Eine KI-Halluzination ist ein Phänomen, bei dem ein generativer KI-Chatbot Muster oder Objekte wahrnimmt, die für menschliche Beobachter nicht vorhanden oder nicht wahrnehmbar sind, und dadurch ungenaue Ergebnisse erzeugt.
Beispiel für Reflexionsabstimmung. Quelle: Matt Shumer
Reflexionstuning ist eine Technik zur Verbesserung von KI-Modellen, indem diese ihre eigenen Ausgaben analysieren und daraus lernen.
Die Antworten der KI können an die KI zurückgesendet werden, wo sie aufgefordert werden kann, ihre eigenen Antworten zu bewerten und beispielsweise Stärken, Schwächen und Verbesserungsbereiche zu identifizieren.
Der Vorgang wird viele Male wiederholt, wodurch die KI ihre Fähigkeiten kontinuierlich verfeinern kann. Ziel ist es, sich ihrer Ergebnisse stärker bewusst zu werden und die eigene Leistung besser beurteilen und verbessern zu können.
Shumer fügte hinzu, dass es „mit der richtigen Anleitung für viele Anwendungsfälle ein absolutes Biest ist“ und stellte einen Demo-Link für das neue Modell zur Verfügung.
Das von Microsoft unterstützte OpenAI veröffentlichte 2023 ein Forschungspapier mit Ideen zur Vorbeugung von KI-Halluzinationen.
Eine Idee war die „Prozessüberwachung“, bei der KI-Modelle so trainiert werden, dass sie sich selbst für jeden einzelnen, richtigen Denkschritt belohnen, wenn sie zu einer Antwort gelangen, und nicht nur eine richtige Schlussfolgerung.
„Das Erkennen und Abschwächen logischer Fehler oder Halluzinationen eines Modells ist ein entscheidender Schritt zum Aufbau einer abgestimmten AGI [künstlichen allgemeinen Intelligenz]“, sagte Karl Cobbe, ein Forscher bei OpenAI, damals gegenüber CNBC.
Magazin: Plan für eine „Höllenlandschaft“ mit KI-Drohnen für Taiwan, LLMs zu dumm, um die Menschheit zu vernichten: AI Eye