OpenAI kündigt neues KI-Modell von ChatGPT an

OpenAI, der Entwickler des Chatroboters ChatGPT mit künstlicher Intelligenz, stellte sein neues Modell „GPT-4o“ vor, das Echtzeitlogik über Sprache, Bild und Text ausführen kann. Es wurde betont, dass das neue Modell insbesondere beim Verstehen von Bildern und Tönen besser sei.

In der Erklärung von OpenAI wurde erklärt, dass GPT-4o ein Schritt in Richtung einer natürlicheren Mensch-Computer-Interaktion sei und dass das Modell Ausgaben aus Eingaben erzeuge, die aus einer beliebigen Kombination von Text, Ton und Bild bestehen.

In der Erklärung wurde darauf hingewiesen, dass die Reaktionszeit des Modells auf Spracheingaben der menschlichen Reaktionszeit in jedem Gespräch ähnlich sei, und es wurde betont, dass GPT-4o insbesondere beim Verstehen von Bildern und Tönen im Vergleich zu bestehenden Modellen besser sei.

Es wurde erklärt, dass ein einzelnes neues Modell mit GPT-4o End-to-End über Text, Bild und Audio hinweg trainiert wurde und dass das neue Modell das erste Modell sei, bei dem alle Eingaben und Ausgaben vom selben neuronalen Netzwerk verarbeitet werden.

Es wurde auch berichtet, dass eine neue ChatGPT-Desktopanwendung für das Mac-Betriebssystem, die für die Integration in Computervorgänge entwickelt wurde, sowohl für kostenlose als auch für kostenpflichtige Benutzer verfügbar ist.

Andererseits wurde bei der heutigen Werbeveranstaltung von #OpenAI darauf hingewiesen, dass das Modell kostenlos angeboten wird, da es kostengünstiger als frühere Modelle ist und kostenpflichtige GPT-4o-Benutzer über mehr Kapazität verfügen.

Es wurde angegeben, dass das neue Modell in einigen Wochen auf ChatGPT verfügbar sein wird.