OpenAI hat eine „menschenähnlichere“ Version von ChatGPT angekündigt.
OpenAI hat das neueste Modell seines Chatbots GPT-4o vorgestellt. Dieses neuronale Netzwerk ist „menschenähnlicher“ geworden und hat gelernt, visuelle Daten zu verarbeiten.
Das KI-Tool „zeichnet sich im Vergleich zu bestehenden Modellen besonders durch das Verstehen von Video und Audio aus.“ Es umfasst Funktionen wie Emotionserkennung und Atemrhythmuserkennung.
Der Chatbot verfügt jetzt auch über einen vollwertigen Sprachmodus für Sprachinteraktionen.
Laut der Präsentation kann das Produkt Benutzer bei verschiedenen Alltagsaufgaben unterstützen, beispielsweise bei der Vorbereitung auf Vorstellungsgespräche. OpenAI demonstrierte auch, wie GPT-4o den Kundendienst anrufen kann, um einen iPhone-Ersatz anzufordern.
Andere Beispiele zeigten, wie das neuronale Netzwerk „Papa-Witze“ erzählte, Gespräche zwischen zwei Sprachen in Echtzeit übersetzte, ein Spiel „Schere-Stein-Papier“ beurteilte und mit Sarkasmus antwortete.
In einem Video wurde gezeigt, wie ChatGPT auf die erste Begegnung eines Benutzers mit einem Welpen reagierte.
„Hallo, Bowser! Bist du nicht das bezauberndste Wesen?“, rief der Chatbot.
OpenAI erklärte, dass das „o“ in GPT-4o für „omni“ steht und einen Schritt hin zu einer natürlicheren Mensch-Computer-Interaktion symbolisiert.
GPT-4o ist „viel schneller und 50 % günstiger“ als GPT-4 Turbo. Das neuronale Netzwerk antwortet auf Audioanfragen in 2,3 Sekunden. Die durchschnittliche Antwortzeit des Chatbots beträgt 3,2 Sekunden, was mit der menschlichen Reaktionszeit in einem normalen Gespräch vergleichbar ist, betonte OpenAI.