Binance Square
LIVE
LIVE
CrypticNews Hub
--7.9k views
Original ansehen
OpenAI hat eine „menschenähnlichere“ Version von ChatGPT angekündigt. OpenAI hat das neueste Modell seines Chatbots GPT-4o vorgestellt. Dieses neuronale Netzwerk ist „menschenähnlicher“ geworden und hat gelernt, visuelle Daten zu verarbeiten. Das KI-Tool „zeichnet sich im Vergleich zu bestehenden Modellen besonders durch das Verstehen von Video und Audio aus.“ Es umfasst Funktionen wie Emotionserkennung und Atemrhythmuserkennung. Der Chatbot verfügt jetzt auch über einen vollwertigen Sprachmodus für Sprachinteraktionen. Laut der Präsentation kann das Produkt Benutzer bei verschiedenen Alltagsaufgaben unterstützen, beispielsweise bei der Vorbereitung auf Vorstellungsgespräche. OpenAI demonstrierte auch, wie GPT-4o den Kundendienst anrufen kann, um einen iPhone-Ersatz anzufordern. Andere Beispiele zeigten, wie das neuronale Netzwerk „Papa-Witze“ erzählte, Gespräche zwischen zwei Sprachen in Echtzeit übersetzte, ein Spiel „Schere-Stein-Papier“ beurteilte und mit Sarkasmus antwortete. In einem Video wurde gezeigt, wie ChatGPT auf die erste Begegnung eines Benutzers mit einem Welpen reagierte. „Hallo, Bowser! Bist du nicht das bezauberndste Wesen?“, rief der Chatbot. OpenAI erklärte, dass das „o“ in GPT-4o für „omni“ steht und einen Schritt hin zu einer natürlicheren Mensch-Computer-Interaktion symbolisiert. GPT-4o ist „viel schneller und 50 % günstiger“ als GPT-4 Turbo. Das neuronale Netzwerk antwortet auf Audioanfragen in 2,3 Sekunden. Die durchschnittliche Antwortzeit des Chatbots beträgt 3,2 Sekunden, was mit der menschlichen Reaktionszeit in einem normalen Gespräch vergleichbar ist, betonte OpenAI.

OpenAI hat eine „menschenähnlichere“ Version von ChatGPT angekündigt.

OpenAI hat das neueste Modell seines Chatbots GPT-4o vorgestellt. Dieses neuronale Netzwerk ist „menschenähnlicher“ geworden und hat gelernt, visuelle Daten zu verarbeiten.

Das KI-Tool „zeichnet sich im Vergleich zu bestehenden Modellen besonders durch das Verstehen von Video und Audio aus.“ Es umfasst Funktionen wie Emotionserkennung und Atemrhythmuserkennung.

Der Chatbot verfügt jetzt auch über einen vollwertigen Sprachmodus für Sprachinteraktionen.

Laut der Präsentation kann das Produkt Benutzer bei verschiedenen Alltagsaufgaben unterstützen, beispielsweise bei der Vorbereitung auf Vorstellungsgespräche. OpenAI demonstrierte auch, wie GPT-4o den Kundendienst anrufen kann, um einen iPhone-Ersatz anzufordern.

Andere Beispiele zeigten, wie das neuronale Netzwerk „Papa-Witze“ erzählte, Gespräche zwischen zwei Sprachen in Echtzeit übersetzte, ein Spiel „Schere-Stein-Papier“ beurteilte und mit Sarkasmus antwortete.

In einem Video wurde gezeigt, wie ChatGPT auf die erste Begegnung eines Benutzers mit einem Welpen reagierte.

„Hallo, Bowser! Bist du nicht das bezauberndste Wesen?“, rief der Chatbot.

OpenAI erklärte, dass das „o“ in GPT-4o für „omni“ steht und einen Schritt hin zu einer natürlicheren Mensch-Computer-Interaktion symbolisiert.

GPT-4o ist „viel schneller und 50 % günstiger“ als GPT-4 Turbo. Das neuronale Netzwerk antwortet auf Audioanfragen in 2,3 Sekunden. Die durchschnittliche Antwortzeit des Chatbots beträgt 3,2 Sekunden, was mit der menschlichen Reaktionszeit in einem normalen Gespräch vergleichbar ist, betonte OpenAI.

Haftungsausschluss: Enthält Meinungen Dritter. Die hier bereitgestellten Informationen stellen keine Finanzberatung dar. Kann gesponserte Inhalte enthalten. Siehe AGB.
0
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern
👍 Entdecke für dich interessante Inhalte
E-Mail-Adresse/Telefonnummer
Relevanter Ersteller
LIVE
@CrypticNewsHub

Weitere Inhalte des Erstellers entdecken

--

Aktuelle Nachrichten

Mehr anzeigen
Sitemap
Cookie Preferences
Nutzungsbedingungen der Plattform