OpenAI ogłosiło „bardziej ludzką” wersję ChatGPT.

OpenAI wprowadziło najnowszy model swojego chatbota, GPT-4o. Ta sieć neuronowa stała się „bardziej ludzka” i nauczyła się przetwarzać dane wizualne.

Narzędzie AI „szczególnie wyróżnia się zrozumieniem obrazu i dźwięku w porównaniu z istniejącymi modelami”. Zawiera takie funkcje, jak rozpoznawanie emocji i wykrywanie rytmu oddechu.

Chatbot posiada teraz także pełnoprawny tryb głosowy do interakcji głosowych.

Jak wynika z prezentacji, produkt może pomóc użytkownikom w różnych codziennych zadaniach, takich jak przygotowanie się do rozmów kwalifikacyjnych. OpenAI pokazało także, jak GPT-4o może zadzwonić do obsługi klienta i poprosić o wymianę iPhone'a.

Inne przykłady pokazały, że sieć neuronowa opowiada „żarty taty”, tłumaczy rozmowy między dwoma językami w czasie rzeczywistym, ocenia grę w „kamień, papier, nożyce” i odpowiada sarkazmem.

W jednym filmie pokazano reakcję ChatGPT na pierwsze spotkanie użytkownika ze szczeniakiem.

„Witaj, Bowser! Czyż nie jesteś najcudowniejszym stworzeniem?” – wykrzyknął chatbot.

OpenAI stwierdziło, że „o” w GPT-4o oznacza „omni”, co symbolizuje krok w kierunku bardziej naturalnej interakcji człowiek-komputer.

GPT-4o jest „znacznie szybszy i 50% tańszy” niż GPT-4 Turbo. Sieć neuronowa odpowiada na zapytania audio w 2,3 sekundy. Średni czas reakcji chatbota wynosi 3,2 sekundy, co jest porównywalne z czasem reakcji człowieka podczas normalnej rozmowy – podkreśliło OpenAI.