OpenAI uruchamia ChatGPT-4:

Potrafi jednocześnie analizować tekst i obrazy, obsługując nowy Bing firmy Microsoft

We wtorek, 14 marca czasu wschodniego, OpenAI ogłosiło

Wprowadzono na rynek duży multimodalny model GPT-4,

Mówi się, że może odbierać obraz i tekst wejściowy oraz tekst wyjściowy,

„Bardziej kreatywni i współpracujący niż kiedykolwiek wcześniej”,

oraz „ze względu na szerszy zdrowy rozsądek i zdolność rozwiązywania problemów,

Zagadki można rozwiązać dokładniej.

„OpenAI stwierdziło, że GPT-4 może analizować tekst i obrazy w tym samym czasie,

Dzięki temu może interpretować bardziej złożoną treść wejściową.

OpenAI stwierdziło, że współpracowało z wieloma firmami,

Aby włączyć GPT-4 do swoich produktów,

W tym Duolingo, Stripe i Khan Academy.