OpenAI uruchamia ChatGPT-4:
Potrafi jednocześnie analizować tekst i obrazy, obsługując nowy Bing firmy Microsoft
We wtorek, 14 marca czasu wschodniego, OpenAI ogłosiło
Wprowadzono na rynek duży multimodalny model GPT-4,
Mówi się, że może odbierać obraz i tekst wejściowy oraz tekst wyjściowy,
„Bardziej kreatywni i współpracujący niż kiedykolwiek wcześniej”,
oraz „ze względu na szerszy zdrowy rozsądek i zdolność rozwiązywania problemów,
Zagadki można rozwiązać dokładniej.
„OpenAI stwierdziło, że GPT-4 może analizować tekst i obrazy w tym samym czasie,
Dzięki temu może interpretować bardziej złożoną treść wejściową.
OpenAI stwierdziło, że współpracowało z wieloma firmami,
Aby włączyć GPT-4 do swoich produktów,
W tym Duolingo, Stripe i Khan Academy.