Odaily Planet Daily News OpenAI выпустила свою последнюю флагманскую модель GPT-4o, которая может выводить звук, изображение и текст в режиме реального времени. Основная концепция — это антропоморфный, сверхъестественный персональный голосовой интерактивный помощник со сверхмалой задержкой. Согласно информации, относящейся к официальному сайту OpenAI и официальному аккаунту OpenAI. Генерация любой комбинации вывода текста, звука и изображения. Он может реагировать на аудиовход за 232 миллисекунды, в среднем 320 миллисекунд, что соответствует времени реакции человека во время разговора. Он работает на одном уровне с GPT-4 Turbo на английском языке и коде, со значительными улучшениями для текста на неанглоязычных языках, а также имеет более быстрый и на 50 % более дешевый API. GPT-4o особенно хорошо справляется с визуальным и звуковым восприятием по сравнению с существующими моделями. Ввод текста и изображений уже сегодня доступен в API и ChatGPT, а ввод голоса и видео появится в ближайшие недели.
См. оригинал
OpenAI выпускает свою последнюю флагманскую модель GPT4o, ChatGPT выходит на новый этап взаимодействия человека и компьютера
![](https://public.bnbstatic.com/image/pgc/202211/a485daf7f97e8cc6693e45beb9b09d32.jpg)
--・593 views
Отказ от ответственности: на платформе опубликованы материалы и мнения третьих лиц. Не является финансовой рекомендацией. Может содержать спонсируемый контент. См. Правила и условия.
0
Ответов: 1