Odaily Planet Daily News OpenAI випустив свою останню флагманську модель GPT-4o, яка може виводити аудіо, зображення та текст у режимі реального часу. Відповідно до інформації, пов’язаної з офіційним веб-сайтом OpenAI та офіційним обліковим записом Generate будь-яку комбінацію тексту, аудіо та зображення. Він може реагувати на вхідний аудіо за 232 мілісекунди, в середньому за 320 мілісекунд, що відповідає часу реакції людини під час розмови. Він працює нарівні з GPT-4 Turbo в англійській мові та коді, зі значними покращеннями в неангломовному тексті, а також має швидший і на 50% дешевший API. Порівняно з існуючими моделями, GPT-4o особливо добре сприймає візуальне та звукове сприйняття. Введення тексту та зображень поширюється в API та ChatGPT сьогодні, а введення голосу та відео – найближчими тижнями.
Переглянути оригінал
OpenAI випускає свою останню флагманську модель GPT4o, ChatGPT виходить на новий етап взаємодії людини з комп’ютером
![](https://public.bnbstatic.com/image/pgc/202211/a485daf7f97e8cc6693e45beb9b09d32.jpg)
--・560 views
Відмова від відповідальності: контент містить думки третіх сторін. І не є фінансовою порадою. Він може містити спонсорований контент. Перегляньте Правила та умови.
0
Відповіді 1