Ответ Google OpenAI: анонсирован проект Astra

Шесть лет назад Google продемонстрировал демоверсию искусственного интеллекта под названием Duplex на мероприятии для разработчиков систем ввода-вывода и договорился о встрече с парикмахером. Спустя много лет Google недавно анонсировала Project Astra. В общей демонстрации Проект Астра может видеть все вокруг себя через камеру телефона и отвечать на ваши вопросы об этом.

Генеральный директор Google DeepMind Демис Хассабис заявил сегодня в своем выступлении, что его команда работает над разработкой универсальных агентов искусственного интеллекта, которые могут помочь в повседневной жизни. Проект Астра является шагом к этой цели.

В общей демонстрации мы видим, как человек, держащий телефон, берет камеру устройства и Project Astra в некоторые части офиса и задает вопросы. В показанном примере пользователь говорит вслух: «Скажите мне, когда увидите, что что-то издает звук», и ИИ на базе Gemini отвечает: «Я вижу, как динамик издает звук». Затем пользователь спрашивает ИИ, на что он указывает на динамике, и говорит: «Это твитер. Он издает высокочастотные звуки». получает ответ.

В своем заявлении Google подчеркивает, что это видео было снято одним кадром и в реальном времени. Позже в видео показано, как Близнецы идентифицируют и объясняют фрагменты кода на мониторе, сообщая пользователю, в каком районе они находятся, основываясь на виде из окна.

Самое впечатляющее — когда пользователь спрашивает: «Помнишь, где я видел свои очки?» Это происходит, когда вы задаете вопрос. В ролике у искусственного интеллекта ничего не спрашивали об очках, фактически в сцене, которую пользователь показывал на камеру телефона в тот момент, очков не было. Но, несмотря на это, Близнецы говорят: «Да, я помню. Твои очки рядом с красным яблоком».