Гигант социальных сетей Meta Platforms анонсировал ряд продуктов на базе искусственного интеллекта, которые охватывают Ray-Bans, Llama и многое другое. Материнская компания Facebook и Instagram сделала это заявление на своем мероприятии Connect.

Гигант социальных сетей начал мероприятие Connect с предложения ряда продуктов на основе искусственного интеллекта для своего чат-бота и планирует начать внедрять персонализированные изображения, созданные ботом, в ленты пользователей Facebook или Instagram.

Meta также внедряет функции искусственного интеллекта для роликов, в том числе дубляж видео и синхронизацию губ, что позволяет пользователям создавать собственный контент на разных языках.

Мета демонстрирует Орион

Во время конференции Connect в Калифорнии гигант социальных сетей продемонстрировал первый рабочий прототип своих очков дополненной реальности под названием Orion вместе с другими существующими продуктами виртуальной реальности и искусственного интеллекта. Это стало изюминкой мероприятия.

По словам Меты, очки Orion сочетают в себе внешний вид и ощущения от обычных очков с захватывающими возможностями дополненной реальности.

«Это физический мир с наложенными на него голограммами», — сказал генеральный директор Meta Марк Цукерберг, вытащив массивные черные очки из металлического футляра.

По данным Reuters, очки Orion изготовлены из сплава и работают на основе специального кремния, разработанного компанией. С очками Orion, ранее имевшими кодовое название Project Nazare, пользователи могут взаимодействовать с помощью голосового управления руками и нейронного интерфейса на основе запястья.

По словам Цукерберга, который назвал их «dev kit», компания планирует сделать их меньше, изящнее и более дешевыми для потребителей позже. На данный момент компания предоставляет своим сотрудникам и избранной внешней аудитории доступ к очкам, чтобы позволить команде учиться и получать обратную связь.

Компания Meta также представила обновления для бизнес-ИИ, которые позволяют технологиям отвечать на распространенные вопросы клиентов, обсуждать продукты и завершать покупки, помогая компаниям взаимодействовать с большим количеством клиентов и увеличивать продажи.

Компания Meta только что анонсировала множество новых возможностей ИИ для Meta AI, Llama, Ray-Bans и других.

Вот все важные анонсы, сделанные в прямом эфире здесь, на Meta Connect:

1. Meta AI получит собственный голосовой режим! pic.twitter.com/AF52eif5Fr

— Роуэн Чунг (@rowancheung) 25 сентября 2024 г.

Meta представляет обновления программного обеспечения

В ходе мероприятия Meta также анонсировала ряд обновлений программного обеспечения для своего помощника AI, подогревая интерес к умным очкам Ray-Ban Meta. Благодаря этому обновлению пользователи теперь могут, например, сканировать QR-коды и транслировать музыку из Spotify в ответ на голосовые подсказки.

Цукерберг также продемонстрировал возможность перевода в реальном времени, что свидетельствует о планах компании добавить возможности видеосвязи и возможность выполнять переводы в реальном времени с английского на французский, итальянский или испанский языки.

«Мы начнем с небольших тестов в Instagram и Facebook, переведя некоторые видеоролики авторов из Латинской Америки и США на английский и испанский языки, и планируем расширить эту возможность, охватив большее количество авторов и языков», — сказал Мета.

Еще одним обновлением, анонсированным во время мероприятия Connect, стало аудиообновление его цифрового помощника Meta AI. По словам технологического гиганта, Meta AI теперь будет реагировать на голосовые команды и позволит пользователям звучать как знаменитости, такие как Джон Сина и Джуди Денч.

«Я думаю, что голос станет гораздо более естественным способом взаимодействия с ИИ, чем текст».

Цукерберг.

По данным компании, ежемесячно Meta AI используют более 400 миллионов человек по всему миру, а 185 миллионов пользователей возвращаются к нему еженедельно.

В соответствии со своей стратегией моделей с открытым исходным кодом, Meta дебютировала с тремя новыми версиями моделей Llama 3, две из которых являются многомодальными, что означает, что они могут понимать как изображения, так и тексты. Третья — это базовая текстовая модель, которая может работать полностью на устройстве пользователя.