Meta ajoute des mises à niveau majeures à ses lunettes Ray-Ban
Meta Platforms a introduit des mises à niveau significatives pour ses lunettes intelligentes Ray-Ban, améliorant leurs capacités d'IA avec des fonctionnalités en temps réel comme l'assistance AI en direct, l'intégration de Shazam, et l'enregistrement audio-visuel continu.
Ces mises à jour s'appuient sur des améliorations antérieures conçues pour gérer des tâches plus complexes et fournir des interactions naturelles et réactives.
Les lunettes intelligentes Ray-Ban de Meta viennent de recevoir une mise à niveau majeure. Maintenant dotées de capacités d'IA en temps réel, ces lunettes élégantes peuvent traduire la langue parlée sur le vif et fournir des informations contextuelles sur votre environnement.
Imaginez voyager et communiquer sans effort dans n'importe quelle langue—comment… pic.twitter.com/hVTHP1cHzy
— Audax Flux (@AudaxFlux) 16 décembre 2024
Plus tôt cette année, Meta a annoncé des plans pour intégrer son modèle d'IA de nouvelle génération, Llama 3, dans MetaAI pour les lunettes intelligentes, permettant des fonctions avancées telles que la reconnaissance d'objets, d'animaux et de lieux, en plus de la traduction en temps réel.
Les dernières améliorations comprennent une assistance IA toujours active, qui a commencé à être déployée auprès des utilisateurs aux États-Unis et au Canada lundi.
Contrairement aux versions précédentes qui nécessitaient des invites spécifiques, les nouvelles fonctionnalités d'IA continues permettent une fonctionnalité sans couture, bien que le LED du système reste actif lorsque l'IA en direct est activée.
Cette mise à niveau améliore l'utilisabilité mais a un coût sur la durée de vie de la batterie, offrant jusqu'à 30 minutes de fonctionnement avant qu'un rechargement soit nécessaire.
De plus, les traductions en temps réel, bien que fonctionnelles, viennent avec un léger retard.
Responsable produit pour les lunettes Meta Ray-Ban, David Woodland, a partagé plus de détails sur X (anciennement connu sous le nom de Twitter).
Aujourd'hui, nous commençons le déploiement de l'une des plus grandes mises à jour de l'année pour les lunettes Meta Ray-Ban. Voici quelques-unes de mes fonctionnalités préférées dans cette mise à jour :
1) "Hey Meta, démarre l'IA en direct." Vous pouvez maintenant avoir une conversation avec l'IA qui diffuse vidéo de ce que vous voyez dans le contexte de… pic.twitter.com/fvh6K763vA
— David Woodland (@DavidSven) 16 décembre 2024
Ces avancées alignent Meta avec les tendances croissantes dans les lunettes intelligentes, parallèles à la récente démonstration de Google de ses lunettes prototypes propulsées par l'IA Gemini et Android XR.
Comme le souligne Meta, l'IA assistée par caméra continue devrait être un axe clé pour les entreprises technologiques à l'avenir, signalant la transformation potentielle de la technologie portable en une partie intégrante de la vie quotidienne.
Les lunettes AI seront-elles l'avenir des lunettes ?
Les grandes entreprises technologiques positionnent de plus en plus les assistants IA comme la pierre angulaire des lunettes intelligentes.
La semaine dernière, Google a présenté Android XR, mettant en avant son assistant AI Gemini comme la caractéristique clé pour les lunettes intelligentes de nouvelle génération.
Présentation d'Android XR, notre nouvelle plateforme pour casques et lunettes conçus pour l'ère Gemini pic.twitter.com/CBLaFGUwez
— Google (@Google) 12 décembre 2024
Pendant ce temps, le CTO de Meta, Andrew Bosworth, a décrit 2024 comme "l'année où les lunettes AI atteignent leur apogée," suggérant dans un récent article de blog que les lunettes intelligentes pourraient être le facteur de forme idéal pour un "dispositif vraiment natif de l'IA."
Il a en outre noté que les lunettes alimentées par l'IA pourraient être la première catégorie de matériel entièrement définie par l'IA dès le départ, et que les lunettes intelligentes remplaceront les téléviseurs dans des années.
Le CTO de Meta, Andrew Bosworth, déclare que les lunettes intelligentes remplaceront les téléviseurs dans des années, pas des décennies, et apprendre à utiliser des interfaces neurales basées sur le poignet permettra de contrôler les appareils par la pensée pic.twitter.com/sswPRRrKkl
— Tsarathustra (@tsarnick) 3 octobre 2024
Les lunettes intelligentes Ray-Ban de Meta illustrent cette vision, permettant aux utilisateurs d'activer l'assistant virtuel MetaAI avec une simple commande vocale "Hey Meta" pour poser des questions ou donner des instructions.
Les réponses sont délivrées par des haut-parleurs intégrés dans les montures, permettant des interactions sans faille.
Les lunettes prennent également en charge la diffusion en direct directement sur Facebook et Instagram, intégrant des capacités améliorées par l'IA avec l'engagement sur les réseaux sociaux.
Avec un son amélioré, des caméras mises à niveau, et plus de 150 combinaisons de montures et de lentilles personnalisables, les lunettes intelligentes Ray-Ban sont plus légères, plus confortables et conçues pour allier style et fonctionnalités avancées d'IA.