Meta Platforms a ajouté de nouvelles fonctionnalités à ses lunettes Ray-Ban, y compris l'AI en direct en temps réel et Shazam, en plus des fonctionnalités déjà intégrées.

Cela survient alors que le géant des médias sociaux a constamment mis à jour les lunettes activées par AI pour améliorer les performances, y compris pour gérer des tâches plus complexes et répondre plus naturellement dans des mises à jour majeures qui devraient transformer les lunettes intelligentes.

Meta a apporté des mises à jour significatives aux Ray-Ban

Plus tôt cette année, Meta a révélé qu'il intégrait son modèle AI de prochaine génération, Llama 3, dans l'assistant virtuel – MetaAI dans ses lunettes intelligentes Ray-Ban pour améliorer les performances. Les fonctionnalités multimodales étaient en accès anticipé en décembre dernier et peuvent effectuer des traductions en plus d'identifier des objets, des animaux et des monuments.

Maintenant, Meta a apporté d'autres mises à jour majeures aux lunettes intelligentes pour améliorer encore leurs performances. Selon Cnet, l'assistance AI continue toujours activée a commencé à fonctionner sur les lunettes Ray-Ban lundi pour les propriétaires ayant accès aux fonctionnalités de Meta. Cela s'ajoute à la traduction intégrée et à Shazam qui est actuellement disponible uniquement aux États-Unis et au Canada.

Les dernières fonctionnalités ajoutées aux lunettes activées par AI incluent l'enregistrement audio et vidéo continu par opposition à des instructions individuelles spécifiques. Cela, selon Cnet, permet aux lunettes d'être utilisées pendant une période prolongée avec les fonctionnalités AI activées.

Chaque fois que l'AI en direct toujours activé est activé, la LED des lunettes reste également allumée. Meta conserve un enregistrement de la conversation qui peut être consulté tout au long de la session AI.

En termes de traduction, il est prévu qu'elle fonctionne automatiquement pendant que l'on parle. Cependant, bien que la traduction passe par les lunettes, elle est accompagnée d'un léger retard.

L'assistance AI en direct est apparemment similaire à ce que Google a démontré sur ses propres lunettes prototype ce mois-ci via Gemini et Android XR, arrivant l'année prochaine.

Selon Meta, comme cité par Cnet, l'AI toujours activé a un impact sur la durée de vie de la batterie, et les utilisateurs peuvent s'attendre à jusqu'à 30 minutes d'utilisation avant de recharger l'appareil.

Cependant, l'entreprise explique en outre que ce type d'AI assisté par caméra toujours activé est exactement ce que de plus en plus d'entreprises technologiques exploreront l'année prochaine.

Les lunettes AI atteignent leur plein potentiel en 2024

Les mises à jour surviennent alors que les grandes entreprises technologiques poussent les assistants AI comme raison d'être des lunettes intelligentes. La semaine dernière, Google a révélé Android XR pour de nouvelles lunettes intelligentes et a spécifiquement positionné son assistant AI Gemini comme l'application incontournable.

En attendant, Andrew Bosworth, CTO de Meta, a déclaré dans un article de blog que « 2024 était l'année où les lunettes AI atteindraient leur plein potentiel. »

Dans le même article de blog, Bosworth estime en outre que les lunettes intelligentes pourraient être le meilleur facteur de forme possible pour un « appareil véritablement natif AI. » Il a ajouté que les lunettes alimentées par AI pourraient être la première catégorie de matériel à être « complètement définie par AI dès le départ. »

Avec les lunettes intelligentes Ray-Ban de Meta, les utilisateurs peuvent activer l'assistant virtuel sur les lunettes en disant « Hey Meta », puis poser une question ou donner une instruction, avant que l'assistant ne puisse répondre via des haut-parleurs intégrés dans les montures.

Selon Meta, les utilisateurs peuvent diffuser en direct depuis les lunettes vers des plateformes de médias sociaux comme Facebook et Instagram, en utilisant « Hey Meta » pour interagir avec l'« assistant conversationnel avancé » de l'entreprise, MetaAI.

Les lunettes Ray-Ban disposent d'un audio amélioré et de caméras, en plus de plus de 150 combinaisons personnalisées de montures et de lentilles, « et elles sont plus légères et confortables. »

De Zéro à Web3 Pro : Votre plan de lancement de carrière de 90 jours