Meta agrega mejoras importantes a sus gafas Ray-Ban

Meta Platforms ha introducido mejoras significativas a sus gafas inteligentes Ray-Ban, mejorando sus capacidades de IA con funciones en tiempo real como asistencia de IA en vivo, integración de Shazam y grabación continua de audio y video.

Estas actualizaciones se basan en mejoras anteriores diseñadas para manejar tareas más complejas y proporcionar interacciones naturales y receptivas.

Las gafas inteligentes Ray-Ban de Meta acaban de recibir una actualización importante. Ahora con capacidades de IA en tiempo real, estas elegantes gafas pueden traducir el lenguaje hablado al instante y proporcionar información contextual sobre tu entorno.

Imagina viajar y comunicarte sin esfuerzo en cualquier idioma—cómo… pic.twitter.com/hVTHP1cHzy

— Audax Flux (@AudaxFlux) 16 de diciembre de 2024

A principios de este año, Meta anunció planes para integrar su modelo de IA de próxima generación, Llama 3, en MetaAI para las gafas inteligentes, habilitando funciones avanzadas como reconocimiento de objetos, animales y lugares, junto con traducción en tiempo real.

Las últimas mejoras incluyen asistencia de IA siempre activa, que comenzó a implementarse para los usuarios en EE. UU. y Canadá el lunes.

A diferencia de versiones anteriores que requerían indicaciones específicas, las nuevas funciones continuas de IA permiten una funcionalidad fluida, aunque el LED del sistema permanece activo cuando la IA en vivo está encendida.

Esta actualización mejora la usabilidad, pero tiene un costo en la duración de la batería, ofreciendo hasta 30 minutos de operación antes de que sea necesario recargar.

Además, las traducciones en tiempo real, aunque funcionales, vienen con un ligero retraso.

Líder de producto para las gafas Meta Ray-Ban, David Woodland, compartió más detalles en X (anteriormente conocido como Twitter).

Hoy comenzamos el despliegue de una de las actualizaciones más grandes del año para las gafas Meta Ray-Ban. Aquí hay algunas de mis cosas favoritas en esta actualización:

1) "Hey Meta, comienza Live AI." Ahora puedes tener una conversación con IA que transmite video de lo que ves en el contexto de… pic.twitter.com/fvh6K763vA

— David Woodland (@DavidSven) 16 de diciembre de 2024

Estos avances alinean a Meta con las tendencias crecientes en gafas inteligentes, paralelamente a la reciente demostración de Google de sus gafas prototipo impulsadas por IA Gemini y Android XR.

Como enfatiza Meta, se espera que la IA asistida por cámara continua sea un enfoque clave para las empresas tecnológicas en el futuro, señalando la transformación potencial de la tecnología portátil en una parte integral de la vida cotidiana.

¿Serán las gafas de IA el futuro de la óptica?

Las grandes empresas tecnológicas están posicionando cada vez más a los asistentes de IA como la piedra angular de las gafas inteligentes.

La semana pasada, Google presentó Android XR, destacando su asistente de IA Gemini como la característica clave para la próxima generación de gafas inteligentes.

Presentando Android XR, nuestra nueva plataforma para auriculares y gafas construidas para la era Gemini pic.twitter.com/CBLaFGUwez

— Google (@Google) 12 de diciembre de 2024

Mientras tanto, el CTO de Meta, Andrew Bosworth, describió 2024 como "el año en que las gafas de IA alcanzan su apogeo," sugiriendo en una reciente publicación de blog que las gafas inteligentes pueden ser el factor de forma ideal para un "dispositivo verdaderamente nativo de IA.”

Además, señaló que las gafas impulsadas por IA podrían ser la primera categoría de hardware completamente definida por IA desde su inicio, y que las gafas inteligentes reemplazarán a los televisores en años.

El CTO de Meta, Andrew Bosworth, dice que las gafas inteligentes reemplazarán a los televisores en años, no en décadas, y aprender a usar interfaces neurales basadas en la muñeca permitirá controlar los dispositivos con la mente pic.twitter.com/sswPRRrKkl

— Tsarathustra (@tsarnick) 3 de octubre de 2024

Las gafas inteligentes Ray-Ban de Meta ejemplifican esta visión, permitiendo a los usuarios activar al asistente virtual MetaAI con un simple comando de voz "Hey Meta" para hacer preguntas o emitir instrucciones.

Las respuestas se entregan a través de altavoces incorporados en los marcos, lo que permite interacciones sin interrupciones.

Las gafas también admiten la transmisión en vivo directamente a Facebook e Instagram, integrando capacidades mejoradas por IA con el compromiso en redes sociales.

Con audio mejorado, cámaras actualizadas y más de 150 combinaciones personalizables de marcos y lentes, las gafas inteligentes Ray-Ban son más ligeras, cómodas y diseñadas para fusionar estilo con funcionalidad avanzada de IA.