Meta 为其 Ray-Ban 眼镜增加了重大升级

Meta Platforms 对其 Ray-Ban 智能眼镜进行了重大升级,增强了其人工智能能力,新增实时功能,如实时 AI 助手、Shazam 集成和连续音视频录制。

这些更新建立在早期改进的基础上,旨在处理更复杂的任务,并提供自然、响应灵敏的互动。

Meta 的 Ray-Ban 智能眼镜刚刚进行了重大升级。现在,这些时尚的眼镜具备实时人工智能能力,可以即时翻译口语并提供有关您周围环境的上下文信息。

想象一下旅行时,轻松地用任何语言进行交流——怎么… pic.twitter.com/hVTHP1cHzy

— Audax Flux (@AudaxFlux) 2024 年 12 月 16 日

今年早些时候,Meta 宣布计划将其下一代人工智能模型 Llama 3 集成到智能眼镜的 MetaAI 中,从而启用物体、动物和地标识别等高级功能,以及实时翻译。

最新的增强功能包括始终在线的人工智能助手,该功能于周一开始向美国和加拿大的用户推出。

与之前版本需要特定提示不同,新连续人工智能功能允许无缝功能,尽管系统的 LED 在实时人工智能开启时保持激活。

此升级提高了可用性,但以电池寿命为代价,在需要充电之前提供最长 30 分钟的操作。

此外,实时翻译虽然功能正常,但会有轻微的延迟。

Ray-Ban Meta 眼镜的产品负责人大卫·伍德兰在 X(前身为推特)上分享了更多细节。

今天我们开始推出年度最大更新之一,针对 Ray-Ban Meta 眼镜。以下是我在此更新中的一些最爱:

1) "嘿 Meta,启动实时人工智能。" 现在您可以与人工智能对话,实时传输您所见的内容到上下文中… pic.twitter.com/fvh6K763vA

— 大卫·伍德兰 (@DavidSven) 2024 年 12 月 16 日

这些进展使 Meta 与智能眼镜日益增长的趋势保持一致,类似于谷歌最近展示的由 Gemini AI 和 Android XR 驱动的原型眼镜。

正如 Meta 强调的那样,持续的相机辅助人工智能预计将成为科技公司未来的关键焦点,标志着可穿戴技术潜在的转变,成为日常生活的重要组成部分。

人工智能眼镜会成为眼镜的未来吗?

大型科技公司越来越多地将人工智能助手定位为智能眼镜的基石。

上周,谷歌推出了 Android XR,强调其 Gemini AI 助手作为下一代智能眼镜的关键功能。

推出 Android XR,我们为双子星时代构建的新平台,适用于头戴设备和眼镜 pic.twitter.com/CBLaFGUwez

— 谷歌 (@Google) 2024 年 12 月 12 日

与此同时,Meta 首席技术官安德鲁·博斯沃斯将 2024 年描述为“人工智能眼镜迎来发展的年份”,在最近的博客中暗示智能眼镜可能是“真正的人工智能原生设备”的理想形态。

他进一步指出,人工智能驱动的眼镜可能是第一个完全由人工智能定义的硬件类别,且智能眼镜将在数年内取代电视。

Meta 首席技术官安德鲁·博斯沃斯表示,智能眼镜将在未来几年内取代电视,而学习使用基于手腕的神经接口将使设备能够通过思维控制 pic.twitter.com/sswPRRrKkl

— Tsarathustra (@tsarnick) 2024 年 10 月 3 日

Meta 的 Ray-Ban 智能眼镜体现了这一愿景,允许用户通过简单的 "嘿 Meta" 语音命令激活 MetaAI 虚拟助手,以提问或发出指令。

响应通过框架内置扬声器传递,实现无缝互动。

这些眼镜还支持直接向 Facebook 和 Instagram 直播,将增强人工智能的能力与社交媒体互动结合起来。

凭借改进的音频、升级的摄像头和超过 150 种可定制的框架和镜片组合,Ray-Ban 智能眼镜更轻、更舒适,旨在将风格与先进的人工智能功能结合起来。