A Meta Platforms adicionou novos recursos aos seus óculos Ray-Ban, incluindo IA ao vivo em tempo real e Shazam, além dos recursos já integrados.
Isso ocorre à medida que o gigante das redes sociais tem atualizado constantemente os óculos habilitados para IA para melhorar o desempenho, incluindo para lidar com tarefas mais complexas e responder de forma mais natural em grandes atualizações que devem transformar os óculos inteligentes.
A Meta fez atualizações significativas nos Ray-Ban
No início deste ano, a Meta revelou que estava integrando seu modelo de IA de próxima geração Llama 3 no assistente virtual – MetaAI em seus óculos inteligentes Ray-Ban para melhorar o desempenho. Os recursos multimodais estavam em acesso antecipado no último dezembro e podem realizar traduções, além de identificar objetos, animais e monumentos.
Agora, a Meta trouxe outras grandes atualizações para os óculos inteligentes para aumentar ainda mais seu desempenho. De acordo com a Cnet, a assistência contínua de IA sempre ligada começou a funcionar nos óculos Ray-Ban na segunda-feira para os proprietários que têm acesso aos recursos da Meta. Isso é além da tradução onboard e Shazam, que atualmente está disponível somente nos EUA e no Canadá.
Os últimos recursos adicionados aos óculos habilitados para IA incluem gravação contínua de áudio e vídeo em vez de solicitações individuais específicas. Isso, de acordo com a Cnet, permite que os óculos sejam usados por um período prolongado com os recursos de IA ativados.
Sempre que a IA ao vivo sempre ligada é ativada, o LED dos óculos também permanece ligado. A Meta mantém um registro da conversa que pode ser consultado durante toda a sessão de IA.
Em termos de tradução, espera-se que funcione automaticamente enquanto se fala. No entanto, embora a tradução venha através dos óculos, ela tem um leve atraso.
A assistência de IA ao vivo é supostamente semelhante ao que o Google demonstrou em seus próprios óculos protótipos neste mês através do Gemini e Android XR, que chegarão no próximo ano.
De acordo com a Meta, conforme citado pela Cnet, a IA sempre ligada impacta a vida útil da bateria, e os usuários podem esperar até 30 minutos de uso antes de recarregar o dispositivo.
No entanto, a empresa explica ainda que esse tipo de IA assistida por câmera sempre ligada é exatamente o que mais empresas de tecnologia estarão explorando no próximo ano.
Os óculos de IA encontrarão seu ritmo em 2024
As atualizações ocorrem à medida que as grandes empresas de tecnologia estão promovendo assistentes de IA como a razão de ser dos óculos inteligentes. Na semana passada, o Google revelou o Android XR para novos óculos inteligentes e posicionou especificamente seu assistente de IA Gemini como o aplicativo matador.
Enquanto isso, Andrew Bosworth, CTO da Meta, disse em uma postagem de blog que “2024 será o ano em que os óculos de IA encontrarão seu ritmo.”
Na mesma postagem do blog, Bosworth opina ainda que os óculos inteligentes podem ser a melhor forma possível para um “dispositivo verdadeiramente nativo de IA.” Ele acrescentou que os óculos com tecnologia de IA poderiam ser a primeira categoria de hardware a ser “completamente definida por IA desde o início.”
Com os óculos inteligentes Ray-Ban da Meta, os usuários podem ativar o assistente virtual nos óculos dizendo “Hey Meta” e, em seguida, fazer uma pergunta ou solicitação, antes que o assistente possa responder através dos alto-falantes embutidos nas armações.
De acordo com a Meta, os usuários podem transmitir ao vivo dos óculos para plataformas de mídia social como Facebook e Instagram, usando “Hey Meta” para interagir com o “assistente conversacional avançado” MetaAI da empresa.
Os óculos Ray-Ban apresentam áudio e câmeras aprimorados, além de mais de 150 combinações diferentes de armações e lentes personalizadas, “e são mais leves e confortáveis.”
De Zero a Web3 Pro: Seu Plano de Lançamento de Carreira em 90 Dias