Meta aggiunge importanti aggiornamenti ai suoi occhiali Ray-Ban

Meta Platforms ha introdotto aggiornamenti significativi ai suoi occhiali intelligenti Ray-Ban, migliorando le loro capacità AI con funzionalità in tempo reale come assistenza AI dal vivo, integrazione di Shazam e registrazione audio-visiva continua.

Questi aggiornamenti si basano su miglioramenti precedenti progettati per gestire compiti più complessi e fornire interazioni naturali e reattive.

Gli occhiali intelligenti Ray-Ban di Meta hanno appena ricevuto un grande aggiornamento. Ora dotati di capacità AI in tempo reale, questi occhiali eleganti possono tradurre il linguaggio parlato al volo e fornire informazioni contestuali sui tuoi dintorni.

Immagina di viaggiare e comunicare senza sforzo in qualsiasi lingua—come… pic.twitter.com/hVTHP1cHzy

— Audax Flux (@AudaxFlux) 16 dicembre 2024

All'inizio di quest'anno, Meta ha annunciato piani per integrare il suo modello AI di nuova generazione, Llama 3, in MetaAI per gli occhiali intelligenti, abilitando funzioni avanzate come il riconoscimento di oggetti, animali e punti di riferimento, insieme alla traduzione in tempo reale.

I recenti miglioramenti includono assistenza AI sempre attiva, che ha iniziato a essere distribuita agli utenti negli Stati Uniti e in Canada lunedì.

A differenza delle versioni precedenti che richiedevano comandi specifici, le nuove funzionalità AI continue consentono una funzionalità senza interruzioni, sebbene il LED del sistema rimanga attivo quando l'AI dal vivo è accesa.

Questo aggiornamento migliora l'usabilità ma ha un costo per la durata della batteria, offrendo fino a 30 minuti di funzionamento prima che sia necessaria la ricarica.

Inoltre, le traduzioni in tempo reale, pur funzionando, presentano un leggero ritardo.

Product Lead per gli occhiali Ray-Ban Meta, David Woodland, ha condiviso ulteriori dettagli su X (precedentemente noto come Twitter).

Oggi iniziamo il rollout di uno dei più grandi aggiornamenti dell'anno per gli occhiali Ray-Ban Meta. Ecco alcune delle mie cose preferite in questo aggiornamento:

1) "Hey Meta, inizia Live AI." Ora puoi avere una conversazione con l'AI che trasmette video di ciò che vedi nel contesto del… pic.twitter.com/fvh6K763vA

— David Woodland (@DavidSven) 16 dicembre 2024

Questi progressi allineano Meta con le crescenti tendenze nell'occhialeria intelligente, paralleli alla recente dimostrazione di Google dei suoi occhiali prototipo alimentati da Gemini AI e Android XR.

Come sottolinea Meta, l'AI continua assistita dalla fotocamera è destinata a essere un obiettivo chiave per le aziende tecnologiche in futuro, segnando la potenziale trasformazione della tecnologia indossabile in una parte integrante della vita quotidiana.

Gli occhiali AI saranno il futuro dell'occhialeria?

Le grandi aziende tecnologiche stanno sempre più posizionando gli assistenti AI come la pietra angolare degli occhiali intelligenti.

La scorsa settimana, Google ha introdotto Android XR, evidenziando il suo assistente Gemini AI come la caratteristica centrale per gli occhiali intelligenti di nuova generazione.

Introducendo Android XR, la nostra nuova piattaforma per cuffie e occhiali costruiti per l'era Gemini pic.twitter.com/CBLaFGUwez

— Google (@Google) 12 dicembre 2024

Nel frattempo, il CTO di Meta, Andrew Bosworth, ha descritto il 2024 come "l'anno in cui gli occhiali AI raggiungono il loro apice", suggerendo in un recente post sul blog che gli occhiali intelligenti potrebbero essere il fattore di forma ideale per un "dispositivo realmente nativo dell'AI".

Ha ulteriormente notato che gli occhiali alimentati dall'AI potrebbero essere la prima categoria di hardware completamente definita dall'AI fin dall'inizio, e che gli occhiali intelligenti sostituiranno le TV in pochi anni.

Il CTO di Meta, Andrew Bosworth, afferma che gli occhiali intelligenti sostituiranno la TV in anni e non decenni e imparare a usare interfacce neurali basate sul polso consentirà il controllo dei dispositivi con la mente pic.twitter.com/sswPRRrKkl

— Tsarathustra (@tsarnick) 3 ottobre 2024

Gli occhiali intelligenti Ray-Ban di Meta esemplificano questa visione, consentendo agli utenti di attivare l'assistente virtuale MetaAI con un semplice comando vocale "Hey Meta" per fare domande o dare comandi.

Le risposte vengono fornite tramite altoparlanti integrati nelle montature, consentendo interazioni senza soluzione di continuità.

Gli occhiali supportano anche il livestreaming direttamente su Facebook e Instagram, integrando capacità potenziate dall'AI con l'interazione sui social media.

Con audio migliorato, fotocamere aggiornate e oltre 150 combinazioni personalizzabili di montature e lenti, gli occhiali intelligenti Ray-Ban sono più leggeri, più confortevoli e progettati per unire stile e funzionalità avanzate dell'AI.