Il modello di intelligenza artificiale di Google Gemini si sta intrecciando con gran parte della tecnologia del colosso tecnologico, con l’intelligenza artificiale che presto apparirà in Gmail, su YouTube e sugli smartphone dell’azienda.

In un discorso programmatico alla conferenza degli sviluppatori I/O 2024 dell’azienda il 14 maggio, il CEO Sundar Pichai ha rivelato alcuni dei prossimi luoghi in cui apparirà il suo modello di intelligenza artificiale.

Pichai ha menzionato l'IA 121 volte nel suo intervento di 110 minuti mentre l'argomento era al centro dell'attenzione: Gemini, lanciato a dicembre, ha preso le luci della ribalta.

Google sta incorporando il modello LLM (Large Language Model) praticamente in tutte le sue offerte, inclusi Android, Ricerca e Gmail, ed ecco cosa possono aspettarsi gli utenti in futuro.

Sundar Pichai al Google I/O 2024. Fonte: Interazioni con l'app Google

Gemini sta ottenendo più contesto in quanto sarà in grado di interagire con le applicazioni. In un prossimo aggiornamento, gli utenti potranno chiamare Gemini per interagire con le app, ad esempio trascinando e rilasciando un'immagine generata dall'intelligenza artificiale in un messaggio.

Gli utenti di YouTube potranno anche toccare "Chiedi a questo video" per trovare informazioni specifiche all'interno del video dell'intelligenza artificiale.

Gemelli in Gmail

Anche la piattaforma di posta elettronica di Google, Gmail, sta ottenendo l’integrazione dell’intelligenza artificiale poiché gli utenti saranno in grado di cercare, riepilogare e redigere le proprie e-mail utilizzando Gemini.

L'assistente AI sarà in grado di intervenire sulle e-mail per attività più complesse, come assistere nell'elaborazione dei resi e-commerce effettuando ricerche nella casella di posta, trovando la ricevuta e compilando moduli online.

Gemelli in diretta

Google ha anche presentato una nuova esperienza chiamata Gemini Live in cui gli utenti possono avere chat vocali “approfondite” con l’intelligenza artificiale sui propri smartphone.

Il chatbot può essere interrotto a metà risposta per chiarimenti e si adatterà ai modelli vocali degli utenti in tempo reale. Inoltre, Gemini può anche vedere e rispondere all'ambiente fisico tramite foto o video catturati sul dispositivo.

Screenshot dal video promozionale di Gemini. Fonte: progressi multimodali di Google

Google sta lavorando allo sviluppo di agenti IA intelligenti in grado di ragionare, pianificare e completare complesse attività in più fasi per conto dell’utente sotto supervisione. Multimodale significa che l'intelligenza artificiale può andare oltre il testo e gestire input di immagini, audio e video.

Esempi e casi d'uso iniziali includono l'automazione dei resi degli acquisti e l'esplorazione di una nuova città.

Correlati: Gemini "GPT-4 killer" di Google è disponibile, ecco come puoi provarlo

Altri aggiornamenti in cantiere per il modello AI dell’azienda includono la sostituzione di Google Assistant su Android con Gemini completamente integrato nel sistema operativo mobile.

Una nuova funzione "Chiedi foto" consente di effettuare ricerche nella libreria di foto utilizzando query in linguaggio naturale fornite da Gemini. Può comprendere il contesto, riconoscere oggetti e persone e riassumere ricordi fotografici in risposta a domande.

I riepiloghi di luoghi e aree generati dall’intelligenza artificiale verranno mostrati in Google Maps utilizzando approfondimenti provenienti dai dati cartografici della piattaforma.

Rivista: "Le IA Sic l'una contro l'altra" per prevenire l'apocalisse dell'IA: David Brin, autore di fantascienza