Resposta do Google ao OpenAI: Projeto Astra anunciado

Seis anos atrás, o Google mostrou uma demonstração de inteligência artificial chamada Duplex em um evento para desenvolvedores de I/O e marcou uma consulta com um barbeiro. Depois de muitos anos, o Google anunciou recentemente o Projeto Astra. Na demonstração compartilhada, o Projeto Astra pode ver tudo ao seu redor através da câmera de um telefone e responder às suas perguntas.

O CEO da DeepMind do Google, Demis Hassabis, disse em sua palestra de hoje que sua equipe está trabalhando para desenvolver agentes universais de IA que possam ajudar na vida diária. O Projeto Astra é um passo em direção a esse objetivo.

Na demonstração compartilhada, vemos que a pessoa que segura o telefone leva a câmera do aparelho e o Projeto Astra para alguns pontos do escritório e faz perguntas. No exemplo mostrado, o usuário diz em voz alta: “Diga-me quando vir algo fazendo barulho”, e a IA alimentada pelo Gemini responde: “Vejo um alto-falante fazendo barulho”. O usuário então pergunta à IA o que ele está apontando no alto-falante e diz: “Este é o tweeter. Ele produz sons de alta frequência”. obtém a resposta.

Segundo o seu comunicado, a Google sublinha que este vídeo foi feito numa única tomada e em tempo real. Posteriormente no vídeo, Gemini é mostrado identificando e explicando trechos de código em um monitor, informando ao usuário em que bairro ele está com base na visualização da janela.

A parte mais impressionante é quando o usuário pergunta: “Você lembra onde vi meus óculos?” Isso acontece quando você faz a pergunta. No vídeo, a inteligência artificial não foi questionada sobre óculos, na verdade, não havia óculos na cena que o usuário mostrava na câmera do celular naquele momento. Mas, apesar disso, Gêmeos diz: “Sim, eu me lembro. Seus óculos estão ao lado de uma maçã vermelha”.