Respuesta de Google a OpenAI: se anuncia el Proyecto Astra

Hace seis años, Google mostró una demostración de inteligencia artificial llamada Duplex en un evento para desarrolladores de E/S y concertó una cita con un peluquero. Después de muchos años, Google anunció recientemente el Proyecto Astra. En la demostración compartida, Project Astra puede ver todo lo que lo rodea a través de la cámara de un teléfono y responder sus preguntas al respecto.

El director ejecutivo de DeepMind de Google, Demis Hassabis, dijo hoy en su discurso de apertura que su equipo está trabajando para desarrollar agentes de inteligencia artificial universales que puedan ayudar en la vida diaria. El Proyecto Astra es un paso hacia este objetivo.

En la demostración compartida, vemos que la persona que sostiene el teléfono lleva la cámara del dispositivo y el Proyecto Astra a algunas partes de la oficina y hace preguntas. En el ejemplo que se muestra, el usuario dice en voz alta: "Avísame cuando veas que algo emite un sonido", y la IA impulsada por Gemini responde: "Veo un altavoz que emite un sonido". Luego, el usuario pregunta a la IA qué es lo que está apuntando en el altavoz y dice: "Este es el tweeter. Produce sonidos de alta frecuencia". obtiene la respuesta.

Según su comunicado, Google subraya que este vídeo fue realizado en una sola toma y en tiempo real. Más adelante en el video, se muestra a Gemini identificando y explicando fragmentos de código en un monitor, diciéndole al usuario en qué vecindario se encuentra según la vista desde la ventana.

La parte más impresionante es cuando el usuario pregunta: "¿Recuerdas dónde vi mis gafas?" Sucede cuando haces la pregunta. En el vídeo a la inteligencia artificial no se le preguntó nada sobre las gafas, de hecho, no había gafas en la escena que el usuario mostraba en la cámara del teléfono en ese momento. Pero a pesar de esto, Géminis dice: "Sí, lo recuerdo. Tus gafas están al lado de una manzana roja".