El modelo de inteligencia artificial Gemini de Google se está integrando en gran parte de la tecnología del gigante tecnológico, y la IA pronto aparecerá en Gmail, YouTube y los teléfonos inteligentes de la compañía.

En un discurso de apertura en la conferencia de desarrolladores I/O 2024 de la compañía el 14 de mayo, el director ejecutivo Sundar Pichai reveló algunos de los próximos lugares en los que aparecerá su modelo de IA.

Pichai mencionó la IA 121 veces en su discurso de apertura de 110 minutos cuando el tema ocupó un lugar central: Gemini, que se lanzó en diciembre, tomó el centro de atención.

Google está incorporando el modelo de lenguaje grande (LLM) en prácticamente todas sus ofertas, incluidos Android, Búsqueda y Gmail, y esto es lo que los usuarios pueden esperar en el futuro.

Sundar Pichai en Google I/O 2024. Fuente: Interacciones de aplicaciones de Google

Gemini está adquiriendo más contexto en el sentido de que podrá interactuar con aplicaciones. En una próxima actualización, los usuarios podrán llamar a Gemini para interactuar con aplicaciones, como arrastrar y soltar una imagen generada por IA en un mensaje.

Los usuarios de YouTube también podrán tocar "Preguntar a este video" para encontrar información específica dentro del video de la IA.

Géminis en Gmail

La plataforma de correo electrónico de Google, Gmail, también se está integrando con IA, ya que los usuarios podrán buscar, resumir y redactar sus correos electrónicos utilizando Gemini.

El asistente de IA podrá tomar medidas en los correos electrónicos para tareas más complejas, como ayudar a procesar devoluciones de comercio electrónico buscando en la bandeja de entrada, encontrando el recibo y completando formularios en línea.

Géminis en vivo

Google también presentó una nueva experiencia llamada Gemini Live donde los usuarios pueden tener chats de voz "profundos" con la IA en sus teléfonos inteligentes.

El chatbot se puede interrumpir a mitad de una respuesta para solicitar una aclaración y se adaptará a los patrones de habla de los usuarios en tiempo real. Además, Gemini también puede ver y responder al entorno físico a través de fotos o vídeos capturados en el dispositivo.

Captura de pantalla del vídeo promocional de Gemini. Fuente: Avances multimodales de Google

Google está trabajando en el desarrollo de agentes inteligentes de IA que puedan razonar, planificar y completar tareas complejas de varios pasos en nombre del usuario bajo supervisión. Multimodal significa que la IA puede ir más allá del texto y manejar entradas de imágenes, audio y video.

Los ejemplos y casos de uso iniciales incluyen la automatización de devoluciones de compras y la exploración de una nueva ciudad.

Relacionado: Gemini, el 'asesino GPT-4' de Google, ya está disponible, así es como puedes probarlo

Otras actualizaciones en proceso para el modelo de inteligencia artificial de la empresa incluyen un reemplazo del Asistente de Google en Android con Gemini completamente integrado en el sistema operativo móvil.

Una nueva función "Preguntar fotos" permite buscar en la biblioteca de fotos mediante consultas en lenguaje natural impulsadas por Gemini. Puede comprender el contexto, reconocer objetos y personas y resumir recuerdos fotográficos en respuesta a preguntas.

Los resúmenes de lugares y áreas generados por IA se mostrarán en Google Maps utilizando información de los datos cartográficos de la plataforma.

Revista: 'Sic AI entre sí' para prevenir el apocalipsis de la IA: David Brin, autor de ciencia ficción