OpenAI anunció una versión "más humana" de ChatGPT.
OpenAI ha presentado el último modelo de su chatbot, GPT-4o. Esta red neuronal se ha vuelto "más parecida a la humana" y ha aprendido a procesar datos visuales.
La herramienta de inteligencia artificial "sobresale particularmente en la comprensión de video y audio en comparación con los modelos existentes". Incluye funciones como reconocimiento de emociones y detección del ritmo respiratorio.
El chatbot ahora también cuenta con un modo de voz completo para interacciones de voz.
Según la presentación, el producto puede ayudar a los usuarios con diversas tareas cotidianas, como la preparación para entrevistas de trabajo. OpenAI también demostró cómo GPT-4o puede llamar al servicio de atención al cliente para solicitar un reemplazo de iPhone.
Otros ejemplos mostraban a la red neuronal contando "chistes de papá", traduciendo conversaciones entre dos idiomas en tiempo real, juzgando un juego de "piedra, papel y tijera" y respondiendo con sarcasmo.
En un video, se mostró ChatGPT reaccionando al primer encuentro de un usuario con un cachorro.
"¡Hola, Bowser! ¿No eres la criatura más adorable?" exclamó el chatbot.
OpenAI declaró que la "o" en GPT-4o significa "omni", lo que simboliza un paso hacia una interacción más natural entre humanos y computadoras.
El GPT-4o es "mucho más rápido y un 50% más barato" que el GPT-4 Turbo. La red neuronal responde a las consultas de audio en 2,3 segundos. El tiempo medio de respuesta del chatbot es de 3,2 segundos, comparable al tiempo de reacción humana en una conversación normal, destacó OpenAI.