La empresa de inteligencia artificial OpenAI ha comenzado a implementar su tan esperada función “Voz avanzada” para usuarios selectos de ChatGPT.

“Advanced Voice se implementará para todos los usuarios de Plus y Team en la aplicación ChatGPT en el transcurso de la semana”, dijo OpenAI en una publicación del 24 de septiembre en X.

“También puede decir ‘Lo siento, llego tarde’ en más de 50 idiomas”, un guiño a la demora en el lanzamiento de la función de voz, que originalmente estaba prevista para principios de año.

Advanced Voice se implementará para todos los usuarios de Plus y Team en la aplicación ChatGPT durante el transcurso de la semana.

Mientras esperabas pacientemente, hemos agregado instrucciones personalizadas, memoria, cinco nuevas voces y acentos mejorados.

También puede decir “Lo siento, llego tarde” en más de 50 idiomas. pic.twitter.com/APOqqhXtDg

— OpenAI (@OpenAI) 24 de septiembre de 2024

El modo de voz avanzado es una actualización del último modelo 4.0 de ChatGPT. Permite una comunicación más rápida e intuitiva con el modelo e incluye varias mejoras conversacionales más parecidas a las humanas.

Como parte de la nueva función, OpenAI presentó cinco nuevas voces, Arbor, Maple, SXol, Spruce y Vale, que se suman a las opciones de voz existentes Breeze, Juniper, Cove y Ember.

Los usuarios de los niveles ChatGPT Plus y Team obtendrán acceso escalonado a las nuevas voces, que están diseñadas para hacer que las conversaciones sean más humanas, lo que incluye permitir a los usuarios interrumpir la conversación y cambiar de tema a mitad de la conversación.

OpenAI también incluye instrucciones y "recuerdos" cuando se lanzan las nuevas voces. Los usuarios pueden incluir instrucciones personalizadas que adapten el chatbot a sus preferencias, y el chatbot puede aprender y "recordar" cosas importantes de conversaciones de audio anteriores.

Sin embargo, no siempre funciona como se espera. En una sección de preguntas frecuentes, OpenAI admitió que la experiencia de conversación aún no está optimizada para su uso con un sistema Bluetooth o un altavoz para automóvil, y que ChatGPT podría verse interrumpido por ruidos.

Aun así, algunos usuarios de X se quejaron de que las nuevas opciones de voz palidecían en comparación con el controvertido modelo de voz de “Sky” alguna vez planeado por Altman, que fue retirado de la mesa después de una acalorada disputa legal con la actriz Scarlett Johansson.

Johansson dijo que Altman se acercó a ella en 2023 para ser la voz de ChatGPT, pero ella decidió rechazar la oferta por "razones personales". Tras el lanzamiento de Sky como la voz de GTP 4.0, dijo que estaba "sorprendida, enojada e incrédula" por las características vocales inquietantemente similares del chatbot.

Altman luego descartó la voz y sostuvo que cualquier parecido fue pura casualidad, a pesar de haber hecho una publicación de una sola palabra en X que decía "Ella", una referencia directa a la película de Spike Jonze de 2013 donde Johansson prestó su voz al sistema operativo de un compañero inteligente de IA.

AI Eye: El plan de Taiwán para crear un «paisaje infernal» con drones de IA; los LLM son demasiado tontos para destruir a la humanidad