Los chatbots de IA están empeorando con el tiempo: artículo académico #BTCUptober
La disminución del interés de los consumidores en los chatbots provocó una caída en los ingresos del sector de IA durante el segundo trimestre comercial de 2024.
Un estudio de investigación reciente titulado "Los modelos de lenguaje más grandes y más instructables se vuelven menos confiables" en la revista científica Nature reveló que los chatbots de inteligencia artificial están cometiendo más errores con el tiempo a medida que se lanzan modelos más nuevos.
Lexin Zhou, uno de los autores del estudio, teorizó que debido a que los modelos de IA están optimizados para brindar siempre respuestas creíbles, las respuestas aparentemente correctas se priorizan y se envían al usuario final independientemente de la precisión.
Estas alucinaciones de IA se refuerzan a sí mismas y tienden a agravarse con el tiempo, un fenómeno exacerbado por el uso de modelos de lenguaje grandes y antiguos para entrenar modelos de lenguaje grandes más nuevos, lo que resulta en un "colapso del modelo".
El editor y escritor Mathieu Roy advirtió a los usuarios que no dependan demasiado de estas herramientas y que siempre verifiquen los resultados de búsqueda generados por IA para detectar inconsistencias:
Si bien la IA puede ser útil para diversas tareas, es importante que los usuarios verifiquen la información que obtienen de los modelos de IA. La verificación de datos debería ser un paso en el proceso de todos cuando se utilizan herramientas de IA. Esto se complica más cuando se trata de chatbots de servicio al cliente".
Para empeorar las cosas, "a menudo no hay forma de verificar la información excepto preguntándole al propio chatbot", afirmó Roy.
El persistente problema de las alucinaciones de la IA#BTCUptober
La plataforma de inteligencia artificial de Google fue objeto de burlas en febrero de 2024 después de que la IA comenzara a producir imágenes históricamente inexactas. Algunos ejemplos de esto incluían retratar a personas de color como oficiales nazis y crear imágenes inexactas de figuras históricas conocidas.
Desafortunadamente, incidentes como este son demasiado comunes con la iteración actual de inteligencia artificial y grandes modelos de lenguaje. Los ejecutivos de la industria, incluido el director ejecutivo de Nvidia, Jensen Huang, han propuesto mitigar las alucinaciones de la IA obligando a los modelos de IA a realizar investigaciones y proporcionar fuentes para cada respuesta.#BTCUptober