Como informó Cointelegraph, una investigación publicada en Nature Scientific Journal muestra que las tasas de error de los chatbots de IA aumentan a medida que se lanzan nuevos modelos. Lexin Zhou, uno de los autores del estudio, cree que los modelos de IA priorizan proporcionar respuestas que parezcan correctas, lo que resulta en una menor precisión.
El editor y escritor Mathieu Roy advierte a los usuarios contra la dependencia excesiva de estas herramientas y recomienda verificar los resultados de búsqueda generados por IA. Especialmente en los chatbots de servicio al cliente, la verificación de la información se vuelve más compleja, señaló Roy.
En febrero de 2024, la plataforma de inteligencia artificial de Google fue ridiculizada por generar imágenes históricamente inexactas. El director ejecutivo de Nvidia, Jensen Huang, propuso mitigar el problema de las alucinaciones de la IA obligando a los modelos de IA a realizar investigaciones y proporcionar procedencia.
Matt Shumer, director ejecutivo de HyperWrite AI, anunció que el nuevo modelo 70B de la compañía utiliza un enfoque de "ajuste de reflexión" que aprende analizando sus propios errores y ajustando las respuestas.