Se ha presentado un nuevo modelo de chatbot de IA llamado "Reflection 70B" que promete resolver un problema que afecta a muchos modelos de IA: las alucinaciones.
Afinación de la reflexión: aprender de los errores
El modelo se entrenó mediante el “ajuste de reflexión”, una técnica que permite a las IA aprender de sus errores y corregirlos.
Matt Shumer, director ejecutivo de HyperWrite AI, llama a Reflection 70B "el mejor modelo de código abierto del mundo". Fue desarrollado en base a Llama 3.1, un modelo de IA de código abierto de Meta, y se dice que puede competir en varios puntos de referencia con modelos cerrados como Claude 3.5 Sonnet de Anthropic y GPT-4o de OpenAI.
Alucinaciones: un problema para los modelos de IA
Las alucinaciones de IA ocurren cuando un chatbot de IA percibe patrones u objetos que no existen o son imperceptibles para los observadores humanos. Esto conduce a una salida incorrecta.
El ajuste de la reflexión tiene como objetivo resolver este problema permitiendo a las IA reconocer y corregir sus propios errores antes de dar una respuesta.
¿Cómo funciona el ajuste de reflexión?
La IA analiza su propio gasto y aprende de él. Identifica fortalezas, debilidades y áreas que se pueden mejorar. Este proceso se repite, lo que permite a la IA mejorar continuamente sus capacidades y ser más consciente de su propio gasto.
El enfoque de OpenAI para combatir las alucinaciones
OpenAI, respaldado por Microsoft, publicó un artículo de investigación en 2023 que presenta ideas para prevenir las alucinaciones de IA.
Una idea es el "monitoreo de procesos", donde los modelos de IA son recompensados por recompensar cada paso correcto del razonamiento para producir una respuesta, en lugar de simplemente recompensar una conclusión correcta.
"Detectar y mitigar los errores lógicos o alucinaciones de un modelo es un paso crítico hacia el desarrollo de AGI [inteligencia general artificial] alineada", dijo a CNBC Karl Cobbe, investigador de OpenAI.
Reflexión 70B: Un enfoque prometedor
"Reflection 70B" podría ser un paso importante hacia modelos de IA más fiables y precisos. La capacidad de aprender de los errores es crucial para desarrollar sistemas de IA que realmente puedan beneficiar a las personas.
#Reflection70B #News #Haberler #Noticias #Nachrichten