Según Cointelegraph, HyperWrite AI ha presentado un nuevo chatbot de inteligencia artificial llamado "Reflection 70B". El director ejecutivo Matt Shumer anunció el desarrollo el 5 de septiembre, afirmando que se trata del mejor modelo de código abierto del mundo. La IA se entrenó utilizando una técnica llamada "Reflection-Tuning", diseñada para permitir que los modelos de lenguaje grandes (LLM) corrijan sus propios errores.

Según Shumer, Reflection Llama-3.1 70B, la IA de código abierto de Meta lanzada en julio, puede competir con los mejores modelos de código cerrado como Claude 3.5 Sonnet de Anthropic y GPT-4o de OpenAI en varios puntos de referencia. Explicó que los modelos de IA actuales a menudo alucinan, lo que significa que generan resultados inexactos al percibir patrones u objetos que no existen. Reflection-Tuning tiene como objetivo abordar esto al permitir que la IA reconozca y corrija sus errores antes de finalizar una respuesta.

El ajuste reflexivo implica realimentar las respuestas de la IA al modelo, pidiéndole que evalúe sus propios resultados para identificar fortalezas, debilidades y áreas de mejora. Este proceso iterativo ayuda a la IA a refinar continuamente sus capacidades, haciéndola más consciente de sí misma y mejor en la crítica y mejora de su desempeño. Shumer señaló que con el estímulo adecuado, el nuevo modelo es altamente efectivo para varios casos de uso.

En 2023, OpenAI, respaldado por Microsoft, publicó un artículo de investigación en el que se analizaban métodos para prevenir las alucinaciones de la IA. Una idea propuesta era la "supervisión de procesos", que implica entrenar a los modelos de IA para que se recompensen a sí mismos por cada paso correcto del razonamiento en lugar de solo por la conclusión final correcta. Karl Cobbe, investigador de OpenAI, destacó la importancia de detectar y mitigar los errores lógicos o las alucinaciones como un paso fundamental para construir una inteligencia artificial general (AGI) alineada.