Há ainda outro novo chatbot de inteligência artificial entrando no espaço já lotado, mas este aparentemente pode fazer o que a maioria não consegue — aprender com seus erros.

Em uma postagem de 5 de setembro no X, o CEO da HyperWrite AI, Matt Shumer, anunciou o desenvolvimento do ‘Reflection 70B’, alegando que ele é “o melhor modelo de código aberto do mundo”.

Ele acrescentou que a nova IA foi treinada usando “Reflection-Tuning”, uma técnica desenvolvida para permitir que os LLMs corrijam seus próprios erros.

O Reflection Llama-3.1 70B pode “se manter” até mesmo contra os principais modelos de código fechado, como o Claude 3.5 Sonnet da Anthropic e o GPT-4o da OpenAI em vários benchmarks que ele afirmou. O Llama 3.1 é a IA de código aberto da Meta que foi lançada em julho.

Ele disse que os modelos atuais de IA podem muitas vezes causar alucinações, mas o Reflection-Tuning permite que eles reconheçam seus erros e os corrijam antes de se comprometerem com uma resposta.

“Os atuais LLMs têm tendência a ter alucinações e não conseguem reconhecer quando o fazem.”

Uma alucinação de IA é um fenômeno quando um chatbot de IA generativa percebe padrões ou objetos que são inexistentes ou imperceptíveis para observadores humanos, criando resultados imprecisos.

Exemplo de ajuste de reflexão. Fonte: Matt Shumer

O ajuste de reflexão é uma técnica usada para melhorar modelos de IA, fazendo com que eles analisem e aprendam com seus próprios resultados.

As respostas da IA ​​podem ser realimentadas na IA, onde ela pode ser solicitada a avaliar suas próprias respostas, identificando pontos fortes, fracos e áreas para melhoria, por exemplo.

O processo é repetido muitas vezes, permitindo que a IA refine continuamente suas capacidades com o objetivo de torná-la mais autoconsciente de seus resultados e melhor em criticar e melhorar seu próprio desempenho.

Shumer acrescentou que “com o prompt certo, é uma fera absoluta para muitos casos de uso”, fornecendo um link de demonstração para o novo modelo.

A OpenAI, apoiada pela Microsoft, lançou um artigo de pesquisa em 2023 com ideias sobre como ajudar a prevenir alucinações de IA.

Uma ideia era a “supervisão de processo”, que envolve treinar modelos de IA para se recompensarem por cada passo correto de raciocínio individual quando chegam a uma resposta, em vez de apenas recompensar uma conclusão final correta.

“Detectar e mitigar os erros lógicos de um modelo, ou alucinações, é um passo crítico para construir uma AGI [inteligência artificial geral] alinhada”, disse Karl Cobbe, pesquisador da OpenAI, à CNBC na época.

Revista: Plano de drone de IA ‘hellscape’ para Taiwan, LLMs muito burros para destruir a humanidade: AI Eye