Há ainda outro novo chatbot de inteligência artificial entrando no espaço já lotado, mas este aparentemente pode fazer o que a maioria não consegue — aprender com seus erros.
Em uma postagem de 5 de setembro no X, o CEO da HyperWrite AI, Matt Shumer, anunciou o desenvolvimento do ‘Reflection 70B’, alegando que ele é “o melhor modelo de código aberto do mundo”.
Ele acrescentou que a nova IA foi treinada usando “Reflection-Tuning”, uma técnica desenvolvida para permitir que os LLMs corrijam seus próprios erros.
O Reflection Llama-3.1 70B pode “se manter” até mesmo contra os principais modelos de código fechado, como o Claude 3.5 Sonnet da Anthropic e o GPT-4o da OpenAI em vários benchmarks que ele afirmou. O Llama 3.1 é a IA de código aberto da Meta que foi lançada em julho.
Ele disse que os modelos atuais de IA podem muitas vezes causar alucinações, mas o Reflection-Tuning permite que eles reconheçam seus erros e os corrijam antes de se comprometerem com uma resposta.
“Os atuais LLMs têm tendência a ter alucinações e não conseguem reconhecer quando o fazem.”
Uma alucinação de IA é um fenômeno quando um chatbot de IA generativa percebe padrões ou objetos que são inexistentes ou imperceptíveis para observadores humanos, criando resultados imprecisos.
Exemplo de ajuste de reflexão. Fonte: Matt Shumer
O ajuste de reflexão é uma técnica usada para melhorar modelos de IA, fazendo com que eles analisem e aprendam com seus próprios resultados.
As respostas da IA podem ser realimentadas na IA, onde ela pode ser solicitada a avaliar suas próprias respostas, identificando pontos fortes, fracos e áreas para melhoria, por exemplo.
O processo é repetido muitas vezes, permitindo que a IA refine continuamente suas capacidades com o objetivo de torná-la mais autoconsciente de seus resultados e melhor em criticar e melhorar seu próprio desempenho.
Shumer acrescentou que “com o prompt certo, é uma fera absoluta para muitos casos de uso”, fornecendo um link de demonstração para o novo modelo.
A OpenAI, apoiada pela Microsoft, lançou um artigo de pesquisa em 2023 com ideias sobre como ajudar a prevenir alucinações de IA.
Uma ideia era a “supervisão de processo”, que envolve treinar modelos de IA para se recompensarem por cada passo correto de raciocínio individual quando chegam a uma resposta, em vez de apenas recompensar uma conclusão final correta.
“Detectar e mitigar os erros lógicos de um modelo, ou alucinações, é um passo crítico para construir uma AGI [inteligência artificial geral] alinhada”, disse Karl Cobbe, pesquisador da OpenAI, à CNBC na época.
Revista: Plano de drone de IA ‘hellscape’ para Taiwan, LLMs muito burros para destruir a humanidade: AI Eye