A Meta Platforms lançou na sexta-feira uma série de novos produtos de IA, incluindo um “Self-Taught Evaluator” que é capaz de verificar a precisão de outros modelos de IA. O modelo é, portanto, supostamente capaz de oferecer menos envolvimento humano no processo de desenvolvimento dos modelos de IA.

A empresa controladora do Facebook e do Instagram disse na sexta-feira que estava lançando os novos modelos de IA após a introdução da ferramenta em um artigo de agosto que explicou em detalhes como ela se baseia na mesma técnica de "cadeia de pensamento" usada por colegas. O fabricante do ChatGPT, OpenAI, lançou recentemente os modelos 01.

Espera-se que isso permita que o modelo de IA faça julgamentos confiáveis ​​sobre as respostas dos modelos.

A Meta quer abordar os desafios das imprecisões

De acordo com um artigo da Reuters, o modelo pode verificar e melhorar a precisão das respostas a problemas difíceis, como aqueles em disciplinas como ciências, matemática e codificação, porque envolve dividir problemas complexos em etapas lógicas menores.

A Meta revelou que suas intenções incluem abordar os desafios enfrentados com outros modelos de IA, como o ChatGPT, além de críticas sobre respostas desatualizadas e imprecisas.

Pesquisadores da Meta supostamente usaram dados gerados inteiramente por IA para treinar o modelo avaliador, removendo a intervenção humana nessa fase.

Dois pesquisadores do Meta disseram à Reuters que a capacidade de usar IA para avaliar outras IAs de forma confiável oferece um vislumbre de um possível caminho para a construção de sistemas autônomos que podem aprender com seus próprios erros.

“Esperamos que, à medida que a IA se torna cada vez mais super-humana, ela se torne cada vez melhor em verificar seu trabalho, para que seja realmente melhor do que o humano médio.” Pesquisador Jason Weston.

“A ideia de ser autodidata e capaz de se autoavaliar é basicamente crucial para a ideia de chegar a esse tipo de nível super-humano de IA”, acrescentou.

Meta está caminhando para IA autônoma

De acordo com os pesquisadores, as partes interessadas no setor de IA veem esses agentes como assistentes digitais inteligentes o suficiente para realizar uma variedade de tarefas sem intervenção humana.

Os pesquisadores sustentam que modelos de autoaperfeiçoamento poderiam eliminar a necessidade de um processo frequentemente caro e ineficiente que é usado hoje, chamado Reinforcement Learning from Human Feedback. Isso requer a contribuição de anotadores humanos que devem ter conhecimento especializado para rotular dados com precisão e verificar se as respostas a consultas complexas de matemática e escrita estão corretas.

Parceiros do setor como Google e Anthropic também publicaram artigos de pesquisa sobre o conceito de RLAIF, ou Aprendizado por Reforço a partir do Feedback de IA.

No entanto, diferentemente da Meta, essas outras empresas tendem a não liberar seus modelos para uso público.

Especialistas na indústria de IA opinaram que o uso de IA para verificar IA é significativo para construir aplicativos de IA autônomos que podem operar sem intervenção humana. Isso significa que, eventualmente, os modelos de IA aprenderão com seus próprios erros, se autocorrigirão e melhorarão sem nenhuma contribuição de humanos.

A gigante das mídias sociais também lançou outras ferramentas, incluindo uma atualização do seu Segment Anything Model (SAM) de identificação de imagens, uma ferramenta que acelera os tempos de geração de resposta do LLM e conjuntos de dados que podem ser usados ​​para auxiliar na descoberta de novos materiais inorgânicos.