A OpenAI está treinando um novo sistema de IA para suceder o GPT-4 enquanto a empresa busca uma reinicialização de reputação. O modelo será precedido por um comitê de segurança liderado pelo CEO Sam Altman e três outros diretores. 

Leia também: ChatGPT ainda espalha falsidades, afirma EU Data Watchdog

A empresa sediada em São Francisco está sob pressão para demonstrar o seu compromisso com a segurança. Os pesquisadores de risco recentemente demitidos, Jan Leike e Gretchen Krueger, expuseram a suposta cultura de segurança deficiente da OpenAI no X, antigo Twitter.

OpenAI treina ‘modelo da próxima fronteira’

Em uma postagem no blog publicada na terça-feira, a empresa disse:

“A OpenAI começou recentemente a treinar seu próximo modelo de fronteira e prevemos que os sistemas resultantes nos levarão ao próximo nível de capacidades em nosso caminho para a inteligência artificial geral (AGI).”

A OpenAI não disse quando o sucessor do GPT-4 seria lançado ou o que poderia fazer. A empresa, avaliada em US$ 80 bilhões, fez uma aposta pioneira com seu imensamente popular chatbot de IA, ChatGPT, em um momento em que favoritos como o Google ficaram em segundo plano para avaliar o risco de reputação.

Embora a OpenAI seja pioneira na corrida da inteligência artificial generativa que é fortemente contestada pela Anthropic, Google, Microsoft e outros, a empresa nem sempre resistiu ao escrutínio ético.

Em uma postagem anunciando sua demissão da OpenAI no X, Leike revelou que “nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”.

Krueger escreveu que a empresa precisa “fazer mais para melhorar coisas fundamentais como processos de tomada de decisão, responsabilidade, transparência, aplicação de políticas e o cuidado com que usamos a nossa própria tecnologia”.

Na semana passada, uma força-tarefa da União Europeia rebateu as críticas, relatando que o ChatGPT, o principal produto da empresa, está aquém dos seus padrões de precisão.

Empresa apresenta segurança de IA como principal argumento de venda

Enquanto isso, a recente atualização da OpenAI para seu modelo GPT-4 instantaneamente gerou uma briga de alto nível, com a atriz Scarlett Johannson acusando a empresa de uso não autorizado de sua voz.

Leia também: OpenAI Scraps ChatGPT Voice após controvérsia de Scarlett Johansson

Agora, a empresa está liderando rapidamente para a lavanderia, ao apresentar a segurança como o ponto de venda de seu próximo programa de IA. A empresa também deseja ser vista pelos reguladores como uma empresa que desenvolve IA responsável. Em sua postagem no blog, OpenAI adicionou:

“Embora estejamos orgulhosos de construir e lançar modelos que são líderes do setor em termos de capacidades e segurança, acolhemos com satisfação um debate robusto neste momento importante.”

O novo comitê de segurança e proteção será liderado pelos diretores Altman, Bret Taylor (presidente), Adam D’Angelo e Nicole Seligman. O chefe de preparação da empresa, o chefe de sistemas de segurança, o chefe de ciência de alinhamento, o chefe de segurança e o cientista-chefe também estarão no comitê.

A OpenAI disse que o comitê irá, nos próximos três meses, “avaliar e desenvolver processos e salvaguardas” e reportar a três outros diretores.

A empresa dissolveu sua equipe de segurança no início deste mês, após a saída do líder da equipe e cofundador da OpenAI, Ilya Sutskever.

Reportagem criptopolitana de Jeffrey Gogo