De acordo com a Cointelegraph, as empresas de inteligência artificial OpenAI e Anthropic concordaram em conceder ao US AI Safety Institute acesso antecipado a quaisquer novos modelos significativos de IA desenvolvidos por suas respectivas empresas. Este acordo, motivado por preocupações mútuas de segurança, deixa o papel exato do governo no caso de um avanço tecnológico significativo um tanto ambíguo.

O CEO e cofundador da OpenAI, Sam Altman, enfatizou a importância deste acordo em uma publicação recente na plataforma de mídia social X, afirmando: “Estamos felizes por termos fechado um acordo com o US AI Safety Institute para testes de pré-lançamento de nossos futuros modelos. Por muitas razões, achamos importante que isso aconteça em nível nacional. Os EUA precisam continuar a liderar!”

Tanto a OpenAI quanto a Anthropic estão focadas no desenvolvimento de inteligência geral artificial (AGI), uma forma de IA capaz de executar qualquer tarefa que um humano possa, dados os recursos necessários. Cada empresa tem seu próprio estatuto e missão visando criar AGI com segurança, tendo os interesses da humanidade em seu cerne. Se qualquer uma das empresas tiver sucesso, elas se tornariam as principais guardiãs dessa tecnologia avançada. Ao concordar em compartilhar seus modelos com o governo dos EUA antes do lançamento de qualquer produto, ambas as empresas efetivamente transferiram parte dessa responsabilidade para as autoridades federais.

Como o Cointelegraph relatou recentemente, a OpenAI pode estar se aproximando de um avanço com seus projetos “Strawberry” e “Orion”, que dizem possuir capacidades avançadas de raciocínio e novos métodos para abordar o problema de alucinação da IA. O governo dos EUA supostamente já revisou essas ferramentas e as primeiras iterações do ChatGPT incorporando-as.

Uma postagem de blog do Instituto Nacional de Padrões e Tecnologia dos EUA indica que as diretrizes de segurança associadas a este acordo são voluntárias para as empresas participantes. Os defensores desta abordagem regulatória de toque leve argumentam que ela incentiva o crescimento e permite que o setor se autorregule. Os apoiadores, incluindo Altman, veem este acordo como um modelo de como a cooperação entre o governo e o setor corporativo pode ser mutuamente benéfica.

No entanto, há preocupações sobre a potencial falta de transparência associada à regulamentação light-touch. Se a OpenAI ou a Anthropic atingirem suas metas de AGI e o governo decidir que o público não precisa ser informado, parece não haver nenhuma exigência legal para divulgação.