Ilya Sutskever, cofundador e ex-cientista-chefe da OpenAI, teria levantado um bilhão de dólares para sua startup de inteligência artificial, com um valor estimado de US$ 5 bilhões.

A empresa, Safe Superintelligence Inc. (SSI), anunciou o financiamento em uma atualização de 4 de setembro em seu site. Segundo a SSI, ela levantou US$ 1 bilhão da NFDG, a16z, Sequoia, DST Global e SV Angel.

Como o Cointelegraph relatou recentemente, Sutskever e o engenheiro Dan Levy deixaram a OpenAI em junho de 2024, menos de um ano após Sutskever formar a equipe de segurança “Superalignment” da empresa. Enquanto Sutskever, na época, disse que estava saindo para buscar outras oportunidades, outros ex-funcionários sugeriram desentendimentos entre o CEO Sam Altman e outros membros da empresa e seu conselho.

Segurança de inteligência artificial

A SSI parece ser uma concorrente direta da antiga empresa de Sutskever, a OpenAI, com uma missão ligeiramente ajustada. O foco da SSI, de acordo com seu site, é construir um modelo de IA com mais inteligência do que os humanos de forma segura.

Isso pode soar familiar porque a Anthropic, outra empresa fundada por ex-funcionários da OpenAI, também afirma que sua missão é construir modelos de IA seguros. Na verdade, de acordo com o site da OpenAI, ela também está focada exclusivamente no desenvolvimento seguro de IA para o benefício da humanidade.

Onde a SSI diverge, até agora, é na sua afirmação de que só desenvolverá um produto: uma superinteligência segura.

Super inteligência

OpenAI e Anthropic fornecem produtos e serviços para clientes corporativos e o público em geral. Cada um deles tem produtos emblemáticos, ChatGPT e Claude, respectivamente, que eles oferecem em uma base limitada sem custo para os consumidores com a opção de assinar para acesso adicional.

No entanto, de acordo com as próprias empresas, nenhum dos produtos se encaixaria em qualquer definição de “superinteligência”. Vale mencionar que “superinteligência” é um termo tipicamente atribuído ao filósofo Nick Bostrom. Em seu livro de 2014, “Superinteligência: Caminhos, Perigos, Estratégias”, Bostrom discute um sistema de IA com capacidades cognitivas que excedem em muito as dos humanos mais inteligentes. Ele previu, na época, que tal entidade poderia chegar já no “primeiro terço do próximo século”.

Não há uma definição científica ou medição definida para “superinteligência”. Mas, com base no contexto, pode-se supor que a SSI está comprometida com a pesquisa e o desenvolvimento até que possa estrear um modelo de IA que seja demonstravelmente mais capaz do que o humano médio.

Tanto a OpenAI quanto a Anthropic inicialmente alegaram que seu único propósito era construir uma IA de nível humano a serviço da humanidade. Mas construir os sistemas de IA mais poderosos do mundo custa bilhões de dólares usando métodos e tecnologias atuais.

Ainda não se sabe se a SSI, uma empresa com apenas 10 funcionários, usará seu fundo de financiamento de US$ 1 bilhão para construir a primeira superinteligência do mundo ou o próximo concorrente do ChatGPT na arena de chatbots.