Ilya Sutskever, cofundador e ex-cientista-chefe da OpenAI, juntamente com o ex-engenheiro da OpenAI Daniel Levy e o investidor Daniel Gross, anteriormente sócio da aceleradora de startups Y Combinator, lançaram a Safe Superintelligence, Inc. A empresa, com sede em Palo Alto e Tel Aviv, pretende promover a inteligência artificial (IA), priorizando a segurança e as capacidades. Num anúncio online no dia 19 de junho, os fundadores enfatizaram o seu compromisso:

“Desde o início, nosso foco permanece inabalável na segurança e nas capacidades da IA. Este foco singular garante que não nos distraiamos com despesas gerais de gestão ou ciclos de produtos, enquanto o nosso modelo de negócio protege a segurança, a proteção e o progresso das pressões comerciais de curto prazo.”

Sutskever e Gross há muito defendem a segurança da IA.

Sutskever deixou a OpenAI em 14 de maio, após seu envolvimento na demissão do CEO Sam Altman. Seu papel na empresa tornou-se ambíguo depois que ele deixou o conselho após o retorno de Altman. Pouco depois da saída de Sutskever, Daniel Levy, juntamente com vários outros pesquisadores, também deixou a OpenAI.

Sutskever e Jan Leike co-lideraram a equipe de Superalignment da OpenAI, formada em julho de 2023 para explorar métodos para orientar e gerenciar sistemas de IA mais inteligentes que os humanos, conhecidos como inteligência artificial geral (AGI). No início, a OpenAI alocou 20% de seus recursos computacionais para apoiar a equipe do Superalignment.

Em maio, Leike também deixou a OpenAI para chefiar uma equipe na Anthropic, uma startup de IA apoiada pela Amazon. Após a saída de seus principais pesquisadores, a OpenAI dissolveu a equipe do Superalignment. Greg Brockman, presidente da empresa, defendeu seus protocolos de segurança em uma postagem detalhada no X.

Outras figuras proeminentes da indústria tecnológica também partilham preocupações

Ex-pesquisadores da OpenAI, juntamente com vários cientistas, expressam profundas preocupações sobre a trajetória futura da IA. Vitalik Buterin, cofundador da Ethereum, rotulou a AGI como “arriscada” em meio às recentes mudanças na equipe da OpenAI. No entanto, ele também observou que “tais modelos apresentam riscos de destruição muito menores em comparação com a megalomania corporativa e as aplicações militares”.

Fonte: Ilya Sutskever

O CEO da Tesla, Elon Musk, ex-apoiador do OpenAI, e o cofundador da Apple, Steve Wozniak, juntaram-se a mais de 2.600 líderes tecnológicos e pesquisadores para pedir uma pausa de seis meses no treinamento de sistemas de IA. Enfatizaram a necessidade de a humanidade reflectir sobre os “riscos profundos” colocados por estas tecnologias.

A postagem Ilya Sutskever, ex-cientista da OpenAI, inicia SSI para segurança de IA apareceu pela primeira vez no Baffic.