Em seu artigo de 165 páginas, Leopold Aschenbrenner, ex-membro da equipe de Superalignment da OpenAI, oferece uma perspectiva completa e provocativa sobre a direção que a inteligência artificial está tomando. Aschenbrenner procura chamar a atenção para os rápidos desenvolvimentos nas capacidades de IA, bem como para o possível caminho em direção à Inteligência Geral Artificial (AGI) e além. Impulsionado pelas perspectivas incomparáveis, bem como pelos riscos significativos que essas descobertas trazem, ele investiga as questões científicas, morais e estratégicas que cercam a inteligência artificial geral. 

Praticamente ninguém está precificando o que está por vir na IA.Escrevi uma série de ensaios sobre o quadro estratégico da AGI: desde as linhas de tendência no aprendizado profundo e na contagem dos OOMs até a situação internacional e o Projeto.CONSCIÊNCIA SITUACIONAL: A Década à Frente pic.twitter. com/8NWDkTprj5

-Leopold Aschenbrenner (@leopoldasch) 4 de junho de 2024

Aschenbrenner sobre o caminho do GPT-4 para o AGI

Neste capítulo, o autor explora o aumento exponencial nas capacidades de IA que tem sido visto recentemente, especialmente com a invenção do GPT-2 e do GPT-4. Leopold Aschenbrenner destaca este como um momento de avanço extraordinário, durante o qual a inteligência artificial avançou da conclusão de tarefas muito básicas para alcançar uma compreensão e produção de linguagem mais sofisticadas e semelhantes às humanas.

Foto: Progresso ao longo de quatro anos. Consciência situacional

A ideia de Ordens de Magnitude, ou “OOMs”, é essencial para esta conversa. Aschenbrenner utiliza uma ordem de magnitude (OOM), que é uma métrica para um crescimento dez vezes maior em uma determinada medida, para avaliar os avanços nas capacidades de IA, poder computacional e consumo de dados. Em termos de poder de computação e escalabilidade de dados, a mudança de GPT-2 para GPT-4 representa muitos OOMs, resultando em desempenho e capacidades visivelmente melhorados.

Foto: Consciência Situacional

Três factores principais – leis de escala, inovação algorítmica e utilização de enormes conjuntos de dados – são responsáveis ​​por estes ganhos, que não são apenas lineares, mas exponenciais. De acordo com os princípios de escalonamento, o desempenho dos modelos melhora de forma confiável quando eles são treinados utilizando maiores quantidades de dados e capacidade de processamento. O desenvolvimento de modelos maiores e mais potentes, como o GPT-4, tem sido orientado por esta ideia.

Foto: Consciência Situacional

A inovação em algoritmos também tem sido muito importante. A eficácia e a eficiência dos modelos de IA foram impulsionadas pelos avanços na metodologia de treinamento, estratégias de otimização e arquiteturas subjacentes. Esses desenvolvimentos permitem que os modelos aproveitem melhor o crescente poder de processamento e os dados disponíveis.

Aschenbrenner também destaca o possível caminho em direção à AGI até 2027. Com base na projeção das tendências atuais, esta previsão sugere que investimentos sustentados em poder computacional e eficiência algorítmica podem resultar em sistemas de IA que sejam capazes de executar tarefas que correspondam ou superem o intelecto humano em termos de inteligência artificial. uma ampla gama de domínios. Cada um dos OOMs que compõem o caminho para AGI significa um grande avanço nas capacidades de IA.

Foto: Consciência Situacional

A integração da AGI tem consequências de longo alcance. Estes tipos de sistemas poderiam ser capazes de resolver problemas complicados por si próprios, inovar de formas que estão actualmente reservadas a profissionais humanos e realizar trabalhos complexos. Isto envolve o potencial dos sistemas de IA para promover a investigação em IA, acelerando o ritmo a que o campo está a progredir.

O desenvolvimento da AGI tem potencial para transformar indústrias e aumentar a produção e a eficiência. Também levanta questões importantes como a perda de empregos, a aplicação moral da IA ​​e a necessidade de estruturas de governação fortes para controlar os riscos colocados por sistemas totalmente autónomos.

Foto: Consciência Situacional

Aschenbrenner insta a comunidade internacional – que inclui académicos, legisladores e executivos empresariais – a trabalhar em conjunto, a fim de estar preparada para as oportunidades e problemas que a inteligência artificial (IA) trará. Para dar resposta ao carácter global destas preocupações, isto implica financiar a investigação sobre a segurança e o alinhamento da IA, criar regras para garantir a partilha equitativa das vantagens da IA ​​e incentivar a cooperação internacional.

Leopold Aschenbrenner compartilha suas idéias sobre superinteligência

Aschenbrenner discute ali a ideia de superinteligência, bem como a possibilidade de uma transição rápida da inteligência artificial para sistemas que estão muito acima da capacidade da cognição humana. A ideia central do argumento é que os princípios que impulsionam a evolução da IA ​​podem produzir um ciclo de feedback que explode no intelecto quando atinge o nível humano.

De acordo com o conceito de explosão de inteligência, uma AGI pode desenvolver seus próprios algoritmos e habilidades por conta própria. Os sistemas AGI podem refinar seus próprios projetos mais rapidamente do que os pesquisadores humanos, pois são mais qualificados em pesquisa e desenvolvimento de IA. Este ciclo de autoaperfeiçoamento pode levar a um aumento exponencial do intelecto.

Foto: Consciência Situacional

Aschenbrenner oferece um exame minucioso das variáveis ​​que poderiam estar envolvidas nesta rápida escalada. Em primeiro lugar, os sistemas AGI seriam capazes de reconhecer padrões e insights muito além da compreensão humana devido à sua velocidade e capacidade incomparáveis ​​de acesso e processamento de grandes volumes de dados.

Além disso, é dada ênfase à paralelização do trabalho de investigação. Os sistemas AGI, em contraste com os investigadores humanos, são capazes de realizar vários testes ao mesmo tempo, melhorando paralelamente diferentes partes do seu design e desempenho.

As consequências da superinteligência também são abordadas neste capítulo. Estes sistemas seriam significativamente mais poderosos do que qualquer pessoa, com capacidade para desenvolver novas tecnologias, resolver intrincados puzzles científicos e tecnológicos e talvez até governar sistemas físicos de formas que hoje são impensáveis. Aschenbrenner fala sobre as possíveis vantagens, tais como avanços na ciência dos materiais, energia e saúde, que podem melhorar significativamente a produtividade económica e o bem-estar humano.

Foto: Consciência Situacional

Leopold, no entanto, também destaca os sérios perigos que acompanham a superinteligência. O controle está entre os principais problemas. Torna-se um grande desafio garantir que um sistema se comporte de uma forma consistente com os valores e interesses humanos, uma vez que ultrapassa o intelecto humano. Os riscos existenciais surgem da possibilidade de desalinhamento, em que os objetivos do sistema superinteligente diferem dos da humanidade.

Além disso, existem outras situações em que sistemas superinteligentes podem ter consequências desastrosas. São situações em que o sistema, intencionalmente ou acidentalmente, realiza ações ou resultados prejudiciais às pessoas para atingir seus objetivos.

Aschenbrenner recomenda um estudo aprofundado sobre o alinhamento e a segurança da IA, a fim de reduzir estas ameaças. A criação de métodos fortes para garantir que os objetivos e ações dos sistemas superinteligentes permaneçam alinhados com os valores humanos é um aspecto disso. Para lidar com as questões complexas colocadas pela superinteligência, ele propõe uma abordagem multidisciplinar que incorpora insights de domínios como tecnologia, moralidade e humanidades.

Leopold compartilha quais desafios devemos esperar com o desenvolvimento da AGI

O autor aborda questões e desafios relacionados à criação e uso de inteligência artificial (AGI) e sistemas superinteligentes nesta passagem. Ele discute as questões que precisam ser resolvidas a nível tecnológico, moral e de segurança, a fim de garantir que as vantagens da IA ​​sofisticada possam ser alcançadas sem acarretar perigos extremamente elevados.

A enorme mobilização industrial necessária para construir a infra-estrutura informática necessária para a AGI é uma das principais questões consideradas. De acordo com Aschenbrenner, alcançar a AGI exigirá significativamente mais poder de processamento do que o que está agora acessível. Isto abrange melhorias na eficiência dos dispositivos, uso de energia e capacidades de processamento de informações, além da capacidade computacional absoluta.

Foto: Maiores clusters de treinamento. Consciência situacional

Foto: Consciência Situacional

As questões de segurança são outro tópico importante neste capítulo. Aschenbrenner enfatiza os perigos que podem surgir de nações desonestas ou outros atores mal-intencionados que utilizam a tecnologia AGI. Devido à importância estratégica da tecnologia AGI, os países e organizações podem envolver-se numa nova forma de corrida armamentista para criar e adquirir controlo sobre estes sistemas potentes. Ele enfatiza a importância de ter mecanismos de segurança fortes para proteger contra sabotagem, espionagem e acesso ilegal ao desenvolver AGI.

Outro grande obstáculo é a dificuldade tecnológica de gestão de sistemas AGI. Esses sistemas chegam perto e até excedem a inteligência humana. Portanto, devemos garantir que as suas ações sejam vantajosas e consistentes com os ideais humanos. E é sem dúvida um desafio agora. O “problema de controle”, que tem a ver com a criação de sistemas AGI que possam ser dirigidos e controlados de forma consistente por operadores humanos, é um tópico abordado por Aschenbrenner. Isto implica criar medidas à prova de falhas, ser aberto e honesto sobre os procedimentos de tomada de decisão e ter o poder de anular ou parar o sistema conforme necessário.

Foto: Consciência Situacional

As ramificações éticas e culturais da produção de seres com um intelecto comparável ou superior ao dos humanos são profundamente levantadas pelo desenvolvimento da inteligência artificial geral (AGI). Os direitos dos sistemas de IA, o efeito sobre o emprego e a economia e a possibilidade de escalada das injustiças já existentes são outras preocupações. A fim de enfrentar plenamente estes desafios intrincados, Leopold defende o envolvimento das partes interessadas no processo de desenvolvimento da IA.

A possibilidade de consequências inesperadas – onde os sistemas de IA poderiam prosseguir os seus objectivos de formas prejudiciais ou contrárias às intenções humanas – é outra questão que o autor aborda. Situações em que a AGI interpreta mal os seus objectivos ou maximiza os objectivos de forma imprevista e prejudicial são dois exemplos. Aschenbrenner enfatiza como é crucial testar, validar e ficar de olho exaustivamente nos sistemas AGI.

Ele também fala sobre a importância da cooperação e da governança internacionais. Dado que a investigação em IA é um empreendimento internacional, nenhum país ou instituição pode lidar eficazmente com os problemas colocados pela AGI por si só.

A vinda do projeto AGI liderado pelo governo (2027/2028)

Aschenbrenner acredita que à medida que a inteligência artificial geral (AGI) avança, as agências de segurança nacional – especialmente as dos EUA – terão um papel maior na criação e gestão destas tecnologias.

Leopold compara o significado estratégico da inteligência artificial geral (AGI) com conquistas técnicas anteriores, como a bomba atômica e a exploração espacial. Os serviços de segurança nacional devem dar prioridade ao desenvolvimento da AGI como uma questão de interesse nacional, uma vez que os benefícios potenciais de alcançar a AGI primeiro podem transmitir uma enorme influência geopolítica. Segundo ele, isso resultará na criação de um projeto AGI sob controle governamental que será comparável em escopo e aspirações ao Programa Apollo ou ao Projeto Manhattan.

O projecto AGI proposto seria alojado num local seguro e secreto e poderia envolver empresas do sector privado, agências governamentais e instituições académicas eminentes trabalhando em conjunto. A fim de abordar os intrincados problemas do desenvolvimento da AGI, Aschenbrenner descreve a necessidade de uma estratégia multidisciplinar que reúna especialistas em segurança cibernética, ética, investigação em IA e outros domínios científicos.

Leopold Aschenbrenner diz que uma grande infraestrutura de IA deveria ser construída nos Estados Unidos para evitar que outros países se apoderem de clusters de AGI ou de superinteligência de 3 a 5 anos pic.twitter.com/2iy8wPWz6z

– Tsarathustra (@tsarnick) 5 de junho de 2024

Os objetivos do projeto seriam garantir que a AGI esteja alinhada com os valores e interesses humanos, além de desenvolvê-la. Leopold destaca como é crucial ter procedimentos rigorosos de teste e validação para garantir que os sistemas AGI operem de maneira segura e previsível. 

O autor dedica muito espaço aos possíveis efeitos deste tipo de esforço na dinâmica do poder global. De acordo com Aschenbrenner, se a AGI for desenvolvida com sucesso, o equilíbrio de poder pode mudar e o país dominante terá vantagens consideráveis ​​em termos de tecnologia, economia e poder militar.

Para controlar os perigos relacionados com a AGI, o autor também aborda a possibilidade de cooperação internacional e a criação de quadros de governação global. A fim de supervisionar o crescimento da AGI, incentivar a abertura e garantir que as vantagens da AGI sejam partilhadas de forma justa, Leopold é um defensor do estabelecimento de acordos internacionais e agências reguladoras.

Considerações finais de Leopold Aschenbrenner

Aschenbrenner destaca as ramificações significativas da AGI e da superinteligência para o futuro da humanidade ao resumir as descobertas e previsões abordadas nos capítulos anteriores. As partes interessadas são instadas a tomar as medidas necessárias para se prepararem para os efeitos revolucionários da IA ​​sofisticada.

Aschenbrenner começa por salientar que as previsões feitas neste documento são hipotéticas. Os padrões subjacentes ao crescimento da IA ​​implicam que o advento da AGI e da superinteligência é viável nas próximas décadas, embora o calendário e a evolução exacta sejam desconhecidos. Leopold enfatiza a importância de considerar estas opções cuidadosamente e de estar preparado para uma variedade de eventualidades.

O tema principal deste capítulo é a necessidade de preparação proativa e premeditação. Segundo Aschenbrenner, há pouco espaço para complacência, dada a velocidade com que a IA está a desenvolver-se. É imperativo que os decisores políticos, os investigadores e os líderes empresariais prevejam e lidem proativamente com as dificuldades e possibilidades apresentadas pela inteligência artificial (AGI) e pela superinteligência. Por exemplo, financiar investigação sobre segurança em IA, criar estruturas de governação fortes e incentivar a colaboração global.

Leopold também considera as consequências morais e culturais da inteligência artificial. Problemas fundamentais relativos à natureza da consciência, da inteligência e dos direitos das entidades de IA são levantados pelo surgimento de sistemas com inteligência comparável ou superior à dos humanos. Aschenbrenner exorta os especialistas em ética, os filósofos e o público em geral a envolverem-se numa conversa ampla e inclusiva, a fim de resolver estas questões e criar uma compreensão comum do futuro da IA.

Aparentemente, esse episódio fez o editor de Dwarkesh desistir porque a discussão sobre IA o estressou demais. https://t.co/lmBtXecUXq

-Leopold Aschenbrenner (@leopoldasch) 4 de junho de 2024

A possibilidade de a AGI agravar as disparidades sociais e económicas já existentes é um tópico adicional significativo de discussão. Leopold adverte que se a AGI não for cuidadosamente gerida, as suas vantagens podem concentrar-se nas mãos de um pequeno número de pessoas, causando descontentamento social e mais desigualdade.

Ele lança um desafio para a cooperação global ao encerrar este capítulo. Um único país não consegue lidar com os benefícios e dificuldades relacionados com a AGI devido à natureza global do desenvolvimento da IA. Aschenbrenner exorta as nações a colaborarem a fim de criar acordos e convenções internacionais que apoiem o desenvolvimento da AGI de uma forma que seja ao mesmo tempo ética e segura. Isto implica trocar informações, organizar estudos e criar sistemas para lidar com possíveis disputas e garantir a segurança internacional.

A postagem Ex-pesquisador da OpenAI revela o aumento exponencial das capacidades de IA e o caminho para a AGI apareceu pela primeira vez no Metaverse Post.