No campo da inteligência artificial, a intersecção entre fé e tecnologia gerou um intenso debate sobre a eficácia e o futuro do "princípio de escalabilidade". Este artigo explora a ascensão, as divergências e os possíveis impactos dessa "religião amarga", revelando a complexa relação entre fé e ciência. A comunidade de inteligência artificial está imersa em uma disputa sobre seu futuro e se há escala suficiente para criar a doutrina de Deus. Este artigo é baseado em um texto de Mario Gabriele, organizado e traduzido por Block unicorn. (Resumo: A xAI de Musk completou uma rodada de financiamento da Série C de 6 bilhões de dólares, com a participação de grandes nomes da indústria como Nvidia, BlackRock, a16z...) (Contexto adicional: A Nvidia lançará no próximo ano a plataforma de computação de robô humanoide "Jetson Thor", será o momento físico da IA como o ChatGPT?) Guerra Santa da Inteligência Artificial Prefiro viver minha vida como se Deus existisse, e ao morrer descobrir que Ele não existe, do que viver como se Deus não existisse e ao morrer descobrir que Ele existe. — Blaise Pascal A religião é uma coisa interessante. Talvez porque seja completamente impossível de provar em qualquer direção, ou talvez como minha frase favorita diz: "Você não pode usar fatos contra sentimentos." A característica da crença religiosa é que, à medida que a fé cresce, ela se desenvolve a uma velocidade inacreditável, tornando quase impossível duvidar da existência de Deus. Quando as pessoas ao seu redor começam a acreditar cada vez mais, como você pode duvidar de uma presença divina? Quando o mundo se reorganiza em torno de uma doutrina, onde há espaço para heresia? Quando templos e catedrais, leis e normas são organizados segundo um novo evangelho inabalável, onde há espaço para oposição? Quando a religião abraâmica surgiu pela primeira vez e se espalhou por continentes, ou quando o budismo se espalhou da Índia para toda a Ásia, o enorme ímpeto da fé criou um ciclo auto-reforçado. À medida que mais pessoas se convertiam e sistemas teológicos complexos e rituais eram estabelecidos em torno dessas crenças, questionar esses pressupostos fundamentais tornava-se cada vez mais difícil. Em um mar de credulidade, tornar-se herege não é fácil. Catedrais grandiosas, textos religiosos complexos e mosteiros prósperos servem como provas físicas da presença divina. Mas a história da religião também nos ensina o quão fácil é para essas estruturas desmoronarem. Com a propagação do cristianismo na Península Escandinava, as antigas crenças nórdicas desmoronaram em apenas algumas gerações. O sistema religioso do Antigo Egito durou milhares de anos, mas eventualmente desapareceu com a ascensão de novas e mais duradouras crenças e a emergência de estruturas de poder maiores. Mesmo dentro da mesma religião, testemunhamos divisões dramáticas — a Reforma Religiosa rasgou o cristianismo ocidental, enquanto o Grande Cisma levou à divisão das igrejas oriental e ocidental. Essas divisões muitas vezes começam com divergências doutrinárias aparentemente insignificantes, que gradualmente evoluem para sistemas de crença completamente diferentes. Escrituras Deus é uma metáfora que transcende todos os níveis de pensamento intelectual. É tão simples. — Joseph Campbell Em termos simples, acreditar em Deus é religião. Talvez criar Deus não seja tão diferente. Desde seu nascimento, otimistas pesquisadores de inteligência artificial imaginaram seu trabalho como uma criação divina — ou seja, a criação de Deus. Nos últimos anos, o crescimento explosivo de grandes modelos de linguagem (LLMs) reforçou ainda mais a crença dos fiéis de que estamos trilhando um caminho sagrado. Isso também confirmou um artigo de blog escrito em 2019. Embora as pessoas fora do campo da inteligência artificial só tenham tomado conhecimento recentemente, o "amargo ensinamento" do cientista da computação canadense Richard Sutton se tornou um texto cada vez mais importante na comunidade, evoluindo de um conhecimento oculto para uma nova e abrangente base religiosa. Em 1.113 palavras (cada religião precisa de um número sagrado), Sutton resumiu uma observação técnica: "A maior lição que podemos aprender com 70 anos de pesquisa em inteligência artificial é que o uso de métodos de computação gerais é, em última análise, o mais eficaz e uma enorme vantagem." O avanço dos modelos de inteligência artificial é impulsionado pelo aumento exponencial dos recursos computacionais, surfando nas enormes ondas da Lei de Moore. Ao mesmo tempo, Sutton apontou que muitos trabalhos em pesquisa de inteligência artificial se concentram em otimizar o desempenho por meio de tecnologias especializadas — aumentando o conhecimento humano ou ferramentas estreitas. Embora essas otimizações possam ser úteis a curto prazo, na visão de Sutton, elas são, em última análise, uma perda de tempo e recursos, como tentar ajustar as nadadeiras de uma prancha de surf ou experimentar uma nova cera quando uma onda gigante está prestes a chegar. Essa é a base do que chamamos de "religião amarga". Ela possui um único mandamento, comumente referido na comunidade como "princípio de escalabilidade": o crescimento exponencial da computação impulsiona o desempenho; o resto é tolice. A religião amarga se expandiu de grandes modelos de linguagem (LLMs) para modelos de mundo e agora está se espalhando rapidamente através de templos não convertidos de biologia, química e inteligência incorporada (robótica e veículos autônomos). No entanto, à medida que a doutrina de Sutton se espalha, as definições também começam a mudar. Este é o sinal de todas as religiões ativas e vibrantes — debates, extensões, comentários. O "princípio de escalabilidade" não significa mais apenas computação de escalabilidade (a arca não é apenas um barco), agora se refere a uma variedade de métodos destinados a aumentar a eficiência dos transformadores e da computação, que também trazem algumas técnicas. Agora, o clássico abrange tentativas de otimizar cada parte da pilha de IA, desde técnicas aplicadas ao modelo central (como união de modelos, mistura de especialistas (MoE) e extração de conhecimento) até a geração de dados sintéticos para alimentar esses deuses eternamente famintos, com uma quantidade significativa de experimentos realizados. Facções em Conflito Recentemente, uma questão que surgiu na comunidade de inteligência artificial, com um espírito de cruzada, é se a "religião amarga" ainda é válida. Esta semana, Harvard, Stanford e o MIT publicaram um novo artigo intitulado "O Princípio de Escalabilidade da Precisão", que provocou esse conflito. O artigo discute o fim dos ganhos de eficiência técnica em quantização, uma série de tecnologias que melhoram o desempenho dos modelos de inteligência artificial e beneficiam amplamente o ecossistema de código aberto. O cientista de pesquisa do Allen Institute for Artificial Intelligence, Tim Dettmers, esboçou sua importância no post abaixo, chamando-o de "o artigo mais importante em muito tempo". Ele representa a continuidade de um diálogo crescente nas últimas semanas e revela uma tendência notável: a crescente consolidação de duas religiões. Sam Altman, CEO da OpenAI, e Dario Amodei, CEO da Anthropic, pertencem à mesma facção. Ambos afirmam com confiança que alcançaremos a inteligência artificial geral (AGI) em cerca de 2-3 anos. Altman e Amodei podem ser considerados duas das figuras que mais dependem da sacralidade da "religião amarga". Todos os seus incentivos tendem a compromissos excessivos, criando o maior alvoroço para acumular capital neste jogo quase totalmente dominado por economias de escala. Se o princípio de escalabilidade não é o "Alfa e Ômega", o início e o fim, então para que você precisa de 22 bilhões de dólares? O ex-cientista-chefe da OpenAI, Ilya Sutskever, defende um conjunto diferente de princípios. Ele, junto com outros pesquisadores (incluindo muitos de dentro da OpenAI, de acordo com informações vazadas recentemente), acredita que a escalabilidade está se aproximando de um limite. Este grupo argumenta que, para manter o progresso e trazer a AGI para o mundo real, novas ciências e pesquisas serão inevitavelmente necessárias. Sutskever argumenta de forma razoável que a contínua ideia de escalabilidade de Altman não é viável economicamente. Assim como a inteligência...