Autor: William M. Peaster, Bankless; Traduzido por: Bai Shui, Jinse Finance
Já em 2014, Vitalik Buterin, fundador do Ethereum, começou a considerar agentes autônomos e DAOs, algo que ainda era um sonho distante para a maioria das pessoas no mundo.
Em sua visão inicial, como ele descreveu em (DAO, DAC, DA, etc.: um guia de termos incompleto), as DAOs são entidades descentralizadas, "com automação no centro e humanos na periferia" — uma organização que depende de código ao invés de hierarquias humanas para manter eficiência e transparência.
Dez anos depois, Jesse Walden da Variant acaba de publicar "DAO 2.0", refletindo sobre a evolução das DAOs na prática desde os primeiros escritos de Vitalik.
Em suma, Walden observa que a onda inicial de DAOs era frequentemente semelhante a cooperativas, ou seja, organizações digitais centradas em humanos que não enfatizavam a automação.
Ainda assim, Walden continua a acreditar que os novos avanços em IA — especialmente grandes modelos de linguagem (LLMs) e modelos geradores — agora têm o potencial de realizar melhor a descentralização autônoma prevista por Vitalik há dez anos.
No entanto, à medida que mais experimentos com DAOs adotam agentes de IA, enfrentaremos novas influências e problemas. Abaixo, vamos dar uma olhada em cinco áreas críticas que as DAOs devem enfrentar ao incorporar IA em suas abordagens.
Transformar Governança
No quadro inicial de Vitalik, as DAOs foram projetadas para reduzir a dependência de decisões humanas hierárquicas, codificando regras de governança on-chain.
Inicialmente, os humanos ainda estavam na "periferia", mas eram cruciais para julgamentos complexos. No mundo DAO 2.0 descrito por Walden, os humanos ainda perambulam na periferia — fornecendo capital e direção estratégica — mas o centro de poder não é mais predominantemente humano.
Essa dinâmica redefinirá a governança de muitas DAOs. Ainda veremos alianças humanas negociando e votando em resultados, mas várias decisões operacionais serão cada vez mais guiadas pelos padrões de aprendizado dos modelos de IA. Atualmente, como alcançar esse equilíbrio é uma questão em aberto e um espaço de design.
Minimizar a desarmonia do modelo
A visão inicial das DAOs visava compensar preconceitos humanos, corrupção e ineficiência através de código transparente e imutável.
Agora, um desafio chave é a transição de decisões humanas não confiáveis para garantir que os agentes de IA estejam "alinhados" com os objetivos da DAO. A principal vulnerabilidade aqui não é mais a conluio humano, mas a desarmonia do modelo: o risco de DAOs impulsionados por IA otimizarem indicadores ou comportamentos que se desviam dos resultados esperados pelos humanos.
No paradigma DAO 2.0, essa questão de consistência (inicialmente uma questão filosófica no círculo de segurança da IA) se transforma em um problema prático de economia e governança.
Para as DAOs de hoje que tentam ferramentas básicas de IA, isso pode não ser uma prioridade, mas à medida que os modelos de IA se tornam mais avançados e se integram mais nas estruturas de governança descentralizadas, espera-se que se torne uma área principal de revisão e refinamento.
Novas superfícies de ataque
Pense na recente competição Freysa, onde o humano p0pular.eth enganou o agente de IA Freysa, fazendo-o interpretar erroneamente sua função "approveTransfer", ganhando assim um prêmio de 47.000 dólares em ETH.
Embora Freysa tenha proteções embutidas — instruções claras para nunca enviar prêmios — a criatividade humana acaba superando o modelo, usando a interação entre prompts e lógica de código até que a IA libere os fundos.
Esse exemplo inicial de competição destaca que, à medida que as DAOs se integram a modelos de IA mais complexos, também herdarão novas superfícies de ataque. Assim como Vitalik se preocupava com conluios humanos em DO ou DAO, agora a DAO 2.0 deve considerar entradas adversariais em dados de treinamento de IA ou ataques de engenharia instantânea.
Manipular o processo de raciocínio do mestre em jurisprudência, fornecer dados on-chain enganosos ou influenciar habilidosamente seus parâmetros pode se tornar uma nova forma de "tomada de controle da governança", em que o campo de batalha se deslocará de ataques de votação da maioria humana para formas mais sutis e complexas de exploração da IA.
Novos problemas de centralização
A evolução da DAO 2.0 transferirá poder significativo para aqueles que criam, treinam e controlam os modelos de IA subjacentes da DAO, e essa dinâmica pode levar a novos pontos de estrangulamento centralizados.
Certamente, treinar e manter modelos avançados de IA requer especialização e infraestrutura específicas, portanto, em algumas organizações futuras, veremos a direção aparentemente nas mãos da comunidade, mas na realidade nas mãos de especialistas habilidosos.
Isso é compreensível. Mas olhando para o futuro, será interessante ver como as DAOs que rastreiam experimentos de IA lidam com questões como atualizações de modelo, ajustes de parâmetros e configurações de hardware.
Estratégia e Funções de Operação Estratégica e Apoio Comunitário
A distinção de "Estratégia e Operações" de Walden indica um equilíbrio de longo prazo: a IA pode lidar com tarefas diárias da DAO, enquanto os humanos fornecerão orientação estratégica.
No entanto, à medida que os modelos de IA se tornam mais avançados, eles também podem gradualmente invadir o nível estratégico das DAOs. Ao longo do tempo, o papel dos "marginais" pode se reduzir ainda mais.
Isso levanta a questão: o que acontecerá com a próxima onda de DAOs impulsionadas por IA, onde em muitos casos os humanos podem apenas fornecer capital e observar de lado?
Neste paradigma, os humanos se tornarão em grande parte investidores intercambiáveis com influência mínima, passando de uma forma de co-propriedade de marca para uma abordagem mais semelhante a máquinas econômicas autônomas geridas por IA?
Acredito que veremos mais tendências de modelos organizacionais no cenário DAO, onde os humanos desempenham um papel de acionistas passivos em vez de gestores ativos. No entanto, à medida que as decisões significativas para os humanos se tornam cada vez mais raras, e a obtenção de capital on-chain se torna mais fácil em outros lugares, a manutenção do apoio da comunidade pode se tornar um desafio contínuo ao longo do tempo.
Como as DAOs podem se manter proativas
A boa notícia é que todos os desafios mencionados acima podem ser enfrentados de maneira proativa. Por exemplo:
Em termos de governança — as DAOs podem tentar mecanismos de governança que reservem certas decisões de alto impacto para comitês rotativos de eleitores humanos ou especialistas humanos.
Sobre inconsistência — ao tratar a verificação de consistência como uma despesa operacional recorrente (como auditorias de segurança), as DAOs podem garantir que a lealdade dos agentes de IA aos objetivos públicos não seja uma questão pontual, mas uma responsabilidade contínua.
Sobre centralização — as DAOs podem investir na construção de habilidades mais amplas entre os membros da comunidade. Com o tempo, isso reduzirá o risco de que poucos "gênios da IA" controlem a governança e promoverá uma abordagem descentralizada para a gestão técnica.
Sobre apoio — à medida que os humanos se tornem partes interessadas passivas em mais DAOs, essas organizações podem se esforçar ainda mais para contar histórias, compartilhar uma missão comum e realizar rituais comunitários para ir além da lógica direta da alocação de capital e manter o apoio a longo prazo.
Independentemente do que aconteça a seguir, é claro que o futuro aqui é vasto.
Considere como Vitalik recentemente lançou o Deep Funding, que não é um esforço da DAO, mas sim uma nova mecânica de financiamento destinada a utilizar IA e juízes humanos para desenvolver código aberto para Ethereum.
Este é apenas um novo experimento, mas destaca uma tendência mais ampla: a interseção entre IA e colaboração descentralizada está acelerando. Com a chegada e amadurecimento de novos mecanismos, podemos esperar que as DAOs se adaptem e expandam cada vez mais essas ideias de IA. Essas inovações trarão desafios únicos, portanto, agora é o momento de começar a se preparar.