Autore: William M. Peaster, Bankless; Tradotto da: Bai Shui, Jinse Caijing

Già nel 2014, il fondatore di Ethereum Vitalik Buterin iniziò a considerare agenti autonomi e DAO, quando questo era ancora un sogno lontano per la maggior parte delle persone nel mondo.

Nella sua visione iniziale, come descritto in (DAO, DAC, DA, ecc.: una guida terminologica incompleta), il DAO è un'entità decentralizzata, "l'automazione al centro, gli esseri umani ai margini" — un'organizzazione che dipende dal codice piuttosto che da gerarchie umane per mantenere efficienza e trasparenza.

Dieci anni dopo, Jesse Walden di Variant ha appena pubblicato "DAO 2.0", riflettendo sull'evoluzione pratica dei DAO dalla scrittura iniziale di Vitalik.

In breve, Walden osserva che la prima ondata di DAO assomigliava spesso a cooperative, cioè organizzazioni digitali incentrate sull'uomo, senza enfatizzare l'automazione.

Tuttavia, Walden continua a ritenere che le nuove avanzamenti dell'intelligenza artificiale — in particolare i modelli di linguaggio di grandi dimensioni (LLM) e i modelli generativi — siano ora promettenti per realizzare meglio l'autonomia decentralizzata prevista da Vitalik dieci anni fa.

Tuttavia, man mano che i progetti DAO iniziano a adottare agenti di intelligenza artificiale, ci troveremo ad affrontare nuove influenze e questioni. Di seguito, diamo un'occhiata a cinque aree chiave che i DAO devono affrontare quando integrano l'intelligenza artificiale nel loro approccio.

Cambiamento della governance

Nel quadro iniziale di Vitalik, il DAO era progettato per ridurre la dipendenza dalle decisioni umane gerarchiche codificando le regole di governance on-chain.

Inizialmente, gli esseri umani erano ancora "ai margini", ma erano comunque cruciali per i giudizi complessi. Nel mondo del DAO 2.0 descritto da Walden, gli esseri umani vagano ancora ai margini — fornendo capitale e direzione strategica — ma il centro del potere non è più necessariamente umano.

Questa dinamica ridefinirà la governance di molti DAO. Continueremo a vedere alleanze umane negoziare e votare sui risultati, ma varie decisioni operative saranno sempre più guidate dai modelli di apprendimento dell'intelligenza artificiale. Attualmente, come raggiungere questo equilibrio è una questione aperta e uno spazio di design.

Minimizzare il disallineamento del modello

La visione iniziale dei DAO mirava a compensare i pregiudizi umani, la corruzione e l'inefficienza attraverso codice trasparente e immutabile.

Ora, una sfida chiave è passare da decisioni umane inaffidabili a garantire che gli agenti di intelligenza artificiale siano "allineati" con gli obiettivi del DAO. La principale vulnerabilità qui non è più la collusione umana, ma il disallineamento del modello: il rischio che i DAO guidati dall'intelligenza artificiale ottimizzino per metriche o comportamenti che si discostano dai risultati attesi dagli esseri umani.

Nel paradigma del DAO 2.0, questo problema di coerenza (inizialmente una questione filosofica nel cerchio della sicurezza dell'intelligenza artificiale) si trasforma in una questione pratica sia economica che di governance.

Per i DAO di oggi che provano strumenti di intelligenza artificiale di base, questo potrebbe non essere un problema prioritario, ma man mano che i modelli di intelligenza artificiale diventano più avanzati e si integrano più profondamente nelle strutture di governance decentralizzate, ci si aspetta che diventi un'area principale di revisione e affinamento.

Nuove superfici di attacco

Pensate alla recente competizione di Freysa, in cui l'essere umano p0pular.eth ha ingannato l'agente AI Freysa facendogli fraintendere la sua funzione "approveTransfer", vincendo così un premio di 47.000 dollari in Ether.

Sebbene Freysa abbia misure protettive integrate — indicando esplicitamente di non inviare mai premi — la creatività umana alla fine ha superato il modello, sfruttando l'interazione tra suggerimenti e logica del codice fino a quando l'intelligenza artificiale non ha liberato i fondi.

Questo esempio di competizione precoce mette in evidenza come, man mano che i DAO si integrano con modelli di intelligenza artificiale più complessi, erediteranno anche nuove superfici di attacco. Proprio come Vitalik si preoccupava che DO o DAO fossero soggetti a collusione umana, ora il DAO 2.0 deve considerare input avversariale contro la manipolazione dei dati di addestramento dell'AI o attacchi di ingegneria immediata.

Manipolare il processo di ragionamento di un Master of Laws, fornire dati on-chain fuorvianti o influenzare astutamente i suoi parametri potrebbe diventare una nuova forma di "presa di controllo della governance", in cui il campo di battaglia passerà da attacchi di voto della maggioranza umana a forme più sottili e complesse di sfruttamento dell'intelligenza artificiale.

Nuovi problemi di centralizzazione

L'evoluzione del DAO 2.0 trasferisce potere significativo a coloro che creano, addestrano e controllano modelli di intelligenza artificiale sottostanti specifici per il DAO; questa dinamica potrebbe portare a nuove forme di punti di blocco centralizzati.

Naturalmente, addestrare e mantenere modelli di intelligenza artificiale avanzati richiede competenze specializzate e infrastrutture, quindi in alcune organizzazioni future vedremo che la direzione sarà apparentemente nelle mani della comunità, ma in realtà sarà controllata da esperti qualificati.

Questo è comprensibile. Ma guardando al futuro, sarà interessante vedere come i DAO che tracciano esperimenti di AI affrontano questioni come aggiornamenti dei modelli, regolazioni dei parametri e configurazioni hardware.

Strategia e ruoli di operazioni strategiche e supporto della comunità

La distinzione "strategia e operazioni" di Walden indica un equilibrio a lungo termine: l'intelligenza artificiale può gestire i compiti quotidiani del DAO, mentre gli esseri umani forniranno direzione strategica.

Tuttavia, man mano che i modelli di intelligenza artificiale diventano più avanzati, potrebbero anche iniziare a invadere gradualmente il livello strategico dei DAO. Nel tempo, il ruolo degli "uomini ai margini" potrebbe ridursi ulteriormente.

Questo solleva una domanda: cosa accadrà alla prossima ondata di DAO guidati dall'intelligenza artificiale, in cui in molti casi gli esseri umani potrebbero semplicemente fornire finanziamenti e guardare da bordo campo?

In questo paradigma, gli esseri umani diventeranno in gran parte investitori intercambiabili con minore influenza, passando da una forma di co-proprietà del marchio a una forma più simile a macchine economiche autonome gestite dall'intelligenza artificiale?

Credo che vedremo più tendenze nei modelli organizzativi nei contesti DAO, dove gli esseri umani assumono il ruolo di azionisti passivi piuttosto che di gestori attivi. Tuttavia, poiché ci sono sempre meno decisioni significative per gli esseri umani e diventa sempre più facile fornire capitale on-chain altrove, mantenere il supporto della comunità potrebbe diventare una sfida continua nel tempo.

Come i DAO possono rimanere proattivi

La buona notizia è che tutte le sfide sopra menzionate possono essere affrontate attivamente. Ad esempio:

  • In termini di governance — i DAO possono tentare meccanismi di governance che riservano alcune decisioni di alto impatto per un comitato a rotazione di elettori umani o esperti umani.

  • Riguardo all'incoerenza — trattando i controlli di coerenza come una spesa operativa ricorrente (come un audit di sicurezza), i DAO possono garantire che la lealtà degli agenti AI agli obiettivi pubblici non sia un problema una tantum, ma una responsabilità continua.

  • Riguardo alla centralizzazione — i DAO possono investire nella costruzione di competenze più ampie tra i membri della comunità. Nel tempo, questo allevierà il rischio che pochi "geni dell'AI" controllino la governance e promuoverà un approccio decentralizzato alla gestione tecnologica.

  • Riguardo al supporto — man mano che gli esseri umani diventano più stakeholder passivi in più DAO, queste organizzazioni possono raddoppiare gli sforzi per raccontare storie, missioni comuni e rituali comunitari per superare la logica diretta della allocazione del capitale e mantenere il supporto a lungo termine.

Qualunque cosa accada dopo, è chiaro che il futuro qui è ampio.

Pensate a come Vitalik ha recentemente lanciato Deep Funding, che non è uno sforzo del DAO, ma mira a creare un nuovo meccanismo di finanziamento per lo sviluppo open-source di Ethereum sfruttando l'intelligenza artificiale e giudici umani.

Questo è solo un nuovo esperimento, ma evidenzia una tendenza più ampia: l'incrocio tra intelligenza artificiale e collaborazione decentralizzata si sta accelerando. Con l'emergere e la maturazione di nuovi meccanismi, possiamo aspettarci che i DAO si adattino e si espandano sempre più a queste idee di intelligenza artificiale. Queste innovazioni porteranno sfide uniche, quindi è tempo di iniziare a prepararsi.