Internet è sull'orlo di un cambiamento profondo. La visione degli agenti di intelligenza artificiale — assistenti digitali intelligenti che agiscono autonomamente per conto di individui e organizzazioni — sta diventando realtà. Questo "Internet Agentico" sarà presto popolato da trilioni di agenti di intelligenza artificiale che prendono decisioni, eseguono compiti e partecipano al commercio senza supervisione umana diretta. Tuttavia, questa trasformazione porta sfide significative che dobbiamo affrontare per garantire un ecosistema digitale sicuro, equo e affidabile.
Man mano che gli agenti di intelligenza artificiale personali assumono ruoli complessi, comprendere e autenticare la loro identità diventa cruciale. Il concetto di essere personale implica che un agente possa rappresentare il suo creatore per prendere decisioni significative, da transazioni finanziarie a negoziazioni. Sorgere una questione critica: come possiamo assicurarci che un agente rappresenti veramente il suo creatore umano?
Questo problema si estende ai dati utilizzati nello sviluppo dell'agente. Se un agente di intelligenza artificiale sfrutta dataset o modelli non originati o approvati dal suo creatore, l'allineamento tra l'agente e il suo creatore potrebbe essere compromesso. Questa dissonanza può creare una crisi d'identità, minando la fiducia in queste interazioni digitali.
Consentire a un agente di intelligenza artificiale di avere il proprio portafoglio o i diritti di gestire il portafoglio di un utente è cruciale per realizzare la visione di agenti di intelligenza artificiale completamente autonomi. Questa capacità può contribuire a colmare il divario digitale, poiché gli agenti sono spesso meglio attrezzati rispetto alla maggior parte degli utenti umani per gestire asset digitali e contratti intelligenti complessi. Assicurare la sicurezza di questi agenti è fondamentale: come possiamo fidarci di un agente di intelligenza artificiale per gestire asset digitali preziosi?
La natura decentralizzata degli asset digitali richiede misure di sicurezza elevate. Una sfida ancora maggiore si presenta quando gli esseri umani devono navigare attraverso diverse interfacce digitali utilizzate dagli agenti di intelligenza artificiale, aumentando potenzialmente il rischio di phishing e attacchi man-in-the-middle. Come possiamo assicurarci che i pagamenti siano effettuati al destinatario corretto? Sono necessari metodi di identificazione e autenticazione più intuitivi basati sulle interazioni umane per ridurre il divario digitale. Tuttavia, c'è sempre un compromesso tra sicurezza e usabilità.
Un'altra sfida urgente è il potenziale dell'IA di approfondire le attuali disuguaglianze socioeconomiche. Individui e corporation più ricchi sono meglio posizionati per investire in agenti di intelligenza artificiale più sofisticati, capaci di eseguire strategie ad alto impatto e dominare i mercati digitali. Questi agenti avanzati potrebbero ampliare il divario di risorse e opportunità, amplificando efficacemente l'influenza di coloro che sono già privilegiati.
Al contrario, individui o comunità con risorse limitate possono trovarsi ulteriormente emarginati, privi delle capacità digitali avanzate necessarie per competere. Nella nostra visione di internet agentico, gli utenti guadagnano maggiore autonomia e controllo sulla loro presenza digitale, guidati da agenti di intelligenza artificiale. Diamo potere alle comunità di prosperare in un ambiente online più decentralizzato e centrato sull'utente. Gli utenti potrebbero trasformare il loro capitale sociale e/o capitale reputazionale in capitale economico nell'internet agentico.
Vale anche la pena menzionare: poiché gli agenti di intelligenza artificiale sono estensioni o manifestazioni dei loro creatori nel regno digitale, diventa essenziale contemplare le loro responsabilità digitali, diritti digitali e autonomia.
Il 31 ottobre, Bangdao Chen, cofondatore del Centro di Ricerca sulla Blockchain di Oxford, e Ramesh Ramadoss, presidente della Comunità Tecnica Blockchain dell'IEEE, hanno ospitato un evento intitolato "Agenti Intelligenti su una Blockchain Arricchita" al Keble College di Oxford. Ha evidenziato le sfide e le soluzioni progettuali nell'internet agentico: costruire agenti indipendenti e verificabili. Rinominati scienziati informatici, tra cui Richard Sutton FRS FRSC, il "padre dell'apprendimento per rinforzo," e Bill Roscoe FREng, direttore del Centro di Ricerca sulla Blockchain di Oxford, insieme ad altri esperti, hanno presentato all'evento.
Concedere agli agenti di intelligenza artificiale autonomia e capacità di apprendimento potrebbe migliorare la loro fiducia nelle interazioni e aiutare a mitigare gli squilibri sociali. Questo può essere raggiunto attraverso un approccio basato sulla verifica autonoma, dove sicurezza e governance sono programmate come regole registrate su una blockchain. Ecco alcuni modi in cui potremmo definire un insieme di protocolli per creare, addestrare e mantenere "vite digitali":
Verifica degli agenti di intelligenza artificiale
Gli agenti di intelligenza artificiale potrebbero essere verificati utilizzando metodi formali per identificare le loro caratteristiche, simile all'etichettatura dell'acqua in bottiglia con dettagli sul suo contenuto minerale, data di produzione e origine. La verifica formale può migliorare la trasparenza e la fiducia negli agenti di intelligenza artificiale consentendo agli utenti di sapere cosa è l'agente, come potrebbe comportarsi e cosa può generare.
Generazione di ID con governance in mente
La generazione di ID dovrebbe considerare la governance dell'IA e le leggi della natura. Un agente non può semplicemente essere riempito con codice o dati arbitrari per rappresentare una presenza digitale; dovrebbe evolversi nel tempo, rispecchiando il processo di evoluzione del DNA in una forma di vita. Il tempo potrebbe essere considerato un fattore unico nell'ID dell'agente, migliorando la diversità e promuovendo i diritti uguali.
Portafogli Sicuri per Agenti di IA
Gli agenti di intelligenza artificiale dovrebbero avere i propri portafogli, indipendenti dal controllo umano. Questa autonomia porta molteplici vantaggi: gli agenti potrebbero essere più adatti a gestire asset digitali e resistere alle truffe. Gli esseri umani potrebbero delegare operazioni commerciali a questi agenti, specialmente nei regni digitali.
Ma la sicurezza rimane una sfida centrale, richiedendo nuovi protocolli di pagamento per supportare le transazioni da umano ad agente, da agente ad agente e un'economia multi-agente. Potrebbero essere sviluppati protocolli di sicurezza interattivi per autenticare le transazioni da umano ad agente.
Agenti di apprendimento
Gli agenti di intelligenza artificiale che apprendono in modo adattivo dal loro ambiente e dalle interazioni regolano le loro strategie in base al feedback, rendendoli altamente reattivi alle condizioni che cambiano. Attraverso metodi come l'apprendimento per rinforzo, esplorano e sfruttano varie azioni per ottimizzare i risultati, regolando in tempo reale i cambiamenti ambientali. Questi agenti impiegano un apprendimento continuo per mantenere la conoscenza passata mentre si adattano a nuove informazioni, migliorando la loro capacità di gestire ambienti dinamici senza dimenticare compiti precedenti.
I dibattiti sull'AGI che potrebbe prendere il controllo del mondo e rendere obsoleti i lavori sono diffusi. Tuttavia, democratizzando il potere dell'IA attraverso l'Internet Agentico e creando strutture robuste per gli ID e i portafogli degli agenti, possiamo aiutare ad affrontare queste percezioni e costruire un'economia digitale più inclusiva.
Creare il percorso per l'Internet Agentico all'interno della nostra civiltà digitale non è un compito da poco. Questa visione abbraccia più laboratori di ricerca ed è in fase di sviluppo pezzo per pezzo. Non vediamo l'ora di condividere i nostri progressi nei prossimi mesi mentre lavoriamo per rendere questa ambiziosa visione una realtà.
Nota: Le opinioni espresse in questa colonna sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.