Il co-fondatore di Ethereum Vitalik Buterin condivide su Twitter la sua prospettiva unica su AGI (Intelligenza Artificiale Generale) e ASI (Intelligenza Artificiale Superiore), sottolineando l'importanza di concentrarsi sugli strumenti di AI piuttosto che perseguire lo sviluppo di entità intelligenti superiori che possano sostituire l'umanità; è piuttosto spaventato dallo sviluppo eccessivo di AGI e ASI.
AGI è un'intelligenza artificiale in grado di mantenere indipendentemente una civiltà.
Vitalik definisce AGI come un'AI piuttosto potente. Affermando che, se tutti gli umani scomparissero improvvisamente e questa AI fosse installata in un robot, sarebbe in grado di operare autonomamente e mantenere lo sviluppo dell'intera civiltà. Aggiunge che questo concetto si evolverà da un 'uso strumentale' dell'AI tradizionale a una 'forma di vita auto-sostenibile'.
Vitalik osserva che la tecnologia attuale non può simulare tale scenario; non possiamo davvero testare se l'AI possa mantenere una civiltà senza l'intervento umano, ed è ancora più difficile definire gli standard per lo 'sviluppo della civiltà', quali condizioni rappresentano una civiltà in continua operatività, e queste domande sono intrinsecamente complesse, ma questo potrebbe essere la principale fonte di distinzione tra AGI e AI ordinaria.
(Nota: forma di vita auto-sostenibile, si riferisce a organismi o sistemi di vita in grado di acquisire e utilizzare risorse per mantenere le attività vitali, adattarsi ai cambiamenti ambientali e continuare a sopravvivere in determinate condizioni.)
Sottolinea l'importanza degli strumenti di supporto intelligenti, non per far sì che l'AI sostituisca gli esseri umani.
Vitalik definisce l'Intelligenza Artificiale Superiore (ASI) come il momento in cui il progresso dell'AI supera il valore che l'intervento umano può fornire, raggiungendo uno stadio totalmente autonomo e più efficiente. Fa l'esempio degli scacchi, che solo negli ultimi dieci anni hanno realmente raggiunto questa fase, dove il livello dell'AI ha superato le migliori performance ottenute con la cooperazione tra umani e AI, e ammette di essere spaventato da ASI, poiché significa che l'umanità potrebbe realmente perdere il controllo sull'AI.
Vitalik afferma che invece di sviluppare entità intelligenti superiori, è meglio concentrarsi sullo sviluppo di strumenti in grado di potenziare l'intelligenza e le capacità umane. Crede che l'AI dovrebbe supportare l'umanità, non sostituirla. Ritiene che questa direzione di sviluppo potrebbe ridurre il rischio che l'AI non possa essere controllata, migliorando al contempo l'efficienza e la stabilità complessiva della società.
(La minaccia di disoccupazione portata dall'AI generativa: i lavoratori di Amazon saranno completamente sostituiti da flotte di macchine?)
Questo articolo esprime la paura di Vitalik riguardo AGI e ASI: l'umanità deve prioritariamente concentrarsi sugli strumenti di potenziamento dell'intelligenza, non sull'AI come sostituto dell'umanità, ed è apparso per la prima volta su Chain News ABMedia.