CoinVoice ha recentemente appreso che, riguardo a OpenAI e alle dinamiche recenti dei prodotti AGI nel campo dell'AI, il fondatore di Ethereum, Vitalik Buterin, ha dichiarato sulla piattaforma X: "La mia definizione di AGI (intelligenza artificiale generale) è: AGI è un'intelligenza artificiale sufficientemente potente che, se un giorno tutti gli esseri umani dovessero scomparire all'improvviso e tale AI fosse caricata in un corpo robotico, sarebbe in grado di continuare la civiltà in modo indipendente."

Chiaramente, questa è una definizione molto difficile da misurare, ma penso che sia proprio il cuore della distinzione intuitiva che molte persone hanno in mente tra 'l'AI che conosciamo' e 'AGI'. Segna il passaggio da uno strumento che dipende costantemente dall'input umano a una forma di vita autosufficiente. ASI (superintelligenza artificiale) è invece un'altra storia: la mia definizione è che quando gli esseri umani non contribuiscono più al valore della produttività (come nel caso dei giochi da tavolo, dove in realtà ci siamo arrivati solo negli ultimi dieci anni).

Sì, ASI mi fa paura - persino l'AGI che definisco mi spaventa, perché porta con sé un evidente rischio di perdita di controllo. Sostengo di concentrare il nostro lavoro sulla costruzione di strumenti di potenziamento dell'intelligenza per gli esseri umani, piuttosto che costruire forme di vita superintelligenti.”[Link originale]