Notizie di BlockBeats, 21 dicembre, il fondatore di Ethereum Vitalik Buterin ha dichiarato sui social media: "La mia definizione di AGI (intelligenza artificiale generale) è:
AGI è un'intelligenza artificiale abbastanza potente, se un giorno tutti gli esseri umani scomparissero improvvisamente e questa IA fosse caricata in un corpo robotico, sarebbe in grado di proseguire la civiltà in modo indipendente.
Chiaramente, questa è una definizione molto difficile da misurare, ma sento che questo è il nucleo della differenza intuitiva tra "l'IA che conosciamo" e "l'AGI" nella mente di molte persone. Segna il passaggio da uno strumento che dipende costantemente dall'input umano a una forma di vita autosufficiente.
ASI (super intelligenza artificiale) è completamente un'altra questione - la mia definizione è che quando gli esseri umani non producono più valore per la produttività in un ciclo (proprio come nei giochi da tavolo, in realtà siamo arrivati a questo punto solo negli ultimi dieci anni).
Sì, l'ASI mi fa paura - anche l'AGI che definisco mi spaventa, perché porta con sé rischi evidenti di perdita di controllo. Sostengo di concentrare il nostro lavoro sulla costruzione di strumenti di potenziamento dell'intelligenza per l'umanità, piuttosto che costruire forme di vita super intelligenti.