BlockBeats zpráva, 21. prosince, zakladatel Etherea Vitalik Buterin napsal na sociálních médiích: 'Moje definice AGI (obecné umělé inteligence) je:
AGI je dostatečně silná umělá inteligence, pokud by jednoho dne všichni lidé náhle zmizeli a tato AI byla nahrána do robotického těla, byla by schopna samostatně udržovat civilizaci.
Očividně je to velmi obtížně měřitelná definice, ale myslím, že to je jádro intuitivního rozdílu mezi 'našimi obvyklými AI' a 'AGI', které má mnoho lidí na mysli. Označuje to přechod od nástroje, který neustále závisí na lidském vstupu, k samostatné životní formě.
ASI (superinteligence) je úplně jiná věc - moje definice je, že když lidé již nemají hodnotu pro produktivitu v cyklu (jako v deskových hrách, kde jsme toho vlastně dosáhli až za posledních deset let).
Ano, ASI mě děsí - dokonce i AGI, jak jsem ji definoval, mě děsí, protože přináší zřejmé riziko ztráty kontroly. Podporuji zaměření na vytváření nástrojů pro zlepšení inteligence pro lidi, místo vytváření superinteligentních životních forem.