BlockBeats informuje, że 21 grudnia założyciel Ethereum, Vitalik Buterin, opublikował na mediach społecznościowych, że 'moja definicja AGI (ogólnej sztucznej inteligencji) to:
AGI jest wystarczająco silną sztuczną inteligencją, jeśli pewnego dnia wszyscy ludzie nagle znikną, a ta AI zostanie załadowana do robota, będzie w stanie niezależnie kontynuować cywilizację.
Oczywiście, to bardzo trudna do zmierzenia definicja, ale uważam, że to właśnie jest sedno intuicyjnej różnicy między 'naszą zwykłą AI' a 'AGI' w umysłach wielu ludzi. Oznacza to przejście od narzędzia, które wciąż zależy od ludzkiego wkładu, do samowystarczalnej formy życia.
ASI (superinteligencja) to zupełnie inna sprawa - moja definicja to, gdy ludzie w cyklu nie mają już wartości dla wydajności (tak jak w grach planszowych, w rzeczywistości osiągnęliśmy to dopiero w ciągu ostatnich dziesięciu lat).
Tak, ASI budzi we mnie strach - nawet AGI, którą definiuję, również mnie przeraża, ponieważ wiąże się z oczywistym ryzykiem utraty kontroli. Popieram skoncentrowanie naszych wysiłków na budowie narzędzi wspomagających inteligencję dla ludzi, a nie na tworzeniu superinteligentnych form życia.