Spoluzakladatel Etherea Vitalik Buterin sdílel na Twitteru své jedinečné názory na AGI (obecnou umělou inteligenci) a ASI (umělou superinteligenci), zdůrazňující, že bychom se měli soustředit na nástroje AI, místo abychom usilovali o vývoj superinteligentních bytostí, které by nahradily lidi. Má značný strach z nadměrného rozvoje AGI a ASI.
AGI je umělá inteligence, která je schopna samostatně udržovat civilizaci.
Vitalik definuje AGI jako velmi mocnou AI. Říká, že pokud by všichni lidé najednou zmizeli a tato AI by byla nainstalována do robotů, mohla by samostatně fungovat a udržovat rozvoj celé civilizace. Doplňuje, že tento koncept by se měl posunout od "nástrojové" povahy tradiční AI k určité "samoudržující životní formě."
Vitalik poukazuje na to, že současná technologie není schopna simulovat takové situace, nemůžeme skutečně testovat, zda AI může udržovat civilizaci bez lidí, a je obtížné definovat standardy "rozvoje civilizace", jaké podmínky znamenají, že civilizace pokračuje v chodu, a tyto otázky jsou samy o sobě velmi složité, ale to by mohlo být hlavním rozlišovacím znakem mezi AGI a běžnou AI.
(Poznámka: Samoudržující životní forma, což znamená schopnost samostatně získávat a využívat zdroje pro udržení životních aktivit, přizpůsobovat se změnám prostředí a přežít za určitých podmínek.)
Zdůrazňuje důležitost nástrojů podporujících inteligenci, nikoli nahrazování lidí AI.
Vitalik definuje umělou superinteligenci (ASI) jako okamžik, kdy pokrok AI překoná hodnotu, kterou může lidská účast poskytnout, a dosáhne fáze plné autonomie a vyšší efektivity. Uvádí příklad, že šachy se do této fáze skutečně dostaly teprve v posledních deseti letech, úroveň AI už překonala nejlepší výkony dosažené spoluprací lidí a AI, a přiznává, že ASI ho děsí, protože to znamená, že lidé by mohli skutečně ztratit kontrolu nad AI.
Vitalik říká, že místo vývoje superinteligentních bytostí bychom se měli soustředit na vývoj nástrojů, které by posílily lidskou inteligenci a schopnosti. Domnívá se, že AI by měla podporovat lidi, nikoli je nahrazovat. Věří, že takový vývoj by mohl snížit riziko, že AI nebude pod kontrolou, a současně zvýšit celkovou efektivitu a stabilitu společnosti.
(Hrozba nezaměstnanosti způsobená generativní AI: Budou pracovníci Amazonu kompletně nahrazeni flotilou strojů?)
Tento článek Vitalika o AGI a ASI vyjadřuje obavy: Lidé by se měli prioritně soustředit na nástroje pro zvyšování inteligence, nikoli na to, aby AI nahradila lidi, poprvé se objevil na Chain News ABMedia.