Spoluzakladatel Etherea Vitalik Buterin navrhuje dočasné "pozastavení" globální výpočetní síly, aby zmírnil rizika vyplývající z potenciálně škodlivé superinteligence AI. V nedávném příspěvku na blogu Buterin varuje, že superinteligentní AI by mohla vzniknout do pěti let s nepředvídatelnými důsledky. Navrhuje snížit výpočetní sílu na průmyslové úrovni až o 99 % na 1-2 roky, aby lidstvu dal čas se připravit. Toto "měkké pozastavení" by bylo zvažováno pouze v případě, že pravidla odpovědnosti se ukáží jako nedostatečná. Buterinova myšlenka kontrastuje s neomezeným vývojem technologií a prosazuje opatrný přístup k pokrokům v AI.