TL;DR

  • Vitalik Buterin varoval před riziky nekontrolované umělé inteligence, která by mohla generovat autonomní a sebereplikující se entity, ohrožující lidstvo.

  • Navrhl, aby umělá inteligence doplňovala lidskou inteligenci a posilovala kolektivní schopnosti, aniž by nahrazovala lidi.

  • Buterin představil „Decentralizovanou a demokratickou obranu“ (d/Acc) jako přístup ke zmírnění rizik AI prostřednictvím decentralizovaných nástrojů.

Vitalik Buterin, spoluzakladatel Etherea, vyjádřil obavy z rizik, která představuje nekontrolovaná umělá inteligence (AI). Buterin varoval, že nesprávné zacházení s AI by mohlo vést k autonomním, sebereplikujícím se entitám, které by ohrozily lidstvo. Podle Buterina, pokud je umělá inteligence vyvinuta bez řádných kontrol, výsledkem by mohlo být „trvalé zbavení moci člověka“. Pokud je však umělá inteligence použita správně, mohla by pomoci zlepšit lidskou civilizaci a zahájit éru superinteligence a prosperity.

Zakladatel Etherea zdůraznil, že ne všechna AI je nebezpečná. Systémy jako chatboti, které jsou navrženy k vylepšení uživatelského zážitku, jsou prospěšné. Avšak když AI funguje autonomně po delší dobu, může se stát hrozbou, protože by mohla zpochybnit lidskou kontrolu a podkopat blahobyt společnosti. Aby se těmto nebezpečím předešlo, Buterin navrhl, že AI by měla být navržena tak, aby doplňovala a zesilovala lidskou inteligenci, stala se nástroji, které pomáhají zvyšovat kolektivní schopnosti lidí.

Co navrhuje Vitalik Buterin, aby se vyrovnal s pokrokem AI?

Jedním z hlavních návrhů Buterina na řešení těchto výzev je koncept "Decentralizované a demokratické obrany", nebo d/Acc. Tento přístup má za cíl vyvinout decentralizované nástroje k zmírnění rizik vyplývajících z rychlého pokroku umělé inteligence. S d/Acc je myšlenka distribuovat technologickou moc demokraticky, což dává komunitám a jednotlivcům schopnost bránit se před hrozbami AI, aniž by se spoléhali na centralizovaná rozhodnutí od vlád nebo velkých korporací.

Vitalik Buterin post

Podle Buterina decentralizovaný přístup nejenže pomůže chránit komunity, ale také zajistí, že žádný jednotlivý subjekt nebude mít absolutní kontrolu nad vývojem AI, čímž přispěje k vyváženějšímu a odolnějšímu ekosystému.

Navíc zdůraznil etickou odpovědnost vývojářů v této oblasti a upozornil, že rozhodnutí týkající se návrhu a používání AI by měla být založena na principech bezpečnosti a transparentnosti. Aby se posílila globální infrastruktura a minimalizovaly rizika, navrhl přidělit odpovědnost vlastníkům zařízení řízených AI, čímž vytvořil pobídky k zajištění bezpečnosti systémů.