Zamyslete se na chvíli, kolik historických faktů přijímáme jako pravdu, aniž bychom zpochybňovali jejich platnost. Co když například knihu ze sedmého století, která podrobně popisuje důležitou bitvu, skutečně přepsal někdo z devátého století? Možná, že vůdce 9. století nechal písaře přepsat účet, aby sloužil jejich politickým nebo osobním aspiracím, což jim umožnilo mít větší moc nebo vytvořit dědictví na základě falešné záminky. 

Samozřejmě netvrdím, že běžně přijímaná historická fakta jsou falešná nebo zmanipulovaná. Přesto to zdůrazňuje obtížnost ověřování historických dat, která předcházejí moderní éře, což symbolizuje problém, který by nekontrolovaný budoucí vývoj AI mohl vrátit.

Současný stav umělé inteligence se odehrává v černých silech, v nichž dominují především mocné entity, které nás vystavují riziku dystopické budoucnosti, kde lze přepisovat pravdy. Posun otevřené umělé inteligence k uzavřenějšímu modelu po podpoře přístupu k vývoji umělé inteligence s otevřeným zdrojovým kódem vyvolal tyto obavy a vyvolal obavy o transparentnost a důvěru veřejnosti.

Pokud se tento trend stane dominantním směrem umělé inteligence, mohou ti, kdo hromadí výpočetní výkon a vyvíjejí pokročilé technologie a aplikace umělé inteligence, vytvářet alternativní reality, včetně vytváření historických příběhů.

Nyní je čas na regulaci AI

Dokud budou centralizované entity skrývat své algoritmy před veřejností, kombinovaná hrozba manipulace s daty a jejich schopnost destabilizovat politické a socioekonomické klima skutečně může změnit běh lidských dějin.

Navzdory četným varováním se organizace po celém světě snaží používat, vyvíjet a hromadit výkonné nástroje umělé inteligence, které mohou v příštím desetiletí překonat rozsah lidské inteligence. I když se tato technologie může ukázat jako užitečná, hrozící hrozba je, že tento vývoj by mohl být zneužit k potlačení svobod, šíření vysoce nebezpečných dezinformačních kampaní nebo použití našich dat k manipulaci se sebou samými. 

Existuje dokonce stále více důkazů o tom, že političtí činitelé a vlády používají běžné generátory obrázků AI k manipulaci voličů a zasévání vnitřních rozporů mezi nepřátelské populace. 

Zprávy, že nejnovější sada AI pro iOS 18 dokáže číst a sumarizovat zprávy, včetně e-mailů a aplikací třetích stran, mnohé znepokojuje, že Big Tech získá přístup k chatům a soukromým datům. Vyvstává tedy otázka: Vstupujeme do budoucnosti, kde nás špatní herci mohou snadno manipulovat prostřednictvím našich zařízení?

Abychom se nebáli, ale předpokládejme, že vývoj modelů umělé inteligence je ponechán na milost a nemilost masivně mocným centralizovaným entitám. Pro většinu z nás je snadné si představit, že tento scénář jde zcela mimo koleje, i když jak vlády, tak Big Tech věří, že fungují v zájmu většího dobra.

V tomto případě průměrní občané nikdy nezískají transparentní přístup k datům používaným k trénování rychle se rozvíjejících modelů umělé inteligence. A protože nemůžeme očekávat, že Big Tech nebo prvky veřejného sektoru budou dobrovolně pohnány k odpovědnosti, je potřeba vytvořit účinné regulační rámce, aby byla budoucnost AI etická a bezpečná.

Abychom se postavili korporátním lobby, které se snaží zablokovat jakékoli regulační opatření týkající se umělé inteligence, je na veřejnosti, aby požadovala, aby politici zavedli nezbytná nařízení k ochraně uživatelských dat a zajistili, že pokroky v oblasti umělé inteligence se vyvíjejí zodpovědně a zároveň stále podporují inovace.

Kalifornie v současné době pracuje na schválení zákona, který by ovládl potenciální nebezpečí AI. Navrhovaná legislativa by omezila používání algoritmů na dětech, vyžadovala by testování modelů na jejich schopnost útočit na fyzickou infrastrukturu a omezila by používání hlubokých padělků – mimo jiné zábradlí. Zatímco někteří zastánci technologií se obávají, že tento návrh zákona bude bránit inovacím v předním světovém technologickém centru, existují také obavy, že nedělá dost pro řešení diskriminace v rámci modelů AI. 

Debata kolem kalifornských legislativních pokusů ukazuje, že regulace samy o sobě nestačí k tomu, aby budoucí vývoj umělé inteligence nemohl být narušen malou menšinou aktérů nebo velkým technologickým kartelem. To je důvod, proč decentralizovaná umělá inteligence spolu s rozumnými regulačními opatřeními poskytuje lidstvu tu nejlepší cestu k využití umělé inteligence beze strachu, že bude soustředěna v rukou mocných. 

Decentralizace = demokratizace

Nikdo nemůže předpovědět, kam přesně nás AI zavede, pokud zůstane nezaškrtnutá. I když se nejhorší scénáře soudného dne nenaplní, současný vývoj AI je nedemokratický, nedůvěryhodný a ukázalo se, že porušuje stávající zákony na ochranu soukromí v zemích, jako je Evropská unie.

Aby vývoj AI nedestabilizoval společnost, nejúčinnějším způsobem, jak napravit kurz AI, je prosadit transparentnost v decentralizovaném prostředí pomocí technologie blockchain.

Decentralizovaný přístup však nejen usnadňuje důvěru prostřednictvím transparentnosti, může také podporovat inovace prostřednictvím lepší spolupráce, poskytovat kontroly proti hromadnému sledování a cenzuře, nabízet lepší odolnost sítě a efektivněji škálovat pouhým přidáním dalších uzlů do sítě.

Představte si, že by neměnný záznam blockchainu existoval během biblických časů, mohli bychom mít trochu více porozumění a kontextu pro analýzu a posouzení smysluplných historických dokumentů, jako jsou svitky od Mrtvého moře. Použití blockchainu k umožnění širokého přístupu k archivům a zároveň zajištění pravosti jejich historických dat je téma, které bylo široce diskutováno.  

Centralizované sítě těží z nízkých nákladů na koordinaci mezi účastníky, protože většina z nich funguje pod jedním centralizovaným subjektem. Decentralizované sítě však těží z kompenzace vyšších nákladů na koordinaci. To znamená vyšší odměny za podrobnější tržní pobídky napříč výpočetními, datovými, inferenčními a dalšími vrstvami AI.

Efektivní decentralizace AI začíná přepracováním vrstev, které tvoří zásobník AI. Každá součást od výpočetního výkonu, dat, modelového školení, jemného ladění a odvození musí být sestavena koordinovaným způsobem s finančními pobídkami, aby byla zajištěna kvalita a široká účast. Zde vstupuje do hry blockchain, který usnadňuje monetizaci prostřednictvím decentralizovaného vlastnictví a zároveň zajišťuje transparentní a bezpečnou spolupráci s otevřeným zdrojovým kódem, aby čelila uzavřeným modelům Big Tech.

Jakékoli regulační opatření by se mělo zaměřit na směrování vývoje umělé inteligence tak, aby pomáhalo lidstvu dosáhnout nových výšin a zároveň umožňovalo a podporovalo konkurenci v oblasti umělé inteligence. Zavedení a podpora odpovědné a regulované umělé inteligence je nejúčinnější, když se provádí v decentralizovaném prostředí, protože její distribuce zdrojů a kontroly drasticky snižuje její korumpovatelný potenciál – a to je hlavní hrozba umělé inteligence, které se chceme vyhnout.

V tomto okamžiku společnost uznává hodnotu umělé inteligence i četná rizika, která nabízí. Do budoucna musí vývoj umělé inteligence najít rovnováhu mezi zvýšením efektivity a zároveň zohledněním etiky a bezpečnosti.

Peter Ionov je hostujícím autorem pro Cointelegraph a ukrajinský podnikatel, inženýr a vynálezce, který vede a řídí několik společností: Robosoft, GT protocol a Ukr Reklama. Peter razí cestu ve Web4, robotice a umělé inteligenci. Je známý svou ambiciózní vizí budoucnosti lidstva, která zahrnuje myšlenku „práce pro roboty, odpočinek pro lidi“ a vývoj technologií, které zlepšují životy a stabilitu lidí.

Tento článek slouží pro obecné informační účely a není zamýšlen a neměl by být považován za právní nebo investiční poradenství. Názory, myšlenky a názory vyjádřené zde patří pouze autorovi a nemusí nutně odrážet nebo reprezentovat názory a názory Cointelegraphu.