O ZKML: ZKML (Zero Knowledge Machine Learning) je technologie strojového učení, která kombinuje důkazy s nulovými znalostmi a algoritmy strojového učení k řešení problémů ochrany soukromí ve strojovém učení.

O distribuovaném výpočetním výkonu: Distribuovaný výpočetní výkon se týká rozložení výpočetního úkolu na několik malých úkolů a přiřazení těchto malých úkolů více počítačům nebo procesorům ke zpracování za účelem dosažení efektivního výpočtu.

Současná situace umělé inteligence a webu 3: Roj včel mimo kontrolu a nárůst entropie

Kevin Kelly v knize „Out of Control: The New Biology of Machines, Society and the Economy“ jednou navrhl fenomén: včelstvo bude rozhodovat o volbách ve skupinovém tanci podle distribuovaného řízení a celé včelstvo bude tuto skupinu následovat. tanec.Největší roj na světě dominuje události. Toto je také takzvaná "duše včelstva", o které se zmiňuje Maurice Maeterlinck - každá včela se může rozhodnout sama a navést ostatní včely, aby to potvrdily, a konečné rozhodnutí je skutečně na skupině.

Samotný zákon nárůstu entropie a neuspořádanosti se řídí zákonem termodynamiky. Teoretickým ztělesněním fyziky je umístit určitý počet molekul do prázdné krabice a změřit konečný distribuční profil. Speciálně pro lidi, davy generované algoritmy mohou ukázat skupinová pravidla navzdory individuálním rozdílům v myšlení. Často jsou omezeny v prázdné krabici kvůli faktorům, jako je čas, a nakonec udělají konsensuální rozhodnutí.

Samozřejmě, že skupinová pravidla nemusí být správná, ale názoroví vůdci, kteří dokážou zastupovat konsenzus a dokážou konsenzus samostatně budovat, jsou absolutní super jedinci. Ale ve většině případů konsensus nesleduje úplný a bezpodmínečný souhlas všech, ale vyžaduje pouze obecné uznání skupiny.

Nejsme zde proto, abychom diskutovali o tom, zda umělá inteligence zavede lidi na scestí. Ve skutečnosti již existuje mnoho takových diskusí, ať už jde o velké množství odpadu generovaného aplikacemi umělé inteligence, které znečišťuje autenticitu síťových dat, nebo o chyby ve skupině. rozhodování, které povede k nějaké Incident nabral nebezpečnější spád.

Současná situace AI má přirozený monopol Například školení a nasazení velkých modelů vyžaduje velké množství výpočetních zdrojů a dat a tyto podmínky má jen malý počet firem a institucí. Tyto miliardy dat považuje každý monopolní vlastník za poklad, nemluvě o sdílení open source, dokonce i vzájemný přístup je nemožný.

To má za následek obrovské plýtvání daty Každý rozsáhlý AI projekt vyžaduje opakované shromažďování uživatelských dat. Vítěz bere nakonec vše – ať už jde o fúze a akvizice, prodeje, expanzi jednotlivých obřích projektů nebo tradiční internet. Logika rodeových závodů.

Mnoho lidí říká, že AI a Web3 jsou dvě různé věci a nemají žádnou spojitost. První polovina věty je správná, ale druhá polovina věty je problematická monopol umělé inteligence skončí a využívání technologie umělé inteligence k podpoře vytváření decentralizovaného mechanismu konsenzu je prostě přirozená věc.

Odpočet na nejnižší úrovni: Nechte umělou inteligenci, aby vytvořila mechanismus skutečně distribuovaného skupinového konsenzu

Jádro umělé inteligence stále spočívá v lidech samotných Stroje a modely jsou jen spekulace a napodobování lidského myšlení. Takzvanou skupinu je vlastně těžké abstrahovat od skupiny, protože to, co vidíme každý den, jsou skuteční jedinci. Ale model používá obrovské množství dat k učení a úpravám a nakonec simuluje tvar skupiny. Výsledky tohoto modelu není nutné hodnotit, protože incidenty skupinového zla se nestanou jednou nebo dvakrát. Model však představuje vznik tohoto konsensuálního mechanismu.

Například pro konkrétní DAO, pokud je správa implementována jako mechanismus, bude to mít nevyhnutelně dopad na efektivitu Důvodem je, že vytváření skupinového konsensu je problematická věc, nemluvě o hlasování, statistikách atd. Series operace. Pokud je řízení DAO ztělesněno ve formě modelu AI a veškerý sběr dat pochází z řečových dat všech v DAO, pak budou výstupní rozhodnutí ve skutečnosti blíže skupinovému konsensu.

Skupinový konsenzus jediného modelu lze použít k trénování modelu podle výše uvedeného schématu, ale pro tyto jedince jsou to přeci jen izolované ostrovy. Pokud existuje systém kolektivní inteligence k vytvoření skupinové umělé inteligence, bude každý model umělé inteligence v tomto systému vzájemně spolupracovat na řešení složitých problémů, což bude ve skutečnosti hrát velkou roli při posilování úrovně konsensu.

U malých sbírek můžete vytvořit ekosystém nezávisle nebo můžete vytvořit kooperativní sadu s jinými kolekcemi, abyste mohli efektivněji a s nízkými náklady zvládat extrémně velký výpočetní výkon nebo datové transakce. Ale problém nastává znovu, současná situace mezi různými modelovými databázemi je naprostá nedůvěra a ochrana před ostatními. To je přirozený atribut blockchainu: díky nedůvěře lze dosáhnout skutečně distribuované bezpečnosti mezi AI stroji.

Globální inteligentní mozek dokáže vytvořit modely algoritmů umělé inteligence, které jsou původně na sobě nezávislé a mají jednotlivé funkce, které spolu spolupracují, a interně spouštějí složité procesy inteligentních algoritmů, aby tak neustále tvořily distribuovanou skupinovou konsensuální síť. To je také největší význam posílení AI Web3.

Soukromí a monopol na data? Kombinace ZK a strojového učení

Lidské bytosti musí přijmout cílená opatření proti zlým skutkům AI nebo strachu z monopolu na data kvůli ochraně soukromí. Zásadním problémem je, že nevíme, jak se k závěru dospělo. Podobně ani operátoři modelu nehodlají odpovídat na otázky týkající se tohoto problému. Pro integraci globálního inteligentního mozku, o kterém jsme se zmínili výše, je potřeba tento problém vyřešit ještě více, jinak nebude žádná datová strana ochotna sdílet jeho jádro s ostatními.

ZKML (Zero Knowledge Machine Learning) je technologie, která využívá důkaz nulových znalostí pro strojové učení. Zero-Knowledge Proofs (ZKP) znamená, že ověřovatel může přesvědčit ověřovatele, aby věřil v pravost dat, aniž by odhalil konkrétní data.

Berte teoretické případy jako vodítko. Existuje standardní sudoku 9×9 Podmínkou dokončení je vyplnit devět mřížek čísly od 1 do 9 tak, aby se každé číslo mohlo objevit pouze jednou v každém řádku, sloupci a mřížce. Jak tedy ten, kdo vytvořil tuto hádanku, dokáže vyzyvatelům, že sudoku má řešení, aniž by prozradil odpověď?

Stačí zakrýt výplň odpovědí a poté nechat vyzyvatele náhodně vybrat několik řádků nebo sloupců, zamíchat všechna čísla a ověřit, zda jsou všechna od jedné do devíti. Toto je jednoduchá implementace důkazu nulových znalostí.

Technologie Zero-knowledge proof má tři vlastnosti: úplnost, správnost a nulovou znalost, což znamená, že dokazuje závěr, aniž by prozrazovala jakékoli detaily. Jeho technický zdroj může odrážet jednoduchost V kontextu homomorfního šifrování je obtížnost ověření mnohem nižší než obtížnost generování důkazů.

Strojové učení využívá algoritmy a modely, které počítačovým systémům umožňují učit se a zlepšovat se z dat. Učením ze zkušeností automatizovaným způsobem může systém automaticky provádět úkoly, jako je predikce, klasifikace, shlukování a optimalizace na základě dat a modelů.

Ve své podstatě spočívá strojové učení ve vytváření modelů, které se učí z dat a automaticky provádějí předpovědi a rozhodnutí. Konstrukce těchto modelů obvykle vyžaduje tři klíčové prvky: datové sady, algoritmy a vyhodnocení modelu. Datové sady jsou základem strojového učení a obsahují vzorky dat používané k trénování a testování modelů strojového učení. Algoritmy jsou jádrem modelů strojového učení a definují, jak se model učí a předpovídá z dat. Vyhodnocení modelu je důležitou součástí strojového učení, používá se k hodnocení výkonu a přesnosti modelu a rozhodování, zda je potřeba model optimalizovat a vylepšit.

V tradičním strojovém učení je obvykle potřeba soubory dat shromažďovat na centralizovaném místě pro školení, což znamená, že vlastník dat musí data sdílet s třetí stranou, což může vést k riziku úniku dat nebo úniku soukromí. Pomocí ZKML mohou vlastníci dat sdílet soubory dat s ostatními, aniž by došlo k úniku dat.

Když se k posílení strojového učení použije důkaz s nulovými znalostmi, účinek by měl být předvídatelný. Tím se řeší dlouhodobý problém černé skříňky na ochranu soukromí a monopolu na data: zda to může projektová strana udělat, aniž by odhalila uživatelská data nebo konkrétní podrobnosti. Model může být po dokončení důkazu a ověření schopen sdílet svá vlastní data nebo model pro fungování bez úniku soukromých dat? Na současnou technologii je samozřejmě ještě brzo a v praxi bude určitě mnoho problémů. To nám nebrání v představivosti a mnoho týmů ji již vyvíjí.

Povede tato situace k volné prostituci malých databází proti velkým databázím? Když přemýšlíte o otázkách správy, vrátíte se k našemu myšlení Web3. Podstatou Crypto je správa. Ať už je to prostřednictvím rozsáhlého používání nebo sdílení, mělo by se mu dostat náležitých pobídek. Ať už prostřednictvím původních mechanismů Pow, PoS nebo nejnovějších různých mechanismů PoR (Proof of Reputation mechanismy), motivační efekt je zaručen.

Distribuovaný výpočetní výkon: inovativní příběh propletený se lží a realitou

Decentralizované sítě výpočetního výkonu byly vždy oblíbeným scénářem v kruhu šifrování Koneckonců, velké modely umělé inteligence vyžadují úžasný výpočetní výkon a sítě centralizovaného výpočetního výkonu nejen způsobí plýtvání zdroji, ale také vytvoří virtuální monopol – ve srovnání s In. konec, záleží jen na počtu GPU, což je příliš nudné.

Podstatou decentralizované počítačové sítě je integrace výpočetních zdrojů rozptýlených na různých místech a zařízeních. Hlavní výhody, které všichni často zmiňují, jsou: poskytování distribuovaných výpočetních schopností, řešení problémů s ochranou soukromí, zvýšení důvěryhodnosti a spolehlivosti modelů umělé inteligence, podpora rychlého nasazení a provozu v různých aplikačních scénářích a poskytování decentralizovaných řešení pro ukládání a správu dat. Je to tak, prostřednictvím decentralizovaného výpočetního výkonu může kdokoli provozovat modely umělé inteligence a testovat je na skutečných souborech dat v řetězci od globálních uživatelů, takže si může užívat flexibilnější, efektivnější a levnější počítačové služby.

Decentralizovaný výpočetní výkon může zároveň vyřešit problémy s ochranou soukromí vytvořením výkonného rámce pro ochranu bezpečnosti a soukromí uživatelských dat. Poskytuje také transparentní a ověřitelný výpočetní proces, zvyšuje důvěryhodnost a spolehlivost modelů umělé inteligence a poskytuje flexibilní a škálovatelné výpočetní zdroje pro rychlé nasazení a provoz v různých aplikačních scénářích.

Na trénování modelu se díváme z kompletní sady centralizovaných výpočetních procesů Kroky se obvykle dělí na: přípravu dat, segmentaci dat, přenos dat mezi zařízeními, paralelní trénink, agregaci gradientů, aktualizaci parametrů, synchronizaci a opakované školení. V tomto procesu, i když centralizovaná počítačová učebna používá cluster vysoce výkonného výpočetního zařízení ke sdílení výpočetních úloh prostřednictvím vysokorychlostního síťového připojení, vysoké komunikační náklady se staly jedním z největších omezení decentralizovaných počítačových sítí.

Proto, i když má decentralizovaná výpočetní síť mnoho výhod a potenciálu, cesta vývoje je stále klikatá podle aktuálních nákladů na komunikaci a skutečné provozní náročnosti. V praxi vyžaduje realizace decentralizované výpočetní sítě překonání mnoha praktických technických problémů, ať už jde o to, jak zajistit spolehlivost a bezpečnost uzlů, jak efektivně řídit a plánovat distribuované výpočetní zdroje, nebo jak dosáhnout efektivního přenosu dat a komunikace atd. , jsou pravděpodobně všechny velké problémy, se kterými se v praxi setkáváme.

Ocas: Očekávání ponechána idealistům

Když se vrátíme do obchodní reality, příběh o hluboké integraci AI a Web3 vypadá tak dobře, ale kapitál a uživatelé nám pomocí praktičtějších akcí říkají, že je to předurčeno jako extrémně obtížná inovační cesta, pokud projekt nemůže být jako OpenAI. i když jsme silní, měli bychom přijmout silného sponzora, jinak nás bezedné výdaje na výzkum a vývoj a nejasný obchodní model úplně rozdrtí.

Umělá inteligence i Web3 jsou nyní v extrémně rané fázi vývoje, stejně jako internetová bublina na konci minulého století. Teprve téměř o deset let později oficiálně začal skutečný zlatý věk. McCarthy kdysi snil o navrhování umělé inteligence s lidskou inteligencí během jedné dovolené, ale až téměř o sedmdesát let později jsme skutečně udělali kritický krok směrem k umělé inteligenci.

Totéž platí pro Web3+AI Správnost směru vpřed jsme určili a zbytek necháme na čase.

Když příliv času postupně ustupuje, lidé a věci, které zůstávají stát, jsou základními kameny naší cesty od sci-fi k realitě.