Pod koniec lipca Mark Zuckerberg napisał list wyjaśniający, dlaczego „open source jest niezbędne dla pozytywnej przyszłości AI”, w którym rozwodzi się poetycko na temat potrzeby rozwoju AI w trybie open source. Kiedyś kujonowaty nastoletni założyciel, teraz przemieniony w wakeboardzistę, noszącego złote łańcuchy i walczącego w jiu-jitsu „Zucka”, został okrzyknięty mesjaszem rozwoju modeli open source.

Ale jak dotąd on i zespół Meta nie wypowiedzieli się zbyt wiele na temat tego, jak te modele są wdrażane. Ponieważ złożoność modelu zwiększa wymagania obliczeniowe, jeśli wdrażanie modelu jest kontrolowane przez garstkę aktorów, to czy nie ulegliśmy podobnej formie centralizacji? Zdecentralizowana sztuczna inteligencja obiecuje rozwiązać to wyzwanie, ale technologia ta wymaga udoskonalenia wiodących w branży technik kryptograficznych i unikalnych rozwiązań hybrydowych.

Niniejszy artykuł redakcyjny jest częścią nowego działu DePIN Vertical serwisu CoinDesk, obejmującego rozwijającą się branżę zdecentralizowanej infrastruktury fizycznej.

W przeciwieństwie do scentralizowanych dostawców chmury, zdecentralizowana sztuczna inteligencja (DAI) dystrybuuje procesy obliczeniowe do wnioskowania i szkolenia AI w wielu systemach, sieciach i lokalizacjach. Jeśli zostaną prawidłowo wdrożone, te sieci, rodzaj zdecentralizowanej sieci infrastruktury fizycznej (DePIN), przynoszą korzyści w zakresie odporności na cenzurę, dostępu do obliczeń i kosztów.

DAI stoi przed wyzwaniami w dwóch głównych obszarach: środowisku AI i samej zdecentralizowanej infrastrukturze. W porównaniu do scentralizowanych systemów, DAI wymaga dodatkowych zabezpieczeń, aby zapobiec nieautoryzowanemu dostępowi do szczegółów modelu lub kradzieży i powielaniu zastrzeżonych informacji. Z tego powodu istnieje niedostatecznie zbadana szansa dla zespołów, które koncentrują się na modelach open source, ale dostrzegają potencjalną wadę wydajności modeli open source w porównaniu z ich odpowiednikami z zamkniętym kodem źródłowym.

Zdecentralizowane systemy napotykają na przeszkody w integralności sieci i narzutach zasobów. Na przykład dystrybucja danych klienta w oddzielnych węzłach naraża na więcej wektorów ataków. Atakujący mogą uruchomić węzeł i analizować jego obliczenia, próbować przechwytywać transmisje danych między węzłami, a nawet wprowadzać uprzedzenia, które obniżają wydajność systemu. Nawet w bezpiecznym zdecentralizowanym modelu wnioskowania muszą istnieć mechanizmy audytu procesów obliczeniowych. Węzły są motywowane do oszczędzania kosztów zasobów poprzez prezentowanie niekompletnych obliczeń, a weryfikacja jest skomplikowana przez brak zaufanego, scentralizowanego aktora.

Dowody zerowej wiedzy

Dowody zerowej wiedzy (ZKP), choć obecnie zbyt kosztowne obliczeniowo, są jednym z potencjalnych rozwiązań niektórych wyzwań DAI. ZKP to mechanizm kryptograficzny, który umożliwia jednej stronie (dowodzącemu) przekonanie drugiej strony (weryfikatorowi) o prawdziwości stwierdzenia bez ujawniania żadnych szczegółów na temat samego stwierdzenia, z wyjątkiem jego ważności. Weryfikacja tego dowodu jest szybka dla innych węzłów i oferuje każdemu węzłowi sposób udowodnienia, że ​​działał zgodnie z protokołem. Różnice techniczne między systemami dowodowymi a ich implementacjami (szczegółowe omówienie tego tematu nastąpi później) są ważne dla inwestorów w tej przestrzeni.

Centralizacja obliczeń sprawia, że ​​szkolenie modeli jest dostępne wyłącznie dla garstki dobrze usytuowanych i dysponujących zasobami graczy. ZKP mogą być częścią odblokowywania bezczynnego obliczenia na sprzęcie konsumenckim; na przykład MacBook mógłby wykorzystać swoją dodatkową przepustowość obliczeniową, aby pomóc w szkoleniu modelu w dużym języku, jednocześnie zarabiając tokeny dla użytkownika.

Wdrażanie zdecentralizowanego szkolenia lub wnioskowania przy użyciu sprzętu konsumenckiego jest celem zespołów takich jak Gensyn i Inference Labs; w przeciwieństwie do zdecentralizowanej sieci obliczeniowej, takiej jak Akash lub Render, sharding obliczeń dodaje złożoności, a mianowicie problemu zmiennoprzecinkowego. Wykorzystanie bezczynnych rozproszonych zasobów obliczeniowych otwiera drzwi mniejszym deweloperom do testowania i trenowania własnych sieci — pod warunkiem, że mają dostęp do narzędzi, które rozwiązują powiązane wyzwania.

Obecnie systemy ZKP są pozornie cztery do sześciu rzędów wielkości droższe niż uruchamianie obliczeń natywnie, a w przypadku zadań wymagających dużej mocy obliczeniowej (jak trenowanie modelu) lub niskich opóźnień (jak wnioskowanie modelu) korzystanie z ZKP jest niewspółmiernie wolne. Dla porównania, spadek o sześć rzędów wielkości oznacza, że ​​najnowocześniejszy system (jak Jolt firmy a16z) działający na chipie M3 Max może udowodnić, że program jest 150 razy wolniejszy niż uruchamianie go na kalkulatorze graficznym TI-84.

Zdolność AI do przetwarzania dużych ilości danych sprawia, że ​​jest ona zgodna z dowodami zerowej wiedzy (ZKP), ale potrzeba większego postępu w kryptografii, zanim ZKP będzie można szeroko stosować. Praca wykonywana przez zespoły takie jak Irreducible (który zaprojektował system dowodowy Biniusa i schemat zobowiązań), Gensyn, TensorOpera, Hellas i Inference Labs, między innymi, będzie ważnym krokiem w realizacji tej wizji. Harmonogramy pozostają jednak zbyt optymistyczne, ponieważ prawdziwa innowacja wymaga czasu i postępu matematycznego.

W międzyczasie warto zwrócić uwagę na inne możliwości i rozwiązania hybrydowe. HellasAI i inni opracowują nowe metody reprezentacji modeli i obliczeń, które mogą umożliwić optymistyczną grę wyzwań, pozwalającą tylko na podzbiór obliczeń, które muszą być obsługiwane w zerowej wiedzy. Optymistyczne dowody działają tylko wtedy, gdy występuje staking, możliwość udowodnienia nieprawidłowości i wiarygodne zagrożenie, że obliczenia są sprawdzane przez inne węzły w systemie. Inna metoda, opracowana przez Inference Labs, weryfikuje podzbiór zapytań, w których węzeł zobowiązuje się do wygenerowania ZKP z wiązaniem, ale przedstawia dowód tylko wtedy, gdy zostanie najpierw zakwestionowany przez klienta.

Reasumując

Zdecentralizowane szkolenie i wnioskowanie AI będą służyć jako zabezpieczenie przed konsolidacją władzy przez kilku głównych aktorów, jednocześnie odblokowując wcześniej niedostępne obliczenia. ZKP będą integralną częścią umożliwienia tej wizji. Twój komputer będzie mógł zarabiać prawdziwe pieniądze niezauważalnie, wykorzystując dodatkową moc przetwarzania w tle. Zwięzłe dowody, że obliczenia zostały wykonane prawidłowo, sprawią, że zaufanie, z którego korzystają najwięksi dostawcy chmury, stanie się zbędne, umożliwiając sieciom obliczeniowym z mniejszymi dostawcami przyciąganie klientów korporacyjnych.

Podczas gdy dowody zerowej wiedzy umożliwią tę przyszłość i będą istotną częścią czegoś więcej niż tylko sieci obliczeniowych (jak wizja Ethereum dotycząca ostateczności pojedynczego slotu), ich narzut obliczeniowy pozostaje przeszkodą. Hybrydowe rozwiązania łączące mechanikę teorii gier optymistycznych gier z selektywnym wykorzystaniem dowodów zerowej wiedzy są lepszym rozwiązaniem i prawdopodobnie staną się wszechobecne jako punkt pomostowy, dopóki ZKP nie staną się znacznie szybsze.

Dla rodzimych i nierodzimych inwestorów kryptowalutowych zrozumienie wartości i wyzwań zdecentralizowanych systemów AI będzie kluczowe dla skutecznego rozmieszczania kapitału. Zespoły powinny mieć odpowiedzi na pytania dotyczące dowodów obliczeń węzłów i redundancji sieci. Ponadto, jak zaobserwowaliśmy w wielu projektach DePIN, decentralizacja następuje z czasem, a jasny plan zespołów w kierunku tej wizji jest niezbędny. Rozwiązanie wyzwań związanych z obliczeniami DePIN jest niezbędne do oddania kontroli z powrotem osobom fizycznym i małym deweloperom — jest to istotna część utrzymywania naszych systemów otwartymi, wolnymi i odpornymi na cenzurę.

Uwaga: Poglądy wyrażone w tym artykule są poglądami autora i niekoniecznie odzwierciedlają poglądy firmy CoinDesk, Inc. ani jej właścicieli i podmiotów stowarzyszonych.