Młodsi czytelnicy mogą nie pamiętać, ale przetwarzanie w chmurze było kiedyś przyszłością. Pojawienie się nieograniczonych zasobów obliczeniowych i pamięci masowej stanowiło jedną z niewielu „rewolucji” technologicznych godnych tej nazwy. Jednak era sztucznej inteligencji sprawiła, że ​​scentralizowany model chmury stał się nie tylko przestarzały, ale także stanowił aktywne zagrożenie dla osób, które na nim korzystają, a także dla każdego użytkownika.

Szczyt AI podczas Consensus 2024 odbędzie się w piątek 31 maja w Austin w Teksasie.

Jeśli brzmi to nieco przesadnie, weź pod uwagę niedawno odkrytą lukę w zabezpieczeniach Hugging Face, głównej platformy AI jako usługi. Ta luka może potencjalnie pozwolić zmodyfikowanym modelom przesłanym przez użytkowników na wykonanie dowolnego kodu za pośrednictwem funkcji API wnioskowania w celu uzyskania większej kontroli. Na szczęście zostało to wykryte w porę i nie wydawało się, aby miało to poważny wpływ na użytkowników — chociaż badacze podkreślają, że tego typu luki „nie są wcale wyjątkowe”.

Problem tutaj wcale nie dotyczy sztucznej inteligencji; to przestarzałe, scentralizowane modele X-as-a-Service, w których nie ma motywacji ani do gwarantowania bezpieczeństwa swoich systemów, ani do tworzenia aplikacji, których pragnie rynek i zwykli użytkownicy. Preferowaną przyszłość sztucznej inteligencji – w której będzie ona bezpieczna i przede wszystkim zdolna do korzystania z ogromnych zasobów obliczeniowych – można osiągnąć jedynie poprzez wywrócenie chmury do góry nogami i przyjęcie rewolucji decentralizacyjnej.

„Wielka Chmura” i monopolizacja AI

Megakorporacje, takie jak Microsoft, OpenAI, Google i Amazon, dominują w dziedzinie sztucznej inteligencji, ponieważ dysponują ogromnymi zasobami finansowymi, ludzkimi i obliczeniowymi niezbędnymi do zapewnienia jej działania na dużą skalę.

Jest to straszne dla rozwoju sztucznej inteligencji i całkowicie sprzeczne z jej potencjałem demokratyzującym. Kiedy algorytmy i aplikacje są tworzone przez małą grupę programistów w kalifornijskich firmach wartych bilion dolarów, narzuca to agentom sztucznej inteligencji przymknięte oczy, jednowymiarowe i niezwykle subiektywne nastawienie. Ma to wpływ na wszystko, od usług finansowych, po kreatywność… a nawet interakcje międzyludzkie.

Istnieją równie przekonujące argumenty techniczne przeciwko monopolizacji rynku sztucznej inteligencji. Przez cały proces szkoleniowy sztuczna inteligencja musi stale zasilać się nowymi danymi, w tym pochodzącymi z innych zastosowań sztucznej inteligencji. Jednak obecne tendencje centralizacyjne dużej sztucznej inteligencji oznaczają, że platformy i aplikacje pozostają w dużym stopniu odizolowane, nawet w przypadku modeli typu open source. Utrudnia to innowacje i pozostawia otwarte pole dla błędów lub złośliwych aplikacji, które mogą się mnożyć z zawrotnymi, potencjalnie katastrofalnymi skutkami.

Co więcej, model scentralizowany niesie ze sobą ogromne i oczywiste ryzyko, jeśli chodzi o ochronę danych osobowych użytkowników, prywatności, a w wielu przypadkach informacji finansowych. Gdy jeden podmiot przechowuje ogromne ilości wrażliwych i krytycznych danych biznesowych, stanowi pojedynczy punkt awarii dla atakujących i umożliwia jednemu dostawcy cenzurowanie lub odmawianie usług użytkownikom na podstawie arbitralnych i niepodważalnych decyzji.

Demokratyzacja poprzez decentralizację

Jeśli chodzi o sztuczną inteligencję, model chmurowy jest zdecydowanie niebezpiecznym ślepym zaułkiem. Sztuczna inteligencja wymaga tak fenomenalnej ilości mocy obliczeniowej, że rozciąga możliwości nawet hiperskalowych scentralizowanych platform chmurowych i obsługującej je branży mikrochipów. Niedobór chipów jest tak poważny, że na serwery H-100 wykorzystywane przez najbardziej zaawansowane aplikacje AI w branży trzeba czekać aż 52 tygodnie.

Dzięki decentralizacji możemy za jednym zamachem wyeliminować ten problem, tworząc sieć węzłów ujarzmiających ogromne rezerwy niewykorzystanej mocy procesora. To modułowe podejście do zdecentralizowanej infrastruktury fizycznej (DePIN) jest idealne z wielu powodów: jest niemal nieskończenie skalowalne, znacznie tańsze niż uruchamianie nowych serwerów u dostawcy usług w chmurze (koszty są zwykle o około 80% niższe) oraz przyczynia się do przetwarzania równoległego i -siloizacja sztucznej inteligencji, dzięki czemu aplikacje mogą łatwiej uczyć się od siebie nawzajem. Ponadto zdecentralizowana sztuczna inteligencja, obsługiwana przez technologię blockchain, oferuje innowacyjne sposoby nagradzania twórców dużych modeli językowych (LLM) za pomocą tokenów kryptograficznych i inteligentnych kontraktów, zapewniając zrównoważony i sprawiedliwy model nagradzania innowacji i wkładu w dziedzinie sztucznej inteligencji.

Pojawienie się nowych modeli gospodarczych – w szczególności tych opartych na tokenach cyfrowych – nie tylko zwiększa zapotrzebowanie na bezpieczniejszą zdecentralizowaną infrastrukturę; też to wspiera. Oparcie ekosystemu sztucznej inteligencji na ekonomii tokenów zachęca programistów do tworzenia bezpieczniejszych agentów sztucznej inteligencji i umożliwia im dostarczanie tych modeli do portfela kryptowalutowego w celu uzyskania własności. Daje to użytkownikom całkowity spokój ducha, że ​​ich dane należą do nich i nie można ich udostępniać bez ich wiedzy i zgody.

Być może najważniejsze ze wszystkiego jest to, że model tokenowy oznacza, że ​​projekty AI zapewnią to, czego naprawdę chce i potrzebuje rynek, ponieważ koszty obliczeń i przechowywania odzwierciedlają żelazne prawo podaży i popytu. Przy obecnej monopolizacji sztuczna inteligencja nie ma motywacji do zaspokajania rzeczywistych potrzeb i żądań. W ramach decentralizacji użytkownicy sami mogą nagradzać programistów w oparciu o popularność agenta AI lub dobro, jakie wnosi on do świata. Nie mogłoby to bardziej różnić się od oligarchii Big Tech, która obecnie – ale nie na długo – rządzi AI.

Decentralizacja stanowi również odpowiedź na luki, które zaobserwowaliśmy na platformach takich jak Hugging Face. Wraz z szybką ewolucją technologii blockchain – w szczególności dowodów o wiedzy zerowej (ZK) – dysponujemy obecnie szeregiem narzędzi zapewniających bezpieczeństwo i pochodzenie aplikacji AI. Ci z nas, którzy są blisko tych zmian, często mogą zapomnieć o szybkości i głębokości tej technologicznej transformacji. To nie jest tak, że tradycyjni dostawcy usług w chmurze zawzięcie walczą o zachowanie przestarzałych modeli; po prostu decentralizacja i ZK to bardzo nowe wynalazki i naturalnie potrzeba trochę czasu, aby gracze z branży zdali sobie sprawę, jak najlepiej można je zastosować w ich interesie (i ich klientach).

Jest to w dużej mierze kwestia edukacji: pokazanie, że zdecentralizowana architektura sztucznej inteligencji, jeśli jest prawidłowo zbudowana, jest prywatna i bezpieczna z założenia, a wszystkie dane w łańcuchu są szyfrowane, a jednocześnie nadal wspiera interakcję i współpracę między różnymi projektami, węzłami i stronami.

W przypadku sztucznej inteligencji centralizacja nie działa na żadnym poziomie: technicznym, filozoficznym, etycznym czy rynkowym. Co więcej, sugeruję, że w sytuacji, gdy ludzie są coraz bardziej zmęczeni (i ostrożni) ogromnym wpływem Big Tech – od programistów, przez dostawców technologii, po zwykłych użytkowników, takich jak Ty i ja – najwyraźniej nadszedł czas na naszą własną rewolucję.

Uwaga: poglądy wyrażone w tej kolumnie są poglądami autora i niekoniecznie odzwierciedlają poglądy CoinDesk, Inc. lub jej właścicieli i podmiotów stowarzyszonych.