O ZKML: ZKML (zero Knowledge Machine Learning) to technologia uczenia maszynowego, która łączy w sobie dowody z wiedzą zerową i algorytmy uczenia maszynowego w celu rozwiązywania problemów związanych z ochroną prywatności w uczeniu maszynowym.
Informacje o rozproszonej mocy obliczeniowej: Rozproszona moc obliczeniowa oznacza rozłożenie zadania obliczeniowego na wiele małych zadań i przypisanie tych małych zadań wielu komputerom lub procesorom w celu przetworzenia w celu uzyskania wydajnego przetwarzania.
Obecna sytuacja sztucznej inteligencji i sieci Web 3: rój pszczół wymykający się spod kontroli i wzrost entropii
W „Out of Control: The New Biology of Machines, Society and the Economy” Kevin Kelly zaproponował kiedyś zjawisko: rodzina pszczół będzie podejmować decyzje wyborcze w tańcu grupowym zgodnie z zarządzaniem rozproszonym, a cała kolonia pszczół podąży za tą grupą taniec Największy rój na świecie dominuje nad wydarzeniem. Jest to także tak zwana „dusza kolonii pszczół”, o której wspomniał Maurice Maeterlinck – każda pszczoła może podjąć własną decyzję i naprowadzić inne pszczoły, aby ją potwierdziły, a ostateczna decyzja należy tak naprawdę do wyboru grupy.
Samo prawo wzrostu i nieporządku entropii jest zgodne z prawem termodynamiki. Teoretyczne ucieleśnienie w fizyce polega na umieszczeniu określonej liczby cząsteczek w pustym pudełku i zmierzeniu końcowego profilu rozkładu. W przypadku ludzi tłumy generowane przez algorytmy mogą wykazywać zasady grupowe pomimo indywidualnych różnic w sposobie myślenia. Często są one ograniczone do pustego pudełka ze względu na takie czynniki, jak czas, i ostatecznie podejmą decyzje oparte na konsensusie.
Oczywiście zasady grupowe mogą nie być prawidłowe, ale liderzy opinii, którzy potrafią reprezentować konsensus i samodzielnie budować konsensus, są absolutnie superindywidualistami. Jednak w większości przypadków konsensus nie dąży do całkowitej i bezwarunkowej zgody wszystkich, a jedynie wymaga ogólnego uznania grupy.
Nie dyskutujemy tutaj o tym, czy sztuczna inteligencja sprowadzi ludzi na manowce. Tak naprawdę toczyło się już wiele takich dyskusji, czy to duża ilość śmieci generowanych przez aplikacje sztucznej inteligencji zanieczyściła autentyczność danych sieciowych, czy też błędy w podejmowaniu decyzji przez grupę. -co doprowadzi do pewnego zdarzenia. Incydent przybrał bardziej niebezpieczny obrót.
Obecna sytuacja sztucznej inteligencji ma naturalny monopol. Na przykład szkolenie i wdrażanie dużych modeli wymaga dużej ilości zasobów obliczeniowych i danych, a takie warunki ma tylko niewielka liczba firm i instytucji. Każdy właściciel monopolu uważa te miliardy danych za skarby. Nie wspominając już o udostępnianiu oprogramowania typu open source, nawet wzajemny dostęp jest niemożliwy.
Powoduje to ogromne marnotrawstwo danych. Każdy wielkoskalowy projekt AI wymaga wielokrotnego gromadzenia danych użytkowników. Ostatecznie zwycięzca bierze wszystko – niezależnie od tego, czy chodzi o fuzje i przejęcia, sprzedaż, rozwój pojedynczych gigantycznych projektów, czy też tradycyjny Internet. , Logika wyścigów rodeo.
Wiele osób twierdzi, że AI i Web3 to dwie różne rzeczy i nie mają ze sobą żadnego związku. Pierwsza połowa zdania jest poprawna. To dwa różne ścieżki, ale druga część zdania jest problematyczna skończy się sztuczna inteligencja, a wykorzystywanie technologii sztucznej inteligencji do wspierania tworzenia zdecentralizowanego mechanizmu konsensusu jest po prostu rzeczą naturalną.
Dedukcja na najniższym poziomie: pozwól sztucznej inteligencji stworzyć prawdziwie rozproszony mechanizm konsensusu grupowego
Trzon sztucznej inteligencji nadal tkwi w samych ludziach. Maszyny i modele to jedynie spekulacje i imitacje ludzkiego myślenia. Tak zwaną grupę właściwie trudno oddzielić od grupy, ponieważ to, co widzimy na co dzień, to prawdziwe jednostki. Jednak model wykorzystuje ogromne ilości danych do nauki i dostosowywania, a na koniec symuluje kształt grupy. Nie ma potrzeby oceniać wyników tego modelu, ponieważ przypadki zła grupowego nie zdarzają się raz i dwa razy. Model ten przedstawia jednak pojawienie się tego mechanizmu konsensusu.
Na przykład w przypadku konkretnego DAO, jeśli zarządzanie zostanie wdrożone jako mechanizm, nieuchronnie będzie to miało wpływ na efektywność. Powodem jest to, że tworzenie konsensusu grupowego jest sprawą kłopotliwą, nie mówiąc już o głosowaniu, statystykach itp. Seria operacje. Jeśli zarządzanie DAO zostanie ujęte w formie modelu sztucznej inteligencji, a całe gromadzenie danych będzie pochodzić z danych dotyczących mowy wszystkich osób w DAO, wówczas decyzje wyjściowe będą w rzeczywistości bliższe konsensusowi grupowemu.
Konsensus grupowy dotyczący pojedynczego modelu można wykorzystać do szkolenia modelu zgodnie z powyższym schematem, ale w przypadku tych osób nadal są to odizolowane wyspy. Jeśli istnieje system inteligencji zbiorowej tworzący grupową sztuczną inteligencję, każdy model sztucznej inteligencji w tym systemie będzie współpracował ze sobą w celu rozwiązywania złożonych problemów, co w rzeczywistości odegra ogromną rolę we wzmacnianiu poziomu konsensusu.
W przypadku małych kolekcji można zbudować ekosystem niezależnie lub utworzyć zestaw współpracujący z innymi kolekcjami, aby efektywniej i przy niższych kosztach sprostać bardzo dużej mocy obliczeniowej lub transakcjom danych. Ale problem pojawia się ponownie. Obecna sytuacja między różnymi modelowymi bazami danych to całkowita nieufność i ochrona przed innymi. Jest to naturalna cecha blockchainu: poprzez brak zaufania można osiągnąć prawdziwie rozproszone bezpieczeństwo pomiędzy maszynami AI.
Globalny inteligentny mózg może sprawić, że modele algorytmów AI, które są pierwotnie od siebie niezależne i mają pojedyncze funkcje, współpracują ze sobą i wykonują wewnętrznie złożone inteligentne procesy algorytmiczne, tak aby w sposób ciągły tworzyć rozproszoną sieć konsensusu grupowego. Jest to również największe znaczenie wzmocnienia pozycji Web3 przez sztuczną inteligencję.
Prywatność i monopol na dane? Połączenie ZK i uczenia maszynowego
Istoty ludzkie muszą podjąć ukierunkowane środki ostrożności przed złymi czynami sztucznej inteligencji lub obawą przed monopolem danych ze względu na ochronę prywatności. Podstawowy problem polega na tym, że nie wiemy, w jaki sposób wyciąga się wnioski. Podobnie operatorzy modelu nie zamierzają odpowiadać na pytania dotyczące tego problemu. Aby zintegrować globalny inteligentny mózg, o którym wspomnieliśmy powyżej, problem ten musi zostać rozwiązany jeszcze bardziej, w przeciwnym razie żaden podmiot danych nie będzie chciał dzielić się swoim rdzeniem z innymi.
ZKML (Zero Knowledge Machine Learning) to technologia wykorzystująca dowód wiedzy zerowej do uczenia maszynowego. Dowód wiedzy zerowej (ZKP) oznacza, że weryfikator może sprawić, że weryfikator uwierzy w autentyczność danych, nie ujawniając przy tym konkretnych danych.
Weź przypadki teoretyczne jako przewodnik. Istnieje standardowe Sudoku 9×9. Warunkiem ukończenia jest wypełnienie dziewięciu plansz liczbami od 1 do 9, tak aby każda liczba mogła pojawić się tylko raz w każdym rzędzie, kolumnie i siatce. Jak więc osoba, która stworzyła tę łamigłówkę, może udowodnić przeciwnikom, że sudoku ma rozwiązanie, nie ujawniając przy tym odpowiedzi?
Po prostu zakryj obszar do wypełnienia odpowiedzią, a następnie losowo poproś przeciwnika, aby wybrał kilka wierszy lub kolumn, przetasował wszystkie liczby i sprawdził, czy wszystkie wynoszą od jednego do dziewięciu. Jest to prosta implementacja dowodu z wiedzą zerową.
Technologia dowodu z wiedzą zerową ma trzy cechy: kompletność, poprawność i wiedzę zerową, co oznacza, że dowodzi wniosku bez ujawniania jakichkolwiek szczegółów. Jego techniczne źródło może odzwierciedlać prostotę. W kontekście szyfrowania homomorficznego trudność weryfikacji jest znacznie mniejsza niż trudność generowania dowodów.
Uczenie maszynowe wykorzystuje algorytmy i modele, aby umożliwić systemom komputerowym uczenie się i doskonalenie na podstawie danych. Ucząc się na doświadczeniach w sposób zautomatyzowany, system może automatycznie wykonywać zadania takie jak predykcja, klasyfikacja, grupowanie i optymalizacja w oparciu o dane i modele.
Uczenie maszynowe polega na budowaniu modeli, które uczą się na podstawie danych i automatycznie dokonują przewidywań i decyzji. Konstrukcja tych modeli zwykle wymaga trzech kluczowych elementów: zbiorów danych, algorytmów i oceny modelu. Zbiory danych stanowią podstawę uczenia maszynowego i zawierają próbki danych używane do uczenia i testowania modeli uczenia maszynowego. Algorytmy stanowią rdzeń modeli uczenia maszynowego i definiują sposób, w jaki model uczy się i przewiduje na podstawie danych. Ocena modelu jest ważną częścią uczenia maszynowego, służącą do oceny wydajności i dokładności modelu oraz podjęcia decyzji, czy model wymaga optymalizacji i ulepszenia.
W tradycyjnym uczeniu maszynowym zbiory danych zwykle muszą być gromadzone w scentralizowanym miejscu w celu szkolenia, co oznacza, że właściciel danych musi udostępnić dane stronie trzeciej, co może prowadzić do ryzyka wycieku danych lub utraty prywatności. Dzięki ZKML właściciele danych mogą udostępniać zbiory danych innym osobom bez wycieku danych. Osiąga się to poprzez stosowanie dowodów z wiedzą zerową.
Kiedy do wzmocnienia uczenia maszynowego wykorzystuje się dowód wiedzy zerowej, efekt powinien być przewidywalny. Rozwiązuje to długotrwały problem czarnej skrzynki prywatności i monopolu na dane: czy strona projektu może to zrobić bez ujawniania danych wejściowych użytkownika lub konkretnych szczegółów. czy po zakończeniu dowodu i weryfikacji każda kolekcja może udostępnić własne dane lub model funkcjonowania bez wycieku prywatnych danych? Oczywiście obecna technologia jest jeszcze wczesna i w praktyce na pewno będzie wiele problemów. Nie przeszkadza to nam w wyobrażaniu sobie, a wiele zespołów już ją rozwija.
Czy ta sytuacja doprowadzi do swobodnego prostytuowania małych baz danych nad dużymi bazami danych? Kiedy myślisz o kwestiach związanych z zarządzaniem, wracasz do naszego myślenia o Web3. Istotą Crypto jest zarządzanie. Niezależnie od tego, czy dzieje się to poprzez szerokie wykorzystanie, czy udostępnianie, należy zapewnić mu odpowiednie zachęty. Niezależnie od tego, czy chodzi o oryginalne mechanizmy Pow, PoS, czy najnowsze różne mechanizmy PoR (Proof of Reputation), efekt zachęty jest gwarantowany.
Rozproszona moc obliczeniowa: innowacyjna narracja przeplatająca się z kłamstwami i rzeczywistością
Zdecentralizowane sieci mocy obliczeniowej zawsze były popularnym scenariuszem w kręgu szyfrowania. W końcu duże modele sztucznej inteligencji wymagają niesamowitej mocy obliczeniowej, a scentralizowane sieci mocy obliczeniowej nie tylko spowodują marnotrawstwo zasobów, ale także utworzą wirtualny monopol – w porównaniu z In. na koniec liczy się tylko liczba procesorów graficznych, co jest zbyt nudne.
Istotą zdecentralizowanej sieci komputerowej jest integracja zasobów obliczeniowych rozproszonych w różnych lokalizacjach i urządzeniach. Główne zalety, o których wszyscy często wspominają, to: zapewnienie rozproszonych możliwości obliczeniowych, rozwiązywanie problemów związanych z prywatnością, zwiększanie wiarygodności i niezawodności modeli sztucznej inteligencji, wspieranie szybkiego wdrażania i działania w różnych scenariuszach aplikacji oraz zapewnianie zdecentralizowanych rozwiązań do przechowywania i zarządzania danymi. Zgadza się, dzięki zdecentralizowanej mocy obliczeniowej każdy może uruchamiać modele sztucznej inteligencji i testować je na rzeczywistych zbiorach danych w łańcuchu od użytkowników z całego świata, dzięki czemu może cieszyć się bardziej elastycznymi, wydajnymi i tańszymi usługami obliczeniowymi.
Jednocześnie zdecentralizowana moc obliczeniowa może rozwiązać problemy związane z prywatnością, tworząc potężne ramy chroniące bezpieczeństwo i prywatność danych użytkowników. Zapewnia także przejrzysty i weryfikowalny proces obliczeniowy, zwiększa wiarygodność i niezawodność modeli sztucznej inteligencji oraz zapewnia elastyczne i skalowalne zasoby obliczeniowe do szybkiego wdrożenia i działania w różnych scenariuszach zastosowań.
Na uczenie modeli patrzymy z punktu widzenia pełnego zestawu scentralizowanych procesów obliczeniowych. Etapy są zwykle podzielone na: przygotowanie danych, segmentację danych, transmisję danych pomiędzy urządzeniami, uczenie równoległe, agregację gradientową, aktualizację parametrów, synchronizację i powtarzane uczenie. W tym procesie, nawet jeśli scentralizowana sala komputerowa wykorzystuje klastry sprzętu obliczeniowego o wysokiej wydajności i dzieli zadania obliczeniowe poprzez szybkie połączenia sieciowe, wysokie koszty komunikacji stały się jednym z największych ograniczeń zdecentralizowanych sieci komputerowych.
Dlatego też, choć zdecentralizowana sieć mocy obliczeniowej ma wiele zalet i potencjału, ścieżka rozwoju jest w dalszym ciągu kręta ze względu na obecne koszty komunikacji i rzeczywiste trudności operacyjne. W praktyce realizacja zdecentralizowanej sieci obliczeniowej wymaga przezwyciężenia wielu praktycznych problemów technicznych, niezależnie od tego, czy chodzi o zapewnienie niezawodności i bezpieczeństwa węzłów, jak efektywnie zarządzać i planować rozproszone zasoby obliczeniowe, czy też jak osiągnąć efektywną transmisję danych i komunikację itp. , to prawdopodobnie wszystkie duże problemy, z jakimi spotykamy się w praktyce.
Ogon: oczekiwania wobec idealistów
Wracając do rzeczywistości biznesowej, narracja o głębokiej integracji AI i Web3 wygląda bardzo dobrze, ale kapitał i użytkownicy za pomocą bardziej praktycznych działań mówią nam, że będzie to niezwykle trudna podróż innowacyjna, chyba że projekt będzie podobny do OpenAI. póki jesteśmy silni, powinniśmy pozyskać silnego sponsora, w przeciwnym razie bezdenne wydatki na badania i rozwój oraz niejasny model biznesowy całkowicie nas zmiażdżą.
Zarówno sztuczna inteligencja, jak i Web3 znajdują się obecnie na niezwykle wczesnym etapie rozwoju, podobnie jak bańka internetowa pod koniec ubiegłego wieku. Dopiero prawie dziesięć lat później oficjalnie rozpoczął się prawdziwy złoty wiek. McCarthy marzył kiedyś o zaprojektowaniu sztucznej inteligencji z wykorzystaniem ludzkiej inteligencji w ciągu jednego urlopu, ale dopiero prawie siedemdziesiąt lat później zrobiliśmy decydujący krok w kierunku sztucznej inteligencji.
Podobnie jest w przypadku Web3+AI. Ustaliliśmy słuszność kierunku dalszego działania, resztę pozostawimy czasowi.
Kiedy fala czasu stopniowo ustępuje, ci ludzie i rzeczy, które pozostają, są kamieniami węgielnymi naszej podróży od science fiction do rzeczywistości.