rounded

Napisał: Hack VC

Opracowano przez: TinTinLand

 

AI to ostatnio jeden z najgorętszych i najbardziej obiecujących obszarów na rynku kryptowalut:

 

  • Zdecentralizowane szkolenie AI

  • DePINy GPU

  • Nieocenzurowane modele AI

 

Czy to przełom, czy tylko szum? Hack VC analizuje najlepsze pomysły na kombinacje Crypto✖️AI, omówmy razem prawdziwe wyzwania i możliwości!

 

Pomysły z potencjałem i wyzwaniami

 

Zacznijmy od „perspektywy sztucznej inteligencji Web3” – wokół tych pomysłów panuje spory szum, ale rzeczywistość może nie być tak idealna.

 


Pomysł nr 1: Zdecentralizowane szkolenie AI

 

Problem ze szkoleniem AI w łańcuchu polega na tym, że szkolenie wymaga szybkiej komunikacji i koordynacji między procesorami graficznymi, ponieważ sieci neuronowe wymagają propagacji wstecznej podczas szkolenia. Nvidia oferuje w tym celu dwie innowacje (NVLink i InfiniBand). Techniki te skutecznie przyspieszają komunikację GPU, ale są ograniczone do klastrów GPU w jednym centrum danych (prędkości ponad 50 Gb/s).

 

Jeśli zostanie wprowadzona zdecentralizowana sieć, prędkość nagle spadnie o kilka rzędów wielkości z powodu zwiększonych opóźnień i przepustowości sieci. Nie jest to początek w przypadku zastosowań szkoleniowych AI w porównaniu z szybkimi połączeniami wzajemnymi firmy Nvidia w centrach danych.

 

Należy zauważyć, że oto kilka innowacji, które mogą zapewnić nowe możliwości na przyszłość:

 

Rozproszone szkolenia za pośrednictwem InfiniBand odbywają się na dużą skalę, ponieważ NVIDIA natywnie obsługuje rozproszone, nielokalne szkolenia za pośrednictwem biblioteki NVIDIA Collective Communication Library. Jest to jednak wciąż na wczesnym etapie, więc wskaźniki wdrożenia nie zostały jeszcze określone. Wąskie gardło spowodowane odległością fizyczną nadal istnieje, więc lokalne szkolenie za pomocą InfiniBand jest nadal znacznie szybsze.

 

Niedawno opublikowano nowatorskie badania, które pokazują, że poleganie na mniejszej synchronizacji komunikacji może w przyszłości uczynić zdecentralizowane szkolenie bardziej praktycznym.

 

Inteligentne planowanie fragmentowania i szkolenia modeli może również pomóc w poprawie wydajności. Podobnie w przyszłości nowe architektury modelowe mogą zostać zaprojektowane specjalnie dla infrastruktury zdecentralizowanej (Gensyn pracuje nad tymi obszarami).

 

Część szkolenia oparta na danych również stanowi wyzwanie. Każdy proces szkolenia AI wiąże się z przetwarzaniem dużych ilości danych. Zazwyczaj modele są szkolone w scentralizowanych i bezpiecznych systemach przechowywania danych o wysokiej skalowalności i wydajności. Wymaga to przesłania i przetworzenia terabajtów danych i nie jest to cykl jednorazowy. Dane są często zaszumione i zawierają błędy, dlatego przed nauczeniem modelu należy je oczyścić i przekonwertować na użyteczny format. Ten etap obejmuje powtarzające się zadania normalizacji, filtrowania i obsługi brakujących wartości. Stanowią one poważne wyzwania w zdecentralizowanym środowisku.

 

Część szkolenia oparta na danych jest również iteracyjna, co nie jest dobrze dostosowane do Web3. Osiągnięcie oczekiwanych wyników wymagało od OpenAI tysięcy iteracji. Najbardziej podstawowe scenariusze zadań ekspertów ds. nauki danych w zespołach AI obejmują definiowanie celów, przygotowywanie danych, analizowanie i strukturyzowanie danych w celu wydobycia ważnych spostrzeżeń i dostosowania ich do modelowania. Następnie opracuj model uczenia maszynowego, aby rozwiązać zdefiniowany problem i zweryfikuj jego działanie za pomocą testowego zbioru danych. Proces jest iteracyjny: jeśli bieżący model nie działa zgodnie z oczekiwaniami, eksperci powrócą do fazy gromadzenia danych lub szkolenia modelu, aby poprawić wyniki. Teraz wyobraź sobie, jak wyglądałby ten proces w zdecentralizowanym środowisku, w którym najlepsze istniejące frameworki i narzędzia w Web3 nie są łatwo dostępne.

 

Innym problemem związanym ze szkoleniem modeli AI w łańcuchu jest to, że jest to mniej interesujący rynek niż wnioskowanie. Obecnie duża ilość zasobów obliczeniowych GPU jest wykorzystywana do szkoleń AI LLM. Jednak w dłuższej perspektywie wnioskowanie stanie się bardziej powszechnym przypadkiem użycia procesorów graficznych. Pomyśl o tym: ilu menedżerów AI LLM należy przeszkolić, aby zadowolić użytkowników na całym świecie i ilu klientów korzysta z tych modeli?

 

Jednym z rozwiązań, które czyni postępy na wszystkich frontach, jest 0g.ai, które zapewnia infrastrukturę do przechowywania danych w łańcuchu i dostępność danych. Ich ultraszybka architektura i możliwość przechowywania dużych ilości danych w łańcuchu pozwala na szybkie, iteracyjne szkolenie modeli AI w łańcuchu.

 

Pomysł nr 2: Użyj nadmiernie zbędnych obliczeń wnioskowania AI, aby osiągnąć konsensus

 

Jednym z wyzwań związanych z CryptoxAI jest weryfikacja dokładności wnioskowania AI, ponieważ nie można w pełni zaufać pojedynczej scentralizowanej stronie, która dokona wnioskowania, i może istnieć ryzyko nieprawidłowego działania węzłów. W przypadku sztucznej inteligencji Web2 to wyzwanie nie istnieje, ponieważ nie ma zdecentralizowanego systemu konsensusu.

 

Jedną z propozycji rozwiązania tego problemu jest przetwarzanie nadmiarowe, w którym wiele węzłów powtarza te same operacje wnioskowania AI, dzięki czemu mogą działać w sposób pozbawiony zaufania i bez pojedynczego punktu awarii.

 

Problem z tym podejściem polega na tym, że żyjemy w świecie, w którym występuje poważny niedobór wysokiej klasy chipów AI. Na wysokiej klasy chipy NVIDIA obowiązuje wieloletni okres oczekiwania, co podnosi ceny. Jeśli potrzebujesz także wielokrotnego ponownego wykonywania wnioskowania AI w wielu węzłach, mnożysz teraz te kosztowne koszty. W przypadku wielu projektów jest to niewykonalne.

 

Pomysł nr 3: Krótkoterminowe przypadki użycia sztucznej inteligencji specyficzne dla Web3

 

Sugerowano, że Web3 powinien mieć własne, unikalne przypadki użycia sztucznej inteligencji, specjalnie dla użytkowników Web3. Może to być na przykład protokół Web3 wykorzystujący sztuczną inteligencję do oceniania ryzyka pul DeFi, portfel Web3 sugerujący nowe protokoły na podstawie historii portfela lub gra Web3 wykorzystująca sztuczną inteligencję do kontrolowania postaci niezależnych (NPC).

 

Obecnie jest to rynek w powijakach i wciąż istnieje wiele zastosowań do odkrycia. Niektóre wyzwania obejmują:

 

  • Natywne przypadki użycia Web3 wymagają mniejszej liczby transakcji AI, ponieważ popyt rynkowy jest wciąż w powijakach.

 

  • Jest mniej klientów, ponieważ jest o rząd wielkości mniej klientów Web3 w porównaniu z klientami Web2, więc rynek jest mniej rozdrobniony.

 

  • Sami klienci również są niestabilni, ponieważ są startupami z mniejszym kapitałem, więc niektóre startupy z czasem mogą upaść. Dostawcy usług Web3 AI obsługujący klientów Web3 mogą z czasem potrzebować odzyskać część swojej bazy klientów, aby zastąpić tych, którzy zbankrutowali, co sprawi, że rozwój firmy będzie trudniejszy.

 

W dłuższej perspektywie Hack VC jest bardzo optymistyczny w przypadku przypadków użycia sztucznej inteligencji natywnych dla Web3, zwłaszcza że agenci sztucznej inteligencji stają się coraz bardziej powszechni. Wyobrażamy sobie przyszłość, w której każdy użytkownik Web3 będzie miał wspierających go agentów AI. Pierwszym liderem kategorii jest Theoriq, który umożliwia komponowanie i autonomicznych agentów AI w łańcuchu.

 

Pomysł nr 4: DePINy konsumenckich procesorów graficznych

 

Istnieje wiele zdecentralizowanych sieci obliczeniowych AI, które opierają się na konsumenckich procesorach graficznych, a nie na centrach danych. Konsumenckie procesory graficzne nadają się do prostych zadań wnioskowania AI lub zastosowań konsumenckich, gdzie opóźnienia, przepustowość i niezawodność są elastyczne. Jednak w przypadku profesjonalnych zastosowań korporacyjnych (które są najważniejszymi rynkami) klienci potrzebują sieci o wyższej niezawodności niż pojedyncze komputery domowe i często wyższej klasy procesorów graficznych, jeśli mają bardziej złożone zadania wnioskowania. Centra danych lepiej nadają się do bardziej wartościowych zastosowań klientów.

 

Należy zauważyć, że uważamy, że procesory graficzne klasy konsumenckiej są odpowiednie do celów demonstracyjnych lub dla osób prywatnych i start-upów, które tolerują niższą niezawodność. Jednak ci klienci są zasadniczo mniej wartościowi, dlatego wierzymy, że DePIN obsługujące przedsiębiorstwa Web2 będą bardziej wartościowi w dłuższej perspektywie. W rezultacie projekt GPU DePIN, jak jest powszechnie znany, ewoluował od początków obejmujących głównie sprzęt klasy konsumenckiej do dostępności na poziomie A100/H100 i klastra.

 

Praktyczne i rzeczywiste przypadki użycia Crypto x AI

 

Omówmy teraz przypadki użycia, które zapewniają „rzeczywiste korzyści”, w których Crypto x AI może znacząco dodać wartość.

 


Przypadek użycia nr 1: obsługa klientów Web2

 

McKinsey szacuje, że generatywna sztuczna inteligencja może zwiększyć wartość o równowartość od 2,6 biliona dolarów do 4,4 biliona dolarów rocznie w 63 przeanalizowanych przypadkach użycia – w porównaniu z całkowitym PKB Wielkiej Brytanii wynoszącym 3,1 biliona dolarów w 2021 roku. Zwiększyłoby to wpływ całej sztucznej inteligencji o 15% do 40%. Szacunki te są mniej więcej dwukrotnie większe, jeśli uwzględnimy wpływ osadzania generatywnej sztucznej inteligencji w oprogramowaniu aktualnie używanym do innych zadań.

 

Jeśli przeliczyć powyższe szacunki, oznacza to, że światowy rynek sztucznej inteligencji (z wyłączeniem generatywnej sztucznej inteligencji) może być wart biliony dolarów. Dla porównania, łączna wartość wszystkich kryptowalut, w tym Bitcoina i wszystkich altcoinów, wynosi obecnie zaledwie około 2,7 biliona dolarów. Musimy więc być realistami: zdecydowana większość klientów, którzy potrzebują sztucznej inteligencji w perspektywie krótkoterminowej, to klienci Web2, ponieważ klienci Web3, którzy naprawdę potrzebują sztucznej inteligencji, stanowią jedynie niewielką część z 2,7 biliona (biorąc pod uwagę, że BTC stanowi połowę tego rynku i sam BTC. Nie ma potrzeby/używania sztucznej inteligencji).

 

Przypadki użycia sztucznej inteligencji Web3 dopiero się rozkręcają i nie jest jasne, jak duży będzie ten rynek. Ale jedno jest intuicyjnie pewne – w dającej się przewidzieć przyszłości będzie to niewielka część rynku Web2. Wierzymy, że sztuczna inteligencja Web3 nadal ma przed sobą świetlaną przyszłość, ale oznacza to po prostu, że obecnie najpotężniejsza aplikacja sztucznej inteligencji Web3 służy klientom Web2.

 

Niektórzy klienci Web2, którzy mogą skorzystać z Web3 AI, to:

 

  • Pionowe firmy tworzące oprogramowanie od początku zbudowane z myślą o sztucznej inteligencji (np. Cedar.ai lub Observe.ai)

  • Duże przedsiębiorstwa dopasowujące modele do własnych celów (np. Netflix)

  • Szybko rozwijający się dostawcy sztucznej inteligencji (np. Anthropic)

  • Firmy programistyczne dodające sztuczną inteligencję do istniejących produktów (np. Canva)

 

Jest to stosunkowo stabilna baza klientów, ponieważ są to zazwyczaj duzi i wartościowi klienci. Jest mało prawdopodobne, że w najbliższym czasie przestaną działać, a stanowią ogromną potencjalną bazę klientów usług AI. Usługi Web3 AI obsługujące klientów Web2 odniosą korzyści z tej stabilnej bazy klientów.

 

Ale dlaczego klient Web2 miałby chcieć korzystać ze stosu technologii Web3? Pozostała część tego artykułu wyjaśnia to uzasadnienie.

 

Przypadek użycia nr 2: Zmniejsz koszty użytkowania procesora graficznego dzięki GPU DePIN

 

GPU DePIN agregują niewykorzystaną moc obliczeniową GPU (z której najbardziej niezawodna pochodzi z centrów danych) i wykorzystują ją do wnioskowania AI (takiego jak io.net). Można to łatwo wyobrazić sobie jako „Airbnb procesorów graficznych” (efektywnie wspólne korzystanie z niewykorzystanych zasobów).

 

 

Powód, dla którego jesteśmy podekscytowani GPU DePIN, jest taki, jak wspomniano powyżej: obecnie brakuje chipów NVIDIA i obecnie są marnowane cykle GPU, które można wykorzystać do wnioskowania AI. Właściciele sprzętu ponieśli już koszty i obecnie nie wykorzystują w pełni swojego sprzętu, więc te ułamkowe cykle procesora graficznego można udostępnić po znacznie niższych kosztach niż w przypadku status quo, ponieważ w rzeczywistości jest to „nieoczekiwany zysk” dla właściciela sprzętu.

 

Na przykład:

 

  • Maszyny AWS: Jeśli dzisiaj wynajmiesz H100 od AWS, będziesz musiał zobowiązać się do podpisania umowy leasingu na rok, ponieważ podaż na rynku jest ograniczona. Prowadzi to do marnotrawstwa, ponieważ jest mało prawdopodobne, że będziesz używać procesora graficznego 7 dni w tygodniu, 365 dni w roku.

 

  • Sprzęt do wydobywania Filecoin: Filecoin to sieć z dużą dotowaną podażą, ale bez znaczącego rzeczywistego popytu. Niestety, Filecoin nigdy nie znalazł prawdziwego dopasowania do rynku produktów, więc górnicy Filecoin ryzykowali wycofaniem się z biznesu. Maszyny te są wyposażone w procesory graficzne, które można ponownie wykorzystać do zadań związanych z wnioskowaniem AI na niższym poziomie.

 

  • Sprzęt wydobywczy ETH: Kiedy ETH przechodzi z PoW do PoS, natychmiast uwalniana jest duża ilość sprzętu, który można ponownie wykorzystać na potrzeby wnioskowania AI.

 

Należy pamiętać, że nie każdy sprzęt GPU nadaje się do wnioskowania AI. Jednym z oczywistych powodów jest to, że starsze procesory graficzne nie mają wystarczającej ilości pamięci GPU do obsługi LLM, chociaż istnieje kilka interesujących innowacji w tym obszarze. Na przykład Exabits posiada technologię, która ładuje aktywne neurony do pamięci GPU, a nieaktywne neurony do pamięci procesora. Przewidują, które neurony muszą być aktywne, a które nieaktywne. Umożliwia to nawet słabszym procesorom graficznym z ograniczoną pamięcią GPU obsługę obciążeń AI, skutecznie zwiększając ich użyteczność we wnioskowaniu AI.

 

Należy również zauważyć, że punkty Web3 AI DePIN będą musiały z czasem udoskonalić swoje usługi i świadczyć usługi klasy korporacyjnej, takie jak jednokrotne logowanie, zgodność z SOC 2, umowy o poziomie usług (SLA) itp. Będzie to podobne do tego, z czego obecnie korzystają klienci Web2 w chmurze.

 

Przypadek użycia nr 3: Unikaj autocenzury OpenAI w przypadku modeli nieocenzurowanych

 

Toczy się wiele dyskusji na temat cenzury AI. Na przykład Turcja tymczasowo zakazała OpenAI (później zniosła zakaz po poprawieniu zgodności OpenAI). Uważamy, że ta analiza jest z natury nieprzydatna, ponieważ kraje muszą wdrożyć sztuczną inteligencję, aby zachować konkurencyjność.

 

Jeszcze bardziej interesująca jest autocenzura OpenAI. Na przykład OpenAI nie będzie obsługiwać treści NSFW ani nie przewiduje następnych wyborów prezydenckich. Uważamy, że istnieje interesujący i ogromny rynek przypadków użycia sztucznej inteligencji, którego z jakiegoś powodu OpenAI nie chce dotykać.

 

Open source jest doskonałym rozwiązaniem, ponieważ repozytoria Github nie są zależne od akcjonariuszy ani zarządu. Na przykład Venice.ai obiecuje chronić Twoją prywatność i działać bez cenzury. Kluczem jest oczywiście open source, które to napędza. Sztuczna inteligencja Web3 może skutecznie przenieść modele oprogramowania typu open source (OSS) na wyższy poziom, uruchamiając te wnioski w tanich klastrach GPU. Dlatego wierzymy, że OSS+Web3 to idealne połączenie, które umożliwi pionierską sztuczną inteligencję bez cenzury.

 

Przypadek użycia nr 4: Unikaj wysyłania danych osobowych do OpenAI

 

Wiele dużych przedsiębiorstw bardzo dba o prywatność swoich wewnętrznych danych korporacyjnych. Klientom tym bardzo trudno jest powierzyć swoje dane scentralizowanej stronie trzeciej, takiej jak OpenAI.

 

W przypadku Web3 pozornie może to wydawać się bardziej niepokojące dla tych firm, ponieważ ich dane wewnętrzne nagle pojawiają się w zdecentralizowanej sieci. Istnieją jednak pewne innowacje w dziedzinie technologii AI zwiększających prywatność:

 

  • Zaufane środowisko wykonawcze (TEE), takie jak Super Protocol

  • Szyfrowanie w pełni homomorficzne (FHE), takie jak Fhenix.io lub Inco Network i PPML firmy Bagel

 

Technologie te są wciąż w fazie rozwoju, a wydajność stale się poprawia wraz z nadchodzącymi układami wiedzy zerowej (ZK) i FHE ASIC. Jednak celem długoterminowym jest ochrona danych przedsiębiorstwa przy jednoczesnym dopracowywaniu modelu. Wraz z pojawieniem się tych protokołów Web3 może stać się atrakcyjniejszą platformą do przetwarzania sztucznej inteligencji chroniącego prywatność.

 


Przypadek użycia nr 5: Wykorzystanie najnowszych innowacji w modelach open source

 

W ciągu ostatnich kilku dekad OSS (oprogramowanie open source) zwiększało udział w rynku oprogramowania prawnie zastrzeżonego. Postrzegamy LLM jako złożoną formę prawnie zastrzeżonego oprogramowania, które jest gotowe na zakłócenia ze strony OSS. Do godnych uwagi konkurentów należą Llama, RWKV i Mistral.ai. Lista ta niewątpliwie będzie się z czasem powiększać (pełniejszą listę można znaleźć na stronie Openrouter.ai). Skorzystaj z tych nowych innowacji, wykorzystując sztuczną inteligencję Web3 obsługiwaną przez modele OSS.

 

Wierzymy, że z biegiem czasu globalna grupa robocza ds. rozwoju oprogramowania open source w połączeniu z zachętami kryptograficznymi może doprowadzić do szybkich innowacji w modelach open source oraz agentach i frameworkach zbudowanych na ich podstawie. Jednym z przykładów jest protokół agenta AI Theoriq. Theoriq wykorzystuje modele OSS do tworzenia komponowalnej sieci połączonych ze sobą agentów AI, które można łączyć w bardziej zaawansowane rozwiązania AI.

 

Jesteśmy pewni dzięki przeszłym doświadczeniom: większość „oprogramowania dla programistów” z biegiem czasu jest powoli wypierana przez OSS. Microsoft był kiedyś firmą zajmującą się oprogramowaniem własnościowym, a teraz jest firmą dostarczającą najwięcej informacji na Githubie i nie bez powodu. Jeśli spojrzysz na to, jak Databricks, PostGresSQL, MongoDB itp. zakłócają zastrzeżone bazy danych, jest to przykład zakłócenia całej branży przez OSS, więc mamy tu sporo precedensu.

 

Jednak wiąże się to z pewnym problemem. Jedną z trudnych rzeczy w przypadku OSS LLM jest to, że OpenAI zaczęło zawierać umowy licencyjne na płatne dane z organizacjami takimi jak Reddit i New York Times. Jeśli ta tendencja się utrzyma, organizacje OSS LLM mogą mieć trudności z konkurowaniem ze względu na bariery finansowe w pozyskiwaniu danych. Nvidia może podwoić inwestycje w poufne przetwarzanie danych, które umożliwi bezpieczne udostępnianie danych. Czas pokaże, jak rozwinie się ten trend.

 

Przypadek użycia nr 6: Osiągnięcie konsensusu poprzez losowe pobieranie próbek o wysokich kosztach karnych lub dowody ZK

 

Jednym z wyzwań związanych z wnioskowaniem AI Web3 jest weryfikacja. Weryfikatorzy mają możliwość zarabiania na fałszowaniu wyników, dlatego ważnym środkiem jest weryfikacja wnioskowania. Należy zauważyć, że tego rodzaju oszustwo jeszcze nie miało miejsca, ponieważ rozumowanie sztucznej inteligencji jest wciąż w powijakach, ale jest nieuniknione, chyba że zostaną podjęte kroki, aby zapobiec takiemu zachowaniu.

 

Standardowe podejście Web3 polega na tym, że wielu walidatorów powtarza tę samą operację i porównuje wyniki. Oczywistym wyzwaniem jest to, że, jak wspomniano powyżej, wnioskowanie AI jest kosztowne ze względu na obecny niedobór wysokiej klasy chipów Nvidia. Biorąc pod uwagę, że Web3 może zapewnić tańsze wnioskowanie poprzez niewykorzystane dePINy GPU, powtarzane obliczenia poważnie osłabią propozycję wartości Web3.

 

Bardziej obiecującym rozwiązaniem jest wykonanie dowodów ZK dla obliczeń wnioskowania AI poza łańcuchem. W takim przypadku możesz określić, czy model został poprawnie wyszkolony lub czy wnioskowanie przebiegło poprawnie, weryfikując zwięzły dowód ZK (zwany zkML). Przykładami są Modulus Labs i ZKonduit. Wydajność tych rozwiązań jest wciąż w powijakach, ponieważ operacje ZK są bardzo intensywne obliczeniowo. Oczekujemy jednak, że sytuacja ta ulegnie poprawie wraz z wypuszczeniem sprzętowych układów ASIC ZK.

 

Większy potencjał ma „optymistyczna” metoda wnioskowania AI oparta na próbkowaniu. W tym modelu walidujesz tylko niewielką część wyników wygenerowanych przez walidator, ale ustalasz koszt ekonomiczny kary na tyle wysoki, że w przypadku złapania na walidatorze będzie wywierana silna presja ekonomiczna, zapobiegając w ten sposób oszukiwaniu. W ten sposób można zapisać zbędne obliczenia (patrz na przykład dokument potwierdzający pobieranie próbek Hyperbolic).

 

Kolejnym pomysłem z potencjałem są rozwiązania w zakresie znaków wodnych i odcisków palców, takie jak to zaproponowane przez Bagel Network. Jest to podobne do mechanizmu zapewniania jakości modelu AI w urządzeniu, którego Amazon Alexa używa w swoich milionach urządzeń.

 

Przypadek użycia nr 7: Oszczędności dzięki OSS (marża zysku OpenAI)

 

Kolejną szansą, jaką Web3 wnosi do AI, jest demokratyzacja kosztów. Do tej pory omawialiśmy oszczędności kosztów GPU dzięki DePIN. Ale Web3 oferuje także możliwość zaoszczędzenia na marżach zysku scentralizowanych usług AI Web2, takich jak OpenAI, które obecnie generują ponad 1 miliard dolarów rocznych przychodów. Te oszczędności wynikają z używania modeli open source, a nie modeli zastrzeżonych, ponieważ twórcy modeli nie starają się na nich czerpać korzyści.

 

Wiele modeli OSS pozostanie całkowicie darmowych, co zapewnia klientom najlepszą ekonomikę. Jednak niektóre modele OSS mogą również próbować tych metod monetyzacji. Weź pod uwagę, że tylko 4% wszystkich modelek w Hugging Face zostało przeszkolonych przez firmy posiadające budżet pozwalający na dofinansowanie tych modelek (zobacz tutaj). Pozostałe 96% modeli jest szkolonych przez społeczność. Modele te – 96% Hugging Face – mają podstawowy koszt rzeczywisty (zarówno koszt obliczeniowy, jak i koszt danych). Dlatego te modele potrzebują jakiegoś sposobu na zarobienie na nich.

 

Istnieje wiele propozycji monetyzacji tych modeli OSS. Jedną z najciekawszych jest koncepcja „Initial Model Offer” (IMO), która polega na tokenizacji samego modelu, zatrzymaniu części tokenów dla zespołu i rozdzieleniu części przyszłych przychodów z modelu pomiędzy posiadaczy tokenów Choć oczywiście istnieją tu pewne przeszkody prawne i regulacyjne.

 

Inne modele OSS będą próbowały zarabiać na podstawie wykorzystania. Należy pamiętać, że jeśli to nastąpi, modele OSS będą coraz bardziej przypominać swoje odpowiedniki nastawione na zysk w Web2. Ale w rzeczywistości rynek będzie rozdrobniony, a niektóre modele pozostaną całkowicie darmowe.

 

Przypadek użycia nr 8: zdecentralizowane źródła danych

 

Jednym z największych wyzwań w sztucznej inteligencji jest uzyskanie odpowiednich danych do wytrenowania modelu. Wspomnieliśmy wcześniej, że zdecentralizowane szkolenie w zakresie sztucznej inteligencji wiąże się z wyzwaniami. A co powiesz na wykorzystanie zdecentralizowanej sieci do pobierania danych (a następnie przeszkolenie ich w innym miejscu, nawet na tradycyjnej platformie Web2)?

 

Dokładnie to robią startupy takie jak Grass. Grass to zdecentralizowana sieć „zeskrobywania danych”, w której poszczególne osoby udostępniają moc obliczeniową swoich maszyn w stanie bezczynności w celu gromadzenia danych na potrzeby uczenia modeli sztucznej inteligencji. Hipotetycznie, na dużą skalę, to źródło danych może przewyższyć wewnętrzne wysiłki dowolnej firmy mające na celu pozyskanie danych ze względu na możliwości dużej sieci wspieranych węzłów. Obejmuje to nie tylko uzyskiwanie większej ilości danych, ale także ich częstsze pobieranie, dzięki czemu są one bardziej istotne i aktualne. Ponieważ skrobaki danych są rozproszone i nie znajdują się pod jednym adresem IP, powstrzymanie tej zdecentralizowanej armii skrobaków jest prawie niemożliwe. Mają także sieć ludzi, którzy czyszczą i normalizują dane, aby uczynić je użytecznymi po ich zeskrobaniu.

 

Gdy już będziesz mieć dane, potrzebujesz także miejsca do przechowywania ich w łańcuchu, a także LLM wygenerowanych z danymi. 0g.AI jest wczesnym liderem w tej kategorii. Jest to zoptymalizowane pod kątem sztucznej inteligencji, wysokowydajne rozwiązanie pamięci masowej Web3, które jest znacznie tańsze niż AWS (kolejna zaleta ekonomiczna sztucznej inteligencji Web3), a jednocześnie zapewnia infrastrukturę dostępności danych dla warstwy 2, sztucznej inteligencji i nie tylko.

 

Należy pamiętać, że rola danych w Web3 AI może w przyszłości ulec zmianie. Obecnie status quo w przypadku LLM polega na wstępnym szkoleniu modelu na podstawie danych i udoskonalaniu go z czasem przy użyciu większej ilości danych. Jednak modele te są zawsze nieco nieaktualne, ponieważ dane w Internecie zmieniają się w czasie rzeczywistym. Dlatego odpowiedzi wywnioskowane przez LLM są nieco niedokładne.

 

Przyszłym kierunkiem może być nowy paradygmat – dane „w czasie rzeczywistym”. Koncepcja polega na tym, że gdy LLM zostanie zadane pytanie z wnioskiem, LLM może wprowadzić wskazówkę, korzystając z danych zebranych z Internetu w czasie rzeczywistym. W ten sposób LLM może korzystać z najbardziej aktualnych danych, nad czym pracuje Grass.

 

podsumowując

 

 

Podsumowując, choć potencjał Web3 AI jest ogromny, obecne wyzwania i potrzeby rynku sugerują, że najbardziej praktycznym i realistycznym zastosowaniem jest obsługa klientów Web2. Przyszłość sztucznej inteligencji Web3 jest jasna, ale jej pełne przyjęcie i ekspansja rynkowa nadal zajmie trochę czasu. Identyfikując i rozwiązując te wyzwania, możemy lepiej położyć podwaliny pod rozwój i sukces sztucznej inteligencji Web3.