Autor: Alex Xu, partner badawczy, Mint Ventures

wstęp

Jak dotąd ten cykl hossy na rynku kryptowalut jest najnudniejszy pod względem innowacji biznesowych. Brakuje w nim utworów szaleństwa na poziomie fenomenu, takich jak DeFi, NFT i Gamefi, które miały miejsce podczas poprzedniej hossy, co skutkowało brakiem gorących punktów w branży. użytkowników, a inwestycje przemysłu w ogólnej sytuacji rynkowej i rozwoju deweloperów są stosunkowo słabe.

Znajduje to również odzwierciedlenie w bieżących cenach aktywów. Patrząc na cały cykl, większość monet Alt nadal traci pieniądze w stosunku do BTC, w tym ETH. Przecież o wycenie platformy smart kontraktów decyduje dobrobyt aplikacji Gdy rozwój i innowacyjność aplikacji są słabe, trudno będzie podnieść wycenę łańcucha publicznego.

Sztuczna inteligencja, jako nowsza kategoria biznesu kryptograficznego w tej rundzie, korzysta z wybuchowej szybkości rozwoju i ciągłych gorących punktów w zewnętrznym świecie biznesu, i nadal możliwe jest znaczne zwiększenie uwagi na projekty śledzenia sztucznej inteligencji w kryptografii świat.

W opublikowanym przez autora w kwietniu raporcie IO.NET autor uporządkował konieczność łączenia AI i Crypto, czyli pewność zalet rozwiązań kryptoekonomicznych, mobilizację zasobów alokacyjnych i brak zaufania, co może rozwiązać problem losowości i Zasobochłonny charakter sztucznej inteligencji Jedno z rozwiązań trzech wyzwań związanych z nieodróżnialnością ludzi od maszyn.

W ścieżce AI z zakresu kryptoekonomii autor próbuje omówić i wydedukować kilka istotnych kwestii poprzez inny artykuł, m.in.:

  • Jakie inne narracje rodzą się na ścieżce kryptowalutowej AI, która może eksplodować w przyszłości?

  • Ścieżki katalityczne i logika tych narracji

  • Cele projektu związane z narracją

  • Ryzyko i niepewność w dedukcji narracyjnej

Ten artykuł jest inscenizowanym myśleniem autora na dzień publikacji. Może on ulec zmianie w przyszłości, a poglądy są wysoce subiektywne. Mogą również zawierać błędy w faktach, danych i rozumowaniu. Prosimy nie używać go jako odniesienia inwestycyjnego Komentarze i dyskusje od innych osób są mile widziane.

Poniżej znajduje się tekst główny.

Kolejna fala narracji na ścieżce kryptowalut AI

Zanim oficjalnie podsumowamy kolejną falę narracji na ścieżce zaszyfrowanej sztucznej inteligencji, przyjrzyjmy się najpierw głównym narracjom obecnej zaszyfrowanej sztucznej inteligencji. Z punktu widzenia wartości rynkowej te o wartości ponad 1 miliarda dolarów to:

  • Moc obliczeniowa: Render (RNDR, wartość rynku w obiegu 3,85 miliarda), Akash (wartość rynku w obiegu 1,2 miliarda), IO.NET (ostatnia runda wyceny finansowania pierwotnego to 1 miliard)

  • Sieć algorytmów: Bittensor (TAO, wartość rynku w obiegu 2,97 miliarda)

  • Agent AI: Fetchai (FET, kapitalizacja rynkowa przed fuzją 2,1 miliarda)

*Data: 24.5.2024, jednostkami walutowymi są dolary amerykańskie.

Oprócz powyższych dziedzin, która ścieżka AI będzie następna z wartością rynkową pojedynczego projektu przekraczającą 1 miliard?

Autor uważa, że ​​można spekulować na ten temat z dwóch perspektyw: narracji o „stronie podaży przemysłu” i narracji o „momencie GPT”.

Pierwsza perspektywa narracji o sztucznej inteligencji: od strony podaży przemysłowej przyjrzyj się możliwościom w zakresie energii i śledzenia danych stojących za sztuczną inteligencją

Z punktu widzenia podaży przemysłu cztery siły napędowe rozwoju sztucznej inteligencji to:

  • Algorytmy: wysokiej jakości algorytmy mogą wydajniej wykonywać zadania szkoleniowe i wnioskowania

  • Moc obliczeniowa: niezależnie od tego, czy chodzi o szkolenie modeli, czy o rozumowanie modeli, do zapewnienia mocy obliczeniowej wymagany jest sprzęt GPU. Jest to obecnie również główne wąskie gardło w branży. Brak podstawowych elementów w branży doprowadził do wysokich cen chipów ze średniej i wyższej półki .

  • Energia: Centrum obliczeniowe wymagane przez sztuczną inteligencję będzie generować duże zużycie energii Oprócz mocy wymaganej przez sam procesor graficzny do wykonywania zadań obliczeniowych, przetwarzanie rozpraszania ciepła przez procesor graficzny wymaga również dużo energii. Duży system chłodzenia centrum danych stanowi całkowitą energię Około 40% zużycia

  • Dane: Poprawa wydajności dużych modeli wymaga rozszerzenia parametrów szkoleniowych, co oznacza zapotrzebowanie na ogromne ilości danych wysokiej jakości

Biorąc pod uwagę siłę napędową powyższych czterech branż, zarówno ścieżki algorytmów, jak i mocy obliczeniowej obejmują projekty kryptograficzne o wartości rynkowej w obiegu przekraczającej 1 miliard dolarów amerykańskich, podczas gdy ścieżki energii i danych nie widziały jeszcze projektów z tym samym rynkiem wartość.

W rzeczywistości niedobór dostaw energii i danych może wkrótce nastąpić i stać się nową falą przemysłowych punktów zapalnych, powodując w ten sposób gwałtowny wzrost powiązanych projektów w dziedzinie szyfrowania.

Porozmawiajmy najpierw o energii.

29 lutego 2024 r. Musk powiedział na konferencji Bosch Internet World 2024: „Ponad rok temu przewidywałem niedobór chipów, a następnym niedoborem będzie prąd. Myślę, że w przyszłym roku nie będzie wystarczającej ilości prądu. Uruchom wszystkie frytki."

Sądząc po konkretnych danych, Instytut Sztucznej Inteligencji Uniwersytetu Stanforda (sztuczna inteligencja skupiona na człowieku) kierowany przez Li Feifei publikuje co roku „Raport indeksu AI” W raporcie opublikowanym przez zespół w 2022 r. dla 21-letniej branży sztucznej inteligencji, zespół badawczy Z oceny wynika, że ​​zużycie energii przez sztuczną inteligencję stanowiło w tym roku zaledwie 0,9% światowego zapotrzebowania na energię elektryczną, a presja na energię i środowisko była ograniczona. W 2023 r. Międzynarodowa Agencja Energetyczna (IEA) stwierdziła, że ​​globalne centra danych zużyły około 460 terawatogodzin (TWh) energii elektrycznej, co stanowi 2% światowego zapotrzebowania na energię elektryczną, i przewidziała, że ​​do 2026 r. światowe centra danych będą zużywać około 460 terawatogodzin (TWh). wyniesie 620 terawatogodzin, a najwyższe zużycie energii wyniesie 1050 terawatogodzin.

Tak naprawdę szacunki Międzynarodowej Agencji Energetycznej są nadal ostrożne, ponieważ istnieje już duża liczba projektów związanych ze sztuczną inteligencją, które mają zostać uruchomione, a odpowiadająca im skala zapotrzebowania na energię znacznie przekracza jej wyobrażenia za 23 lata.

Na przykład Microsoft i OpenAI planują projekt Stargate. Oczekuje się, że uruchomienie tego planu nastąpi w 2028 r., a zakończenie około 2030 r. W ramach projektu planuje się zbudowanie superkomputera z milionami dedykowanych chipów AI, aby zapewnić OpenAI niespotykaną moc obliczeniową i wesprzeć jego rozwój w zakresie sztucznej inteligencji, zwłaszcza badań i rozwoju dużych modeli językowych . Oczekuje się, że plan będzie kosztować ponad 100 miliardów dolarów, 100 razy więcej niż koszt dzisiejszych dużych centrów danych.

Zużycie energii w samym projekcie Stargate wynosi aż 50 terawatogodzin.

Właśnie z tego powodu założyciel OpenAI Sam Altman powiedział na Forum w Davos w styczniu tego roku: „Przyszła sztuczna inteligencja wymaga przełomów w dziedzinie energetyki, ponieważ sztuczna inteligencja będzie zużywać znacznie więcej energii, niż ludzie się spodziewają”.

Po mocy obliczeniowej i energii kolejnym obszarem niedoborów w szybko rozwijającej się branży AI będą prawdopodobnie dane.

Innymi słowy, niedobór wysokiej jakości danych wymaganych dla sztucznej inteligencji stał się rzeczywistością.

Obecnie, w wyniku ewolucji GPT, ludzie w zasadzie zrozumieli prawo wzrostu możliwości dużych modeli językowych - to znaczy, rozszerzając parametry modelu i dane szkoleniowe, możliwości modelu można poprawić wykładniczo - i ten proces wąskiego gardła technicznego nie da się dostrzec w perspektywie krótkoterminowej.

Problem polega jednak na tym, że w przyszłości otwartych danych wysokiej jakości może być coraz mniej, a produkty AI mogą borykać się z tymi samymi sprzecznościami w zakresie podaży i popytu w zakresie danych, co chipy i energia.

Pierwszym z nich jest wzrost liczby sporów dotyczących własności danych.

27 grudnia 2023 r. dziennik New York Times formalnie pozwał OpenAI i Microsoft do Federalnego Sądu Okręgowego Stanów Zjednoczonych, oskarżając je o wykorzystywanie milionów własnych artykułów do uczenia modeli GPT bez pozwolenia, wymagając od nich „nielegalnego kopiowania i wykorzystywania unikalnych wartości wartych miliardy dolarów tytułem prawnego i faktycznego odszkodowania” oraz zniszczenie wszystkich modeli i danych szkoleniowych zawierających materiały chronione prawem autorskim z The New York Times.

Pod koniec marca New York Times opublikował nowe oświadczenie, którego celem było nie tylko OpenAI, ale także Google i Meta. W oświadczeniu New York Timesa stwierdzono, że OpenAI użyło narzędzia do rozpoznawania mowy o nazwie Whisper do transkrypcji części mowy dużej liczby filmów na YouTube, a następnie wygenerowało tekst jako tekst w celu szkolenia GPT-4. The New York Times stwierdził, że obecnie duże firmy bardzo często wykorzystują drobne kradzieże podczas szkolenia modeli sztucznej inteligencji i stwierdził, że Google również to robi. Konwertują także treści wideo z YouTube na tekst na potrzeby uczenia własnych dużych modeli. zasadniczo naruszające prawa twórców treści wideo.

New York Times i OpenAI to „pierwsza sprawa dotycząca praw autorskich do sztucznej inteligencji”. Biorąc pod uwagę złożoność sprawy i jej dalekosiężny wpływ na przyszłość branży treści i sztucznej inteligencji, wynik może nie zostać osiągnięty szybko. Jednym z ostatecznych możliwych rezultatów może być pozasądowa ugoda pomiędzy obiema stronami, w ramach której zamożny Microsoft i OpenAI zapłacą wysokie odszkodowanie. Jednak w przyszłości więcej konfliktów dotyczących praw autorskich do danych nieuchronnie zwiększy całkowity koszt danych wysokiej jakości.

Ponadto, jako największa wyszukiwarka na świecie, Google ujawniło również, że rozważa pobieranie opłat za swoją funkcję wyszukiwania, ale celem pobierania opłat nie jest ogół społeczeństwa, ale firmy AI.

Źródło: Reuters

Serwery wyszukiwarek Google przechowują ogromną ilość treści. Można nawet powiedzieć, że Google przechowuje całą treść, która pojawiła się na wszystkich stronach internetowych od XXI wieku. Obecne produkty wyszukiwania oparte na sztucznej inteligencji, takie jak produkty zagraniczne, takie jak zakłopotanie, oraz produkty krajowe, takie jak Kimi i Secret Tower, przetwarzają wyszukiwane dane za pośrednictwem sztucznej inteligencji, a następnie udostępniają je użytkownikom. Opłaty pobierane przez wyszukiwarki za sztuczną inteligencję nieuchronnie zwiększają koszt pozyskiwania danych.

Tak naprawdę, oprócz danych publicznych, giganci AI przyglądają się także niepublicznym danym wewnętrznym.

Photobucket to uznana witryna hostująca zdjęcia i wideo, która na początku XXI wieku miała 70 milionów użytkowników i stanowiła prawie połowę amerykańskiego rynku zdjęć online. Wraz z rozwojem mediów społecznościowych liczba użytkowników Photobucketa znacznie spadła. Obecnie aktywnych użytkowników jest już tylko 2 miliony (płacają oni wysoką opłatę w wysokości 399 dolarów rocznie). Zgodnie z umową i polityką prywatności podpisaną przez użytkowników zarejestrowali się, nie były używane przez ponad rok. Konto zostanie poddane recyklingowi i obsługiwane będzie również prawo Photobucket do korzystania ze zdjęć i danych wideo przesłanych przez użytkownika. Dyrektor generalny Photobucket, Ted Leonard, ujawnił, że posiadane przez firmę 1,3 miliarda danych dotyczących zdjęć i filmów jest niezwykle cenne do szkolenia generatywnych modeli sztucznej inteligencji. Prowadzi rozmowy z wieloma firmami technologicznymi w sprawie sprzedaży danych, oferując ceny od 5 centów do 1 dolara za zdjęcie i ponad 1 dolara za film. Szacuje, że dane, które może dostarczyć Photobucket, są warte ponad 1 miliard dolarów.

Zespół badawczy EPOCH zajmujący się kierunkiem rozwoju sztucznej inteligencji opublikował kiedyś raport na temat danych wymaganych do uczenia maszynowego w oparciu o wykorzystanie danych i generowanie nowych danych przez uczenie maszynowe w 2022 roku, biorąc pod uwagę wzrost zasobów obliczeniowych Czy zabraknie nam danych? Analiza ograniczeń skalowania zbiorów danych w uczeniu maszynowym” – w raporcie stwierdzono, że wysokiej jakości dane tekstowe zostaną wyczerpane w okresie od lutego 2023 r. do 2026 r., a dane obrazowe wyczerpią się w 2030 r. pomiędzy 2060 a 2060 rokiem. Jeśli nie uda się znacząco poprawić efektywności wykorzystania danych lub pojawią się nowe źródła danych, obecny trend dużych modeli uczenia maszynowego bazujących na ogromnych zbiorach danych może wyhamować.

Sądząc po obecnej sytuacji, w której giganci AI kupują dane po wysokich cenach, bezpłatne, wysokiej jakości dane tekstowe zostały w zasadzie wyczerpane. Przewidywania EPOCH sprzed dwóch lat były stosunkowo trafne.

Jednocześnie pojawiają się także rozwiązania zapotrzebowania na „niedobór danych AI”, a mianowicie: usługi dostarczania danych AI.

Defined.ai to firma dostarczająca spersonalizowane, prawdziwe i wysokiej jakości dane dla firm AI.

Przykładowe typy danych, które Defined.ai może udostępniać: https://www.definiowane.ai/datasets

Jego model biznesowy jest następujący: firmy AI dostarczają Defined.ai własne potrzeby w zakresie danych. Na przykład, jeśli chodzi o jakość obrazu, rozdzielczość musi być jak najwyższa, aby uniknąć rozmycia, prześwietlenia, a treść powinna być autentyczna. Jeśli chodzi o treść, firmy zajmujące się sztuczną inteligencją mogą dostosowywać określone motywy w oparciu o własne zadania szkoleniowe, takie jak zdjęcia nocne, stożki nocne, parkingi i znaki, aby poprawić współczynnik rozpoznawania sztucznej inteligencji w scenach nocnych. Publiczność może podjąć się tego zadania, a firma sprawdzi je po zrobieniu zdjęcia, a następnie części spełniające wymagania zostaną rozliczone na podstawie liczby zdjęć. Cena wynosi około 1-2 USD za zdjęcie wysokiej jakości , 5-7 USD za krótki film trwający dłużej niż 10 sekund kosztuje 100-300 USD, a tekst kosztuje 1 USD za tysiąc słów, które otrzymuje osoba, która otrzymuje zlecenie podwykonawstwa około 20% opłaty. Dostarczanie danych może stać się kolejnym biznesem crowdsourcingowym po „oznaczaniu danych”.

Globalny crowdsourcing zadań, zachęty ekonomiczne, wycena zasobów danych, obieg i ochrona prywatności – każdy może w nich uczestniczyć – brzmi jak kategoria biznesowa szczególnie odpowiednia dla paradygmatu Web3.

Cele narracyjne AI z perspektywy strony podaży przemysłu

Obawy spowodowane niedoborem chipów przeniknęły do ​​branży szyfrowania, czyniąc rozproszoną moc obliczeniową najpopularniejszą kategorią ścieżek AI o najwyższej jak dotąd wartości rynkowej.

Jeśli zatem w ciągu najbliższych 1-2 lat wybuchnie sprzeczność między podażą a popytem w branży AI w energetyce i danych, jakie projekty narracyjne istnieją obecnie w branży szyfrowania?

Przyjrzyjmy się najpierw celom energetycznym.

Istnieje bardzo niewiele projektów energetycznych, które uruchomiły wiodący CEX, a jest tylko jeden, Power Ledger (Token Powr).

Założona w 2017 roku Power Ledger to kompleksowa platforma energetyczna oparta na technologii blockchain. Jej celem jest decentralizacja handlu energią, promowanie bezpośredniego handlu energią elektryczną przez osoby fizyczne i społeczności, wspieranie powszechnego stosowania energii odnawialnej oraz zapewnienie bezpieczeństwa i ochrony energii poprzez. inteligentne kontrakty. Przejrzystość i efektywność transakcji. Początkowo Power Ledger działał w oparciu o łańcuch konsorcjum zmodyfikowany z Ethereum. W drugiej połowie 2023 roku Power Ledger zaktualizował swoją białą księgę i uruchomił własny kompleksowy łańcuch publiczny, który został zmodyfikowany w oparciu o ramy techniczne Solany w celu ułatwienia przetwarzania mikrotransakcji o wysokiej częstotliwości na rynku energii rozproszonej. Obecnie do głównych obszarów działalności Power Ledger należą:

  • Handel energią: umożliwia użytkownikom bezpośredni zakup i sprzedaż energii elektrycznej, zwłaszcza ze źródeł odnawialnych, w trybie peer-to-peer.

  • Handel produktami ekologicznymi: taki jak handel uprawnieniami węglowymi i certyfikatami energii odnawialnej oraz finansowanie w oparciu o produkty ekologiczne.

  • Operacja w łańcuchu publicznym: przyciągnij twórców aplikacji do tworzenia aplikacji na blockchainie Powerledger, a opłaty transakcyjne w łańcuchu publicznym będą płacone w tokenach Powr.

Obecna wartość rynkowa projektu Power Ledger wynosi 170 milionów dolarów, a pełna wartość rynkowa wynosi 320 milionów dolarów.

W porównaniu z celami szyfrowania energetycznego liczba celów szyfrowania na ścieżce danych jest większa.

Autor wymienia jedynie projekty data track, na które obecnie zwracam uwagę i uruchomiłem co najmniej jeden z CEX-ów Binance, OKX i Coinbase, i są one ułożone od najniższego do najwyższego według FDV:

1.Streamr – DANE

Propozycją wartości Streamra jest zbudowanie zdecentralizowanej sieci danych w czasie rzeczywistym, która umożliwi użytkownikom swobodny handel i udostępnianie danych, zachowując jednocześnie pełną kontrolę nad swoimi danymi. Streamr ma nadzieję, że poprzez swój rynek danych umożliwi producentom danych sprzedaż strumieni danych bezpośrednio zainteresowanym konsumentom, bez konieczności korzystania z pośredników, zmniejszając w ten sposób koszty i zwiększając wydajność.

Źródło: https://streamr.network/hub/projects

W konkretnym przypadku współpracy Streamr współpracuje z DIMO, innym projektem dotyczącym sprzętu pojazdowego Web3, w celu gromadzenia temperatury, ciśnienia powietrza i innych danych za pośrednictwem czujników sprzętowych DIMO zamontowanych w pojeździe w celu utworzenia strumienia danych pogodowych i przesłania ich potrzebującym instytucjom.

W porównaniu z innymi projektami dotyczącymi danych, Streamr koncentruje się bardziej na danych z Internetu rzeczy i czujnikach sprzętowych. Oprócz wspomnianych powyżej danych pojazdów DIMO, inne projekty obejmują strumień danych o ruchu drogowym w Helsinkach w czasie rzeczywistym. Dlatego też token projektu Streamr DATA podwoił swoją cenę w ciągu jednego dnia w grudniu ubiegłego roku, kiedy koncepcja Depin była najgorętsza.

Obecna wartość rynkowa projektu Streamr wynosi 44 miliony dolarów, a pełna wartość rynkowa wynosi 58 milionów dolarów.

2.Kowalencyjny – CQT

W przeciwieństwie do innych projektów danych, Covalent dostarcza dane typu blockchain. Covalent Network odczytuje dane z węzłów blockchain za pośrednictwem RPC, a następnie przetwarza i organizuje dane w celu stworzenia wydajnej bazy danych zapytań. W ten sposób użytkownicy Covalent mogą szybko uzyskać potrzebne informacje bez konieczności wykonywania skomplikowanych zapytań bezpośrednio z węzła blockchain. Ten rodzaj usługi nazywany jest również „indeksowaniem danych w łańcuchu bloków”.

Klienci Covalent działają głównie po stronie biznesowej, w tym projekty Dapp, takie jak różne Defi, a także wiele scentralizowanych firm zajmujących się szyfrowaniem, takich jak Consensys (spółka-matka Metamask), CoinGecko (znana stacja handlu aktywami kryptograficznymi) oraz Rotki (narzędzia podatkowe), Rainbow (szyfrowany portfel) itp. Ponadto Fidelity, gigant w tradycyjnej branży finansowej, oraz Ernst & Young, cztery główne firmy księgowe, są również klientami Covalent. Według danych oficjalnie ujawnionych przez Covalent, przychody projektu z usług transmisji danych przekroczyły wiodący projekt w tej dziedzinie The Graph.

Ze względu na integralność, otwartość, autentyczność i charakter danych w czasie rzeczywistym w łańcuchu oczekuje się, że branża Web3 stanie się źródłem wysokiej jakości danych dla podzielonych na segmenty scenariuszy sztucznej inteligencji i konkretnych „małych modeli sztucznej inteligencji”. Jako dostawca danych firma Covalent zaczęła dostarczać dane na potrzeby różnych scenariuszy sztucznej inteligencji i uruchomiła weryfikowalne, ustrukturyzowane dane specjalnie na potrzeby sztucznej inteligencji.

Źródło: https://www.covalenthq.com/solutions/decentralized-ai/

Na przykład dostarcza dane do SmartWhales, inteligentnej platformy transakcyjnej w łańcuchu, i wykorzystuje sztuczną inteligencję do identyfikowania zyskownych wzorców handlowych i adresów; Entender Finance wykorzystuje ustrukturyzowane dane Covalent i przetwarzanie sztucznej inteligencji do wniosków w czasie rzeczywistym, wykrywania anomalii i analiz predykcyjnych.

Obecnie główne scenariusze usług danych on-chain świadczonych przez Covalent nadal mają charakter finansowy. Jednakże wraz z uogólnieniem produktów i typów danych Web3, scenariusze wykorzystania danych on-chain również ulegną dalszemu rozszerzeniu.

Obecna wartość rynkowa projektu Covalent wynosi 150 milionów dolarów, a wartość rynkowa pełnego nakładu wynosi 235 milionów dolarów w porównaniu z The Graph, projektem indeksu danych blockchain na tej samej ścieżce, ma on stosunkowo oczywistą przewagę w wycenie.

3.Hivemapper – Miód

Spośród wszystkich materiałów danych, dane wideo często mają najwyższą cenę jednostkową. Hivemapper może dostarczać dane, w tym informacje wideo i mapy, firmom zajmującym się sztuczną inteligencją. Sam Hivemapper jest zdecentralizowanym projektem mapowania globalnego, którego celem jest stworzenie szczegółowego, dynamicznego i dostępnego systemu mapowania za pomocą technologii blockchain i wkładu społeczności. Uczestnicy mogą przechwytywać dane map za pomocą kamery samochodowej i dodawać je do sieci danych Hivemapper o otwartym kodzie źródłowym, a także otrzymywać nagrody w oparciu o swój wkład w tokenie projektu HONEY. Aby poprawić efekty sieciowe i zmniejszyć koszty interakcji, Hivemapper opiera się na Solanie.

Firma Hivemapper została założona w 2015 roku. Pierwotną wizją było wykorzystanie dronów do tworzenia map, ale później okazało się, że model ten był trudny do skalowania, dlatego firma zaczęła wykorzystywać rejestratory jazdy i smartfony do przechwytywania danych geograficznych, zmniejszając koszty tworzenia map globalnych .

W porównaniu z oprogramowaniem do widoku ulicy i map, takim jak Mapy Google, Hivemapper może skuteczniej rozszerzać zasięg map, utrzymywać świeżość rzeczywistych scen na mapach i poprawiać jakość wideo poprzez stymulowanie modeli sieciowych i crowdsourcingu.

Zanim zapotrzebowanie AI na dane eksplodowało, głównymi klientami Hivemappera był sektor pojazdów autonomicznych w przemyśle motoryzacyjnym, firmy świadczące usługi nawigacyjne, rządy, firmy ubezpieczeniowe i nieruchomościowe itp. Teraz Hivemapper może zapewnić sztuczną inteligencję i duże modele szeroką gamę danych o drogach i środowisku za pośrednictwem interfejsów API. Dzięki wprowadzaniu stale aktualizowanych strumieni danych dotyczących obrazów i obiektów drogowych, modele AI i ML będą w stanie lepiej przekształcać dane w ulepszone możliwości i zadania. związane z położeniem geograficznym i oceną wizualną.

Źródło danych: https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

Obecna wartość rynkowa projektu Hivemapper-Honey wynosi 120 milionów dolarów, a pełna wartość rynkowa projektu Hivemapper-Honey wynosi 496 milionów dolarów.

Oprócz powyższych trzech projektów, projekty na ścieżce danych obejmują The Graph – GRT (wartość rynku cyrkulacyjnego 3,2 miliarda dolarów, FDV 3,7 miliarda dolarów), którego działalność jest podobna do Covalent i zapewnia również usługi indeksowania danych blockchain oraz Ocean Protocol; OCEAN (wartość rynku obiegu 670 mln $, FDV 1,45 mld $, projekt ten wkrótce zostanie połączony z Fetch.ai i SingularityNET, token zostanie zamieniony na ASI), protokół open source mający na celu promowanie wymiany i monetyzacji danych oraz usługi związane z danymi, łączące konsumentów danych z dostawcami danych w celu udostępniania danych, zapewniając jednocześnie zaufanie, przejrzystość i identyfikowalność.

Druga perspektywa narracji AI: GPT pojawia się cały czas i pojawia się ogólna sztuczna inteligencja

Zdaniem autora pierwszym rokiem „śladu sztucznej inteligencji” w branży szyfrowania jest rok 2023, kiedy GPT zaszokowało świat. Gwałtowny wzrost liczby projektów związanych z szyfrowaniem sztucznej inteligencji jest raczej „gorącym następstwem” spowodowanego gwałtownym rozwojem sztucznej inteligencji przemysł.

Chociaż możliwości GPT4, turbo itp. były stale ulepszane po GPT3.5, a także niesamowity pokaz możliwości tworzenia wideo przez Sorę, w tym szybki rozwój dużych modeli językowych innych niż OpenAI, nie można zaprzeczyć, że postęp technologiczny Sztuczna inteligencja udostępniona społeczeństwu Wpływ poznawczy słabnie, ludzie stopniowo korzystają z narzędzi sztucznej inteligencji i wydaje się, że nie doszło jeszcze do zmiany miejsca pracy na dużą skalę.

Czy zatem w przyszłości nastąpi kolejny „moment GPT” w dziedzinie sztucznej inteligencji, wraz z gwałtownym rozwojem sztucznej inteligencji, który zszokuje opinię publiczną i uświadomi ludziom, że w rezultacie ich życie i praca ulegną zmianie?

Ten moment może oznaczać pojawienie się sztucznej inteligencji ogólnej (AGI).

AGI odnosi się do faktu, że maszyny mają wszechstronne możliwości poznawcze podobne do ludzi i mogą rozwiązywać różnorodne złożone problemy, a nie tylko konkretne zadania. System AGI oferuje takie możliwości, jak wysoki stopień myślenia abstrakcyjnego, obszerna wiedza podstawowa, rozumowanie oparte na zdrowym rozsądku i zrozumienie przyczynowe we wszystkich dziedzinach oraz międzybranżowe uczenie się poprzez transfer. Wydajność AGI nie odbiega od najlepszych ludzi w różnych dziedzinach, a pod względem wszechstronnych możliwości całkowicie przewyższa najlepsze grupy ludzkie.

W rzeczywistości, niezależnie od prezentacji w powieściach science fiction, grach, filmach i programach telewizyjnych, czy też oczekiwań opinii publicznej po szybkiej popularności GPT, opinia publiczna od dawna spodziewała się pojawienia się AGI, które przewyższa poziom ludzkiego poznania. Innymi słowy, sam GPT jest wiodącym produktem AGI i proroczą wersją ogólnej sztucznej inteligencji.

Powodem, dla którego GPT ma tak wielką energię przemysłową i wpływ psychologiczny, jest to, że szybkość jego wdrożenia i wydajność przekroczyły oczekiwania opinii publicznej: ludzie nie spodziewali się, że system sztucznej inteligencji, który może ukończyć test Turinga, naprawdę przybył i to tak szybko.

W rzeczywistości sztuczna inteligencja (AGI) może ponownie mieć nagłość „momentu GPT” w ciągu 1-2 lat: ludzie właśnie przystosowali się do pomocy GPT i odkryli, że sztuczna inteligencja nie jest już tylko asystentem, może nawet ukończyć samodzielne wykonywanie ekstremalnych zadań. Najbardziej kreatywna i wymagająca praca, obejmująca problemy, które od dziesięcioleci nękają czołowych naukowców ludzkości.

8 kwietnia tego roku Musk zgodził się na rozmowę z Nicolaiem Tangenem, dyrektorem ds. inwestycji norweskiego funduszu Sovereign Wealth Fund, i opowiedział o czasie pojawienia się AGI.

Powiedział: „Jeśli AGI zostanie zdefiniowane jako mądrzejsze od najmądrzejszej części człowieka, myślę, że prawdopodobnie pojawi się w 2025 roku”.

Oznacza to, że zgodnie z jego wnioskiem pojawienie się AGI zajmie najwyżej półtora roku. Oczywiście dodał warunek wstępny, czyli „jeśli moc i sprzęt wytrzymają”.

Korzyści z pojawienia się AGI są oczywiste.

Oznacza to, że produktywność człowieka zrobi duży krok naprzód, a duża liczba problemów związanych z badaniami naukowymi, które więziły nas od dziesięcioleci, zostanie rozwiązana. Jeśli „najmądrzejszą część ludzkości” zdefiniujemy jako poziom zdobywców Nagrody Nobla, oznacza to, że dopóki będzie wystarczająco dużo energii, mocy obliczeniowej i danych, niezliczona liczba niestrudzonych „laureatów Nagrody Nobla” będzie pracować przez całą dobę nad najważniejsze problemy naukowe.

Tak naprawdę zdobywcy Nagrody Nobla nie są tak cenni jak jeden na kilkaset milionów. Większość z nich pod względem zdolności i inteligencji dorównuje czołowym profesorom uniwersyteckim, ale dzięki prawdopodobieństwu i szczęściu wybrali właściwy kierunek – kontynuował. to zrobić i uzyskałem rezultaty. Być może ludzie na tym samym poziomie co on, jego równie wybitni koledzy, również zdobyli Nagrodę Nobla w równoległym wszechświecie badań naukowych. Ale niestety nadal brakuje ludzi z czołowymi profesorami uniwersyteckimi i osób zaangażowanych w przełomowe badania naukowe, więc tempo „przechodzenia przez wszystkie właściwe kierunki badań naukowych” jest nadal bardzo powolne.

Dzięki AGI, gdy energia i moc obliczeniowa zostaną w pełni dostarczone, możemy mieć nieograniczoną liczbę AGI „laureatów Nagrody Nobla” do prowadzenia dogłębnych badań w każdym możliwym, przełomowym kierunku badań naukowych, a tempo doskonalenia technologii będzie dziesiątki razy szybsze. Udoskonalenie technologii spowoduje, że zasoby, które obecnie uważamy za bardzo drogie i rzadkie, wzrosną setki razy w ciągu 10–20 lat, takie jak produkcja żywności, nowe materiały, nowe leki, edukacja na wysokim poziomie itp., a koszty ich uzyskania również spadnie wykładniczo. Mogliśmy wyżywić większą populację mniejszymi zasobami, a bogactwo na mieszkańca szybko rosło.

Wykres trendu światowego PKB, źródło danych: Bank Światowy

Może się to wydawać nieco sensacyjne. Przyjrzyjmy się dwóm przykładom, które wykorzystałem także w poprzednich raportach z badań dotyczących IO.NET:

  • W 2018 r. zdobywca Nagrody Nobla w dziedzinie chemii Francis Arnold powiedział podczas ceremonii wręczenia nagród: „Dziś możemy czytać, pisać i edytować dowolną sekwencję DNA w zastosowaniach praktycznych, ale nie możemy jeszcze jej skomponować”. Pięć lat po jego przemówieniu, w 2023 r., badacze z Uniwersytetu Stanforda i startupu Salesforce Research zajmującego się sztuczną inteligencją z Doliny Krzemowej opublikowali artykuł w „Nature-Biotechnology”. Wykorzystali oni duży model językowy, precyzyjnie dostrojony w oparciu o GPT3, aby przejść od 0 do miliona nowych białek i stworzono dwa białka o zupełnie różnych wartościach. odkryto struktury, ale oba mają działanie bakteriobójcze. Oczekuje się, że oprócz antybiotyków staną się rozwiązaniem do zwalczania bakterii. Innymi słowy: za pomocą sztucznej inteligencji przełamano wąskie gardło w „tworzeniu” białek.

  • Wcześniej algorytm sztucznej inteligencji AlphaFold przewidywał strukturę prawie wszystkich 214 milionów białek na Ziemi w ciągu 18 miesięcy. Wynik ten był setki razy większy od wyników prac wszystkich ludzkich biologów strukturalnych w przeszłości.

Zmiana już nastąpiła, a pojawienie się AGI jeszcze bardziej przyspieszy ten proces.

Z drugiej strony wyzwania, jakie niesie ze sobą pojawienie się AGI, są również ogromne.

AGI nie tylko zastąpi dużą liczbę pracowników umysłowych, ale dostawcy usług ręcznych, których obecnie uważa się za „mniej dotkniętych sztuczną inteligencją”, również odczują skutki obniżenia kosztów produkcji spowodowanego dojrzałością technologii robotyki i rozwojem nowych materiałów i będą miały na to wpływ maszyny. Odsetek stanowisk pracy zastępowanych przez oprogramowanie będzie szybko wzrastał.

W tym czasie wkrótce wyjdą na powierzchnię dwa problemy, które kiedyś wydawały się bardzo odległe:

  1. Kwestie zatrudnienia i dochodów dużej liczby bezrobotnych

  2. Jak w świecie, w którym sztuczna inteligencja jest wszędzie, odróżnić sztuczną inteligencję od ludzi?

Worldcoin\Worldchain próbuje zapewnić rozwiązanie, czyli wykorzystanie systemu UBI (Universal Basic Income) do zapewnienia społeczeństwu podstawowego dochodu oraz wykorzystanie biometrii opartej na tęczówce oka w celu odróżnienia człowieka od sztucznej inteligencji.

W rzeczywistości UBI, który rozdziela pieniądze wśród wszystkich ludzi, nie jest zamkiem w powietrzu bez praktycznej praktyki. Kraje takie jak Finlandia i Anglia wprowadziły uniwersalny dochód podstawowy, a partie polityczne w Kanadzie, Hiszpanii, Indiach i innych krajach aktywnie proponują jego promocję. powiązane eksperymenty.

Zaletą dystrybucji UBI opartej na identyfikacji biometrycznej + modelu blockchain jest to, że system ma charakter globalny i ma szersze pokrycie populacji. Dodatkowo można budować inne modele biznesowe w oparciu o sieć użytkowników rozszerzoną poprzez np. dystrybucję dochodów usługi (Defi), sieci społecznościowe, crowdsourcing zadań itp. tworzą współpracę biznesową w ramach sieci.

Jednym z odpowiednich celów wpływu pojawienia się AGI jest Worldcoin-WLD o wartości rynkowej w obiegu wynoszącej 1,03 miliarda dolarów i pełnej wartości rynkowej w obiegu wynoszącej 47,2 miliarda dolarów.

Ryzyko i niepewność w dedukcji narracyjnej

Artykuł ten różni się od wielu poprzednich raportów z badań dotyczących projektów i ścieżek opublikowanych przez Mint Ventures. Wnioski i przewidywania narracji są wysoce subiektywne. Czytelnicy proszeni są o traktowanie treści tego artykułu jedynie jako rozbieżnej dyskusji, a nie przewidywania przyszłości . Wspomniana powyżej dedukcja narracyjna autora jest obarczona wieloma niepewnościami, co prowadzi do błędnych przypuszczeń. Do zagrożeń lub czynników wpływających zalicza się między innymi:

  • Energia: Gwałtowny spadek zużycia energii spowodowany wymianą procesora graficznego

Chociaż zapotrzebowanie na energię związane ze sztuczną inteligencją wzrosło, producenci chipów reprezentowani przez firmę NVIDIA zapewniają wyższą moc obliczeniową przy niższym zużyciu energii dzięki ciągłym ulepszeniom sprzętu. Na przykład w marcu tego roku firma NVIDIA wypuściła kartę B200, która integruje dwie karty obliczeniowe AI nowej generacji GB200. z procesorem graficznym i procesorem Grace, ma wydajność uczenia 4 razy większą niż główny procesor graficzny AI H100 poprzedniej generacji, wydajność wnioskowania 7 razy większą niż H100 i wymaga tylko 1/4 zużycia energii przez H100. Oczywiście pomimo tego zapotrzebowanie ludzi na energię pochodzącą ze sztucznej inteligencji jeszcze się nie skończyło. W miarę spadku jednostkowego zużycia energii oraz dalszego rozszerzania się scenariuszy i potrzeb zastosowań sztucznej inteligencji, całkowite zużycie energii może w rzeczywistości wzrosnąć.

  • Jeśli chodzi o dane: Q* planuje uzyskać „dane wyprodukowane samodzielnie”

Od zawsze krążyły plotki o projekcie „Q*” w ramach OpenAI, o czym wspomniano w wewnętrznej wiadomości wysłanej do pracowników przez OpenAI. Według Reutersa, powołującego się na znawców OpenAI, może to być przełom dla OpenAI w dążeniu do superinteligencji/ogólnej sztucznej inteligencji (AGI). Q* może nie tylko wykorzystać swoje możliwości abstrakcji do rozwiązywania nigdy wcześniej nie widzianych problemów matematycznych, ale może także samodzielnie tworzyć dane używane do uczenia dużych modeli bez potrzeby korzystania z danych ze świata rzeczywistego. Jeśli ta plotka jest prawdziwa, wąskie gardło w postaci niewystarczających danych wysokiej jakości w szkoleniu dużych modeli sztucznej inteligencji zostanie przełamane.

  • Nadchodzi AGI: ukryte zmartwienia OpenAI

Nadal nie wiadomo, czy AGI dotrze w 2025 r., jak powiedział Musk, ale jest to tylko kwestia czasu. Ponieważ jednak Worldcoin jest bezpośrednim beneficjentem narracji związanej z pojawieniem się AGI, największe obawy może budzić OpenAI. W końcu jest on uznawany za „token cienia OpenAI”.

Wczesnym rankiem 14 maja OpenAI pokazało wydajność najnowszego GPT-4o i 19 innych różnych wersji dużych modeli językowych w kompleksowych wynikach zadań na wiosennej konferencji wprowadzającej na rynek nowy produkt. Z samej tabeli GPT-4o uzyskał 1310, a wynik wizualny wyniósł 1310. Wydaje się, że jest znacznie wyższy niż kilka kolejnych, ale w sumie jest tylko o 4,5% wyższy od drugiego miejsca GPT4 turbo, o 4,9% wyższy od czwartego miejsca Google Gemini 1.5 Pro, i o 4,9% wyższy niż piąte miejsce Claude 3 Opus firmy Anthropic, które zyskało 5,1%.

Minął nieco ponad rok, odkąd GPT3.5 zaszokowało świat swoim debiutem, konkurenci OpenAI dogonili już bardzo bliską pozycję (chociaż GPT5 nie został jeszcze wydany i oczekuje się, że zostanie wydany w tym roku). pozycję w przyszłości? Posiada własną wiodącą pozycję w branży, odpowiedź wydaje się niejasna. Jeśli przewaga i dominacja OpenAI zostaną osłabione lub nawet przejęte, wartość narracyjna Worldcoina jako tokena cienia OpenAI również spadnie.

Ponadto oprócz rozwiązania Worldcoin do uwierzytelniania tęczówki na ten rynek zaczęło wkraczać coraz więcej konkurentów. Na przykład projekt Humanity Protocol dotyczący identyfikacji skanowanej dłoni właśnie ogłosił zakończenie nowej rundy finansowania w wysokości 30 milionów dolarów według wyceny. o wartości 1 miliarda dolarów i LayerZero Labs Ogłoszono również, że będzie działać na platformie Humanity i dołączy do jej sieci węzłów walidacyjnych, wykorzystując dowody ZK do uwierzytelniania poświadczeń.

Wniosek

Wreszcie, mimo że autor wydedukował dalszą narrację ścieżki AI, ścieżka AI różni się od utworów natywnych w kryptografii, takich jak DeFi. Jest to raczej produkt rozprzestrzeniającego się szaleństwa AI krąg walutowy. Wiele bieżących projektów ma modele biznesowe. Nie zostało to ukończone. Wiele projektów bardziej przypomina memy o tematyce AI (na przykład Rndr jest podobny do mema Nvidii, a Worldcoin jest podobny do mema OpenAI). z ostrożnością.