wstęp

Jak dotąd ten cykl hossy na rynku kryptowalut jest najnudniejszy pod względem innowacji biznesowych. Brakuje w nim utworów szaleństwa na poziomie fenomenu, takich jak DeFi, NFT i Gamefi, które miały miejsce podczas poprzedniej hossy, co spowodowało brak gorących punktów w branży. ogólny rynek, użytkownicy, inwestycje w branży i rozwój deweloperów są stosunkowo słabe.

Znajduje to również odzwierciedlenie w bieżących cenach aktywów. Patrząc na cały cykl, większość monet Alt w dalszym ciągu traci krew w stosunku do kursu wymiany BTC, w tym ETH. Przecież o wycenie platformy smart kontraktów decyduje dobrobyt aplikacji Gdy rozwój i innowacyjność aplikacji są słabe, trudno będzie podnieść wycenę łańcucha publicznego.

Sztuczna inteligencja, jako nowsza kategoria biznesu kryptograficznego w tej rundzie, korzysta z wybuchowej szybkości rozwoju i ciągłych gorących punktów w zewnętrznym świecie biznesu, i nadal możliwe jest znaczne zwiększenie uwagi na projekty śledzenia sztucznej inteligencji w kryptografii świat.

W opublikowanym przez autora w kwietniu raporcie IO.NET autor uporządkował konieczność łączenia AI i Crypto, czyli pewność zalet rozwiązań kryptoekonomicznych, mobilizację zasobów alokacyjnych i brak zaufania, co może rozwiązać problem losowości i Zasobochłonny charakter sztucznej inteligencji Jedno z rozwiązań trzech wyzwań związanych z nieodróżnialnością ludzi od maszyn.

W ścieżce AI z zakresu kryptoekonomii autor próbuje omówić i wydedukować kilka istotnych kwestii poprzez inny artykuł, m.in.:

  • Jakie inne narracje rodzą się na ścieżce kryptograficznej sztucznej inteligencji, która może eksplodować w przyszłości?

  • Ścieżki katalityczne i logika tych narracji

  • Cele projektu związane z narracją

  • Ryzyko i niepewność w dedukcji narracyjnej

Ten artykuł jest inscenizowanym myśleniem autora na dzień publikacji. Może on ulec zmianie w przyszłości, a poglądy są wysoce subiektywne. Mogą również zawierać błędy w faktach, danych i rozumowaniu. Prosimy nie używać go jako odniesienia inwestycyjnego Komentarze i dyskusje od innych osób są mile widziane.

Poniżej znajduje się tekst główny.

Kolejna fala narracji na ścieżce krypto AI

Zanim oficjalnie podsumowamy kolejną falę narracji na ścieżce kryptowalutowej AI, przyjrzyjmy się najpierw głównym narracjom obecnej kryptowalutowej sztucznej inteligencji. Z punktu widzenia wartości rynkowej te o wartości ponad 1 miliarda dolarów to:

  • Moc obliczeniowa: Render (RNDR, wartość rynku w obiegu 3,85 miliarda), Akash (wartość rynku w obiegu 1,2 miliarda), IO.NET (ostatnia runda wyceny finansowania pierwotnego 1 miliard)

  • Sieć algorytmiczna: Bittensor (TAO, wartość rynkowa nakładów 2,97 miliarda)

  • Agent AI: Fetchai (FET, wartość rynkowa przed fuzją 2,1 miliarda)

*Data: 24.5.2024, jednostkami walutowymi są dolary amerykańskie.

Oprócz powyższych dziedzin, która ścieżka AI będzie następna z wartością rynkową pojedynczego projektu przekraczającą 1 miliard?

Autor uważa, że ​​można spekulować na ten temat z dwóch perspektyw: narracji o „stronie podaży przemysłu” i narracji o „momencie GPT”.

Pierwsza perspektywa narracji o sztucznej inteligencji: od strony podaży przemysłowej przyjrzyj się możliwościom w zakresie energii i śledzenia danych stojących za sztuczną inteligencją

Z punktu widzenia podaży przemysłu cztery siły napędowe rozwoju sztucznej inteligencji to:

  • Algorytmy: wysokiej jakości algorytmy mogą wydajniej wykonywać zadania szkoleniowe i wnioskowania

  • Moc obliczeniowa: niezależnie od tego, czy chodzi o szkolenie modeli, czy o rozumowanie modeli, do zapewnienia mocy obliczeniowej wymagany jest sprzęt GPU. Jest to obecnie również główne wąskie gardło w branży. Brak podstawowych elementów w branży doprowadził do wysokich cen chipów ze średniej i wyższej półki .

  • Energia: Centrum obliczeniowe wymagane przez sztuczną inteligencję będzie generować duże zużycie energii Oprócz mocy wymaganej przez sam procesor graficzny do wykonywania zadań obliczeniowych, przetwarzanie rozpraszania ciepła przez procesor graficzny wymaga również dużo energii. Duży system chłodzenia centrum danych stanowi całkowitą energię Około 40% zużycia

  • Dane: Poprawa wydajności dużych modeli wymaga rozszerzenia parametrów szkoleniowych, co oznacza zapotrzebowanie na ogromne ilości danych wysokiej jakości

Biorąc pod uwagę siłę napędową powyższych czterech branż, zarówno w zakresie algorytmów, jak i ścieżek mocy obliczeniowej realizowane są projekty szyfrowania o wartości rynkowej w obiegu przekraczającej 1 miliard dolarów amerykańskich, podczas gdy w przypadku ścieżek energii i danych nie odnotowano jeszcze projektów na tym samym rynku wartość.

W rzeczywistości niedobór dostaw energii i danych może wkrótce nastąpić i stać się nową falą przemysłowych punktów zapalnych, powodując w ten sposób gwałtowny wzrost powiązanych projektów w dziedzinie szyfrowania.

Porozmawiajmy najpierw o energii.

29 lutego 2024 r. Musk powiedział na konferencji Bosch Internet World 2024: „Ponad rok temu przewidywałem niedobór chipów, a następnym niedoborem będzie energia elektryczna. Myślę, że w przyszłym roku nie będzie wystarczającej ilości prądu, aby uruchomić wszystkie frytki."

Sądząc po konkretnych danych, Instytut Sztucznej Inteligencji Uniwersytetu Stanforda (sztuczna inteligencja skupiona na człowieku) kierowany przez Li Feifei publikuje co roku „Raport indeksu AI” W raporcie opublikowanym przez zespół w 2022 r. dla 21-letniej branży sztucznej inteligencji, zespół badawczy W ocenie uznano, że zużycie energii przez sztuczną inteligencję stanowiło w tym roku zaledwie 0,9% światowego zapotrzebowania na energię elektryczną, a presja na energię i środowisko była ograniczona. W 2023 r. Międzynarodowa Agencja Energetyczna (IEA) stwierdziła, że ​​globalne centra danych zużyły około 460 terawatogodzin (TWh) energii elektrycznej, co stanowi 2% światowego zapotrzebowania na energię elektryczną, i przewidziała, że ​​do 2026 r. światowe centra danych będą zużywać około 460 terawatogodzin (TWh) energii elektrycznej. od 620 terawatogodzin do 1050 terawatogodzin.

Tak naprawdę szacunki Międzynarodowej Agencji Energetycznej są nadal ostrożne, ponieważ istnieje już duża liczba projektów związanych ze sztuczną inteligencją, które mają zostać uruchomione, a odpowiadająca im skala zapotrzebowania na energię w 2023 r. znacznie przekracza jej wyobrażenia.

Na przykład projekt Stargate planowany przez Microsoft i OpenAI. Oczekuje się, że plan ten ma zostać uruchomiony w 2028 r., a ukończony około 2030 r. W ramach projektu planuje się zbudowanie superkomputera z milionami dedykowanych chipów AI, aby zapewnić OpenAI niespotykaną moc obliczeniową i wesprzeć jej wykorzystanie w sztucznej inteligencji, zwłaszcza w dużych modelach językowych i badawczych rozwój. Oczekuje się, że plan będzie kosztować ponad 100 miliardów dolarów, 100 razy więcej niż koszt dzisiejszych dużych centrów danych.

Zużycie energii w samym projekcie Stargate wynosi aż 50 terawatogodzin.

Właśnie z tego powodu założyciel OpenAI Sam Altman powiedział na Forum w Davos w styczniu tego roku: „Przyszła sztuczna inteligencja wymaga przełomów w dziedzinie energetyki, ponieważ sztuczna inteligencja będzie zużywać znacznie więcej energii, niż ludzie się spodziewają”.

Po mocy obliczeniowej i energii kolejnym obszarem niedoborów w szybko rozwijającej się branży AI będą prawdopodobnie dane.

Innymi słowy, niedobór wysokiej jakości danych wymaganych przez sztuczną inteligencję stał się rzeczywistością.

Obecnie, w wyniku ewolucji GPT, ludzie w zasadzie odkryli zasady rozwoju możliwości modelu dużego języka - to znaczy, rozszerzając parametry modelu i dane szkoleniowe, możliwości modelu można poprawić wykładniczo - a proces ten nie może wąskie gardło techniczne.

Problem polega jednak na tym, że w przyszłości otwartych danych wysokiej jakości może być coraz mniej, a produkty AI mogą borykać się z tymi samymi sprzecznościami w zakresie podaży i popytu w zakresie danych, co chipy i energia.

Pierwszym z nich jest wzrost liczby sporów dotyczących własności danych.

27 grudnia 2023 r. dziennik New York Times formalnie pozwał OpenAI i Microsoft do Federalnego Sądu Okręgowego Stanów Zjednoczonych, oskarżając je o wykorzystywanie milionów własnych artykułów do uczenia modeli GPT bez pozwolenia, wymagając od nich „nielegalnego kopiowania i wykorzystywania unikalnych wartości wartych miliardy dolarów tytułem prawnego i faktycznego odszkodowania” oraz zniszczenie wszystkich modeli i danych szkoleniowych zawierających materiały chronione prawem autorskim z The New York Times.

Pod koniec marca New York Times opublikował nowe oświadczenie, którego celem było nie tylko OpenAI, ale także Google i Meta. W oświadczeniu New York Timesa stwierdzono, że OpenAI użyło narzędzia do rozpoznawania mowy o nazwie Whisper do transkrypcji części mowy dużej liczby filmów na YouTube, a następnie wygenerowało tekst jako tekst w celu szkolenia GPT-4. The New York Times stwierdził, że obecnie duże firmy bardzo często wykorzystują drobne kradzieże podczas szkolenia modeli sztucznej inteligencji i stwierdził, że Google również to robi. Konwertują także treści wideo z YouTube na tekst na potrzeby uczenia własnych dużych modeli. zasadniczo naruszające prawa twórców treści wideo.

New York Times i OpenAI to „pierwsza sprawa dotycząca praw autorskich do sztucznej inteligencji”, biorąc pod uwagę złożoność sprawy i jej dalekosiężny wpływ na przyszłość treści i branżę sztucznej inteligencji, wyniki mogą nie być dostępne wkrótce. Jednym z ostatecznych możliwych rezultatów może być pozasądowa ugoda pomiędzy obiema stronami, w ramach której zamożny Microsoft i OpenAI zapłacą wysokie odszkodowanie. Jednak w przyszłości więcej konfliktów dotyczących praw autorskich do danych nieuchronnie zwiększy całkowity koszt danych wysokiej jakości.

Ponadto, jako największa wyszukiwarka na świecie, Google ujawniło również, że rozważa pobieranie opłat za swoją funkcję wyszukiwania, ale celem pobierania opłat nie jest ogół społeczeństwa, ale firmy AI.

Źródło: Reuters

Serwery wyszukiwarek Google przechowują ogromną ilość treści i można nawet powiedzieć, że Google przechowuje całą treść, która pojawiła się na wszystkich stronach internetowych od XXI wieku. Obecne produkty wyszukiwania oparte na sztucznej inteligencji, takie jak produkty zagraniczne, takie jak zakłopotanie, oraz produkty krajowe, takie jak Kimi i Secret Tower, przetwarzają wyszukiwane dane za pośrednictwem sztucznej inteligencji, a następnie udostępniają je użytkownikom. Opłaty pobierane przez wyszukiwarki za sztuczną inteligencję nieuchronnie zwiększają koszt pozyskiwania danych.

Tak naprawdę, oprócz danych publicznych, giganci AI przyglądają się także niepublicznym danym wewnętrznym.

Photobucket to uznana witryna hostująca zdjęcia i wideo, która na początku XXI wieku miała 70 milionów użytkowników i stanowiła prawie połowę amerykańskiego rynku zdjęć online. Wraz z rozwojem mediów społecznościowych liczba użytkowników Photobucketa znacznie spadła. Obecnie aktywnych użytkowników jest zaledwie 2 miliony (muszą oni płacić wysoką opłatę w wysokości 399 dolarów rocznie). w momencie rejestracji nie były one używane przez ponad rok. Konto zostanie poddane recyklingowi i potwierdza również prawo Photobucket do korzystania ze zdjęć i danych wideo przesłanych przez użytkowników. Dyrektor generalny Photobucket, Ted Leonard, ujawnił, że 1,3 miliarda danych zdjęć i filmów jest niezwykle cennych do szkolenia generatywnych modeli sztucznej inteligencji. Prowadzi rozmowy z wieloma firmami technologicznymi w sprawie sprzedaży danych, oferując ceny od 5 centów do 1 dolara za zdjęcie i ponad 1 dolara za film. Szacuje, że dane, które może dostarczyć Photobucket, są warte ponad 1 miliard dolarów.

Zespół badawczy EPOCH zajmujący się kierunkiem rozwoju sztucznej inteligencji opublikował kiedyś raport na temat danych wymaganych do uczenia maszynowego w oparciu o wykorzystanie danych i generowanie nowych danych przez uczenie maszynowe w 2022 roku, biorąc pod uwagę wzrost zasobów obliczeniowych . Czy zabraknie nam danych? Analiza ograniczeń skalowania zbiorów danych w uczeniu maszynowym” – w raporcie stwierdzono, że wysokiej jakości dane tekstowe zostaną wyczerpane w okresie od lutego 2023 r. do 2026 r., a dane obrazowe w 2030 r. Wyczerpanie między 2060 r. i 2060. Jeśli nie uda się znacząco poprawić efektywności wykorzystania danych lub pojawią się nowe źródła danych, obecny trend dużych modeli uczenia maszynowego bazujących na ogromnych zbiorach danych może wyhamować.

Sądząc po obecnej sytuacji, w której giganci AI kupują dane po wysokich cenach, bezpłatne, wysokiej jakości dane tekstowe zostały w zasadzie wyczerpane. Przewidywania EPOCH sprzed dwóch lat były stosunkowo trafne.

Jednocześnie pojawiają się także rozwiązania zapotrzebowania na „niedobór danych AI”, a mianowicie: usługi dostarczania danych AI.

Defined.ai to firma dostarczająca spersonalizowane, prawdziwe i wysokiej jakości dane dla firm AI.

Przykładowe typy danych, które Defined.ai może udostępnić: https://www.definiowane.ai/datasets

Jej model biznesowy jest następujący: firmy zajmujące się sztuczną inteligencją zapewniają Defined.ai własne potrzeby w zakresie danych, na przykład pod względem jakości, wymaganej rozdzielczości, aby uniknąć rozmycia, prześwietlenia i autentyczności treści. Jeśli chodzi o treść, firmy zajmujące się sztuczną inteligencją mogą dostosowywać określone motywy w oparciu o własne zadania szkoleniowe, takie jak zdjęcia nocne, stożki nocą, parkingi i znaki, aby poprawić współczynnik rozpoznawania sztucznej inteligencji w scenach nocnych. Publiczność może podjąć się zadania, a firma po jego wykonaniu dokona przeglądu, a następnie części spełniające wymagania zostaną rozliczone na podstawie liczby zdjęć. Cena wynosi około 1-2 dolarów za zdjęcie wysokiej jakości , 5-7 dolarów amerykańskich za krótki film trwający dłużej niż dziesięć sekund, oraz Wysokiej jakości wideo dłuższe niż 10 minut kosztuje 100-300 dolarów, a tekst kosztuje 1 dolara za tysiąc słów Osoba, która otrzymuje zadanie podwykonawstwa uzyskać około 20% opłaty. Dostarczanie danych może stać się kolejnym biznesem crowdsourcingowym po „oznaczaniu danych”.

Globalny crowdsourcing zadań, zachęty ekonomiczne, wycena zasobów danych, obieg i ochrona prywatności, w których każdy może uczestniczyć, brzmi jak kategoria biznesowa szczególnie odpowiednia dla paradygmatu Web3.

Cele narracyjne AI z perspektywy strony podaży przemysłu

Obawy spowodowane niedoborem chipów przeniknęły do ​​branży szyfrowania, czyniąc rozproszoną moc obliczeniową najpopularniejszą kategorią ścieżek AI o najwyższej jak dotąd wartości rynkowej.

Jeśli zatem w ciągu najbliższych 1-2 lat wybuchnie sprzeczność między podażą a popytem w branży AI w energetyce i danych, jakie projekty narracyjne istnieją obecnie w branży szyfrowania?

Przyjrzyjmy się najpierw celom energetycznym.

Istnieje bardzo niewiele projektów energetycznych, które uruchomiły wiodący CEX i istnieje tylko jedna księga mocy (Token Powr).

Założona w 2017 roku Power Ledger to kompleksowa platforma energetyczna oparta na technologii blockchain. Jej celem jest decentralizacja transakcji energetycznych, promowanie bezpośredniego handlu energią elektryczną przez osoby fizyczne i społeczności, wspieranie szerokiego zastosowania energii odnawialnej oraz zapewnienie bezpieczeństwa i ochrony energii poprzez. inteligentne kontrakty. Przejrzystość i efektywność transakcji. Początkowo Power Ledger działał w oparciu o łańcuch konsorcjum zmodyfikowany z Ethereum. W drugiej połowie 2023 roku Power Ledger zaktualizował swoją białą księgę i uruchomił własny kompleksowy łańcuch publiczny, który został zmodyfikowany w oparciu o ramy techniczne Solany w celu ułatwienia przetwarzania mikrotransakcji o wysokiej częstotliwości na rynku energii rozproszonej. Obecnie do głównych obszarów działalności Power Ledger należą:

  • Handel energią: umożliwia użytkownikom bezpośredni zakup i sprzedaż energii elektrycznej, zwłaszcza ze źródeł odnawialnych, w trybie peer-to-peer.

  • Handel produktami ekologicznymi: taki jak handel uprawnieniami do emisji dwutlenku węgla i certyfikatami energii odnawialnej oraz finansowanie w oparciu o produkty ekologiczne.

  • Operacja w łańcuchu publicznym: przyciągnij twórców aplikacji do tworzenia aplikacji na blockchainie Powerledger, a opłaty transakcyjne w łańcuchu publicznym będą płacone w tokenach Powr.

Obecna wartość rynkowa projektu Power Ledger wynosi 170 milionów dolarów, a wartość rynkowa pełnego nakładu wynosi 320 milionów dolarów.

W porównaniu z celami szyfrowania energetycznego liczba celów szyfrowania na ścieżce danych jest większa.

Autor wymienia jedynie projekty data track, na które obecnie zwracam uwagę i uruchomiłem co najmniej jeden z CEX-ów Binance, OKX i Coinbase, i są one ułożone od najniższego do najwyższego według FDV:

1.Streamr – DANE

Propozycją wartości Streamra jest zbudowanie zdecentralizowanej sieci danych w czasie rzeczywistym, która umożliwi użytkownikom swobodny handel i udostępnianie danych, zachowując jednocześnie pełną kontrolę nad swoimi danymi. Streamr ma nadzieję, że poprzez swój rynek danych umożliwi producentom danych sprzedaż strumieni danych bezpośrednio zainteresowanym konsumentom, bez konieczności korzystania z pośredników, zmniejszając w ten sposób koszty i zwiększając wydajność.

Źródło: https://streamr.network/hub/projects

W konkretnym przypadku współpracy Streamr współpracuje z innym projektem dotyczącym sprzętu samochodowego Web3, DIMO, w celu gromadzenia danych o temperaturze, ciśnieniu powietrza i innych danych za pośrednictwem czujników sprzętowych DIMO zamontowanych w pojeździe w celu utworzenia strumienia danych pogodowych i przesyłania ich do potrzebujących instytucji.

W porównaniu z innymi projektami dotyczącymi danych, Streamr koncentruje się bardziej na danych z Internetu rzeczy i czujnikach sprzętowych. Oprócz wspomnianych powyżej danych pojazdów DIMO, inne projekty obejmują strumień danych o ruchu drogowym w Helsinkach w czasie rzeczywistym. Dlatego też token projektu Streamra DATA podwoił swój wzrost w ciągu jednego dnia w grudniu ubiegłego roku, kiedy koncepcja Depin była najgorętsza.

Obecna wartość rynkowa projektu Streamr wynosi 44 miliony dolarów, a pełna wartość rynkowa wynosi 58 milionów dolarów.

2.Kowalencyjny – CQT

W przeciwieństwie do innych projektów danych, Covalent dostarcza dane typu blockchain. Sieć Covalent odczytuje dane z węzłów blockchain za pośrednictwem RPC, następnie przetwarza i organizuje dane w celu stworzenia wydajnej bazy danych zapytań. W ten sposób użytkownicy Covalent mogą szybko uzyskać potrzebne informacje bez konieczności wykonywania skomplikowanych zapytań bezpośrednio z węzła blockchain. Ten rodzaj usługi nazywany jest również „indeksowaniem danych w łańcuchu bloków”.

Klientami Covalent są głównie przedstawiciele sektora biznesowego, w tym projekty Dapp, takie jak różne Defi, oraz wiele scentralizowanych firm zajmujących się szyfrowaniem, takich jak Consensys (spółka-matka Metamask), CoinGecko (znana stacja handlu aktywami kryptograficznymi), Rotki (narzędzie podatkowe ) ), Rainbow (szyfrowany portfel) itp. Ponadto Fidelity, gigant w tradycyjnej branży finansowej, oraz Ernst & Young, cztery główne firmy księgowe, są również klientami Covalent. Według danych oficjalnie ujawnionych przez Covalent, przychody projektu z usług danych przekroczyły przychody The Graph, wiodącego projektu w tej dziedzinie.

Ze względu na integralność, otwartość, autentyczność i charakter danych w czasie rzeczywistym w łańcuchu oczekuje się, że branża Web3 stanie się źródłem wysokiej jakości danych dla podzielonych na segmenty scenariuszy sztucznej inteligencji i konkretnych „małych modeli sztucznej inteligencji”. Jako dostawca danych firma Covalent zaczęła dostarczać dane na potrzeby różnych scenariuszy sztucznej inteligencji i uruchomiła weryfikowalne, ustrukturyzowane dane specjalnie na potrzeby sztucznej inteligencji.

Źródło: https://www.covalenthq.com/solutions/decentralized-ai/

Na przykład dostarcza dane do inteligentnej platformy transakcyjnej SmartWhales w łańcuchu i wykorzystuje sztuczną inteligencję do identyfikowania zyskownych wzorców i adresów transakcji; Entender Finance wykorzystuje ustrukturyzowane dane Covalent i przetwarzanie sztucznej inteligencji do analiz w czasie rzeczywistym, wykrywania anomalii i analiz predykcyjnych.

Obecnie główne scenariusze usług danych on-chain świadczonych przez Covalent nadal mają charakter finansowy. Jednakże wraz z uogólnieniem produktów i typów danych Web3, scenariusze wykorzystania danych on-chain również ulegną dalszemu rozszerzeniu.

Obecna wartość rynkowa projektu Covalent wynosi 150 milionów dolarów, a wartość rynkowa pełnego obiegu wynosi 235 milionów dolarów w porównaniu z projektem indeksu danych blockchain The Graph na tej samej ścieżce, ma on wyraźną przewagę w wycenie.

3.Hivemapper – Miód

Spośród wszystkich materiałów danych, dane wideo często mają najwyższą cenę jednostkową. Hivemapper może dostarczać dane, w tym informacje wideo i mapy, firmom zajmującym się sztuczną inteligencją. Sam Hivemapper jest zdecentralizowanym projektem mapy globalnej, którego celem jest stworzenie szczegółowego, dynamicznego i dostępnego systemu map dzięki technologii blockchain i wkładowi społeczności. Uczestnicy mogą przechwytywać dane map za pomocą kamery samochodowej i dodawać je do sieci danych Hivemapper o otwartym kodzie źródłowym, a także otrzymywać nagrody w oparciu o swój wkład w tokenie projektu HONEY. Aby poprawić efekty sieciowe i zmniejszyć koszty interakcji, Hivemapper opiera się na Solanie.

Firma Hivemapper została założona w 2015 roku. Pierwotną wizją było wykorzystanie dronów do tworzenia map, ale później okazało się, że model ten był trudny do skalowania, dlatego firma zaczęła wykorzystywać rejestratory jazdy i smartfony do przechwytywania danych geograficznych, zmniejszając koszty tworzenia map globalnych .

W porównaniu z oprogramowaniem do widoku ulicy i map, takim jak Mapy Google, Hivemapper może skuteczniej rozszerzać zasięg map, utrzymywać świeżość rzeczywistych scen na mapach i poprawiać jakość wideo poprzez stymulowanie modeli sieciowych i crowdsourcingu.

Zanim zapotrzebowanie AI na dane eksplodowało, głównymi klientami Hivemappera był sektor pojazdów autonomicznych w przemyśle motoryzacyjnym, firmy świadczące usługi nawigacyjne, rządy, firmy ubezpieczeniowe i nieruchomościowe itp. Teraz Hivemapper może zapewnić sztuczną inteligencję i duże modele szeroką gamę danych dotyczących dróg i środowiska za pośrednictwem interfejsów API. Dzięki wprowadzaniu stale aktualizowanych strumieni danych dotyczących obrazów i obiektów dróg, modele AI i ML będą w stanie lepiej przekształcać dane w ulepszone możliwości i zadania. związane z położeniem geograficznym i oceną wizualną.

Źródło danych: https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

Obecna wartość rynkowa projektu Hivemapper-Honey wynosi 120 milionów dolarów, a pełna wartość rynkowa projektu Hivemapper-Honey wynosi 496 milionów dolarów.

Oprócz powyższych trzech projektów, projekty na ścieżce danych obejmują The Graph – GRT (wartość rynku cyrkulacyjnego 3,2 miliarda dolarów, FDV 3,7 miliarda dolarów), którego działalność jest podobna do Covalent i świadczy również usługi indeksowania danych blockchain oraz Ocean Protocol – OCEAN; (wartość rynkowa obiegu 670 mln $, FDV 1,45 mld $, projekt ten wkrótce zostanie połączony z Fetch.ai i SingularityNET, token zostanie zamieniony na ASI), protokół open source mający na celu promowanie wymiany i monetyzacji danych i danych usługi powiązane, łączące konsumentów danych z dostawcami danych w celu udostępniania danych, przy jednoczesnym zapewnieniu zaufania, przejrzystości i identyfikowalności.

Druga perspektywa narracji AI: GPT za chwilę pojawia się ponownie i pojawia się ogólna sztuczna inteligencja

Zdaniem autora pierwszym rokiem „śladu sztucznej inteligencji” w branży szyfrowania jest rok 2023, kiedy GPT zszokowało świat. Gwałtowny wzrost liczby projektów związanych z szyfrowaniem sztucznej inteligencji jest raczej „gorącym następstwem” spowodowanego gwałtownym rozwojem sztucznej inteligencji przemysł.

Chociaż możliwości GPT 4, turbo itp. były stale ulepszane po GPT 3.5, a także niesamowity pokaz możliwości tworzenia wideo przez Sorę, w tym szybki rozwój dużych modeli językowych innych niż OpenAI, nie można zaprzeczyć, że postęp technologiczny Sztuczna inteligencja udostępniona społeczeństwu Wpływ poznawczy słabnie, ludzie stopniowo korzystają z narzędzi sztucznej inteligencji i wydaje się, że nie doszło jeszcze do zmiany miejsca pracy na dużą skalę.

Czy zatem w przyszłości „moment GPT” ponownie pojawi się w dziedzinie sztucznej inteligencji, wraz z gwałtownym rozwojem sztucznej inteligencji, który zszokuje opinię publiczną i sprawi, że ludzie zdadzą sobie sprawę, że w rezultacie zmieni się ich życie i praca?

Ten moment może oznaczać pojawienie się sztucznej inteligencji ogólnej (AGI).

AGI odnosi się do faktu, że maszyny mają wszechstronne zdolności poznawcze podobne do ludzi i mogą rozwiązywać różnorodne złożone problemy, a nie tylko określone zadania. System AGI charakteryzuje się wysokim stopniem abstrakcyjnego myślenia, rozległą wiedzą ogólną, zdrowym rozsądkiem i zrozumieniem przyczynowym we wszystkich dziedzinach, a także możliwościami transferu uczenia się międzybranżowego. Wydajność AGI nie odbiega od najlepszych ludzi w różnych dziedzinach, a pod względem wszechstronnych możliwości całkowicie przewyższa najlepsze grupy ludzkie.

W rzeczywistości, niezależnie od prezentacji w powieściach science fiction, grach, filmach i programach telewizyjnych, czy też oczekiwań opinii publicznej po szybkiej popularności GPT, opinia publiczna od dawna spodziewała się pojawienia się AGI, które przewyższa poziom ludzkiego poznania. Innymi słowy, sam GPT jest wiodącym produktem AGI i proroczą wersją ogólnej sztucznej inteligencji.

Powodem, dla którego GPT ma tak wielką energię przemysłową i wpływ psychologiczny, jest to, że szybkość i wydajność jego wdrożenia przekroczyły oczekiwania opinii publicznej: ludzie nie spodziewali się, że naprawdę pojawił się system sztucznej inteligencji, który może ukończyć test Turinga, i to tak szybko .

W rzeczywistości sztuczna inteligencja (AGI) może za 1-2 lata ponownie osiągnąć nagłość „momentu GPT”: ludzie właśnie przystosowali się do pomocy GPT i odkrywają, że sztuczna inteligencja nie jest już tylko asystentem, może samodzielnie wykonywać nawet ekstremalne zadania. Najbardziej kreatywna i wymagająca praca, obejmująca problemy, które od dziesięcioleci nękają czołowych naukowców ludzkości.

8 kwietnia tego roku Musk zgodził się na rozmowę z Nicolaiem Tangenem, dyrektorem ds. inwestycji norweskiego funduszu Sovereign Wealth Fund i opowiedział o czasie pojawienia się AGI.

Powiedział: „Jeśli AGI zostanie zdefiniowane jako mądrzejsze od najmądrzejszej części rasy ludzkiej, myślę, że prawdopodobnie pojawi się w 2025 roku”.

Oznacza to, że zgodnie z jego wnioskiem pojawienie się AGI zajmie najwyżej półtora roku. Oczywiście dodał warunek wstępny, czyli „jeśli moc i sprzęt wytrzymają”.

Korzyści z pojawienia się AGI są oczywiste.

Oznacza to, że poziom produktywności człowieka zrobi duży krok do przodu, a duża liczba problemów badań naukowych, które nas uwięziły przez dziesięciolecia, zostanie rozwiązana. Jeśli „najmądrzejszą część ludzkości” zdefiniujemy jako poziom zdobywców Nagrody Nobla, oznacza to, że dopóki będzie wystarczająco dużo energii, mocy obliczeniowej i danych, niezliczona liczba niestrudzonych „laureatów Nagrody Nobla” będzie pracować przez całą dobę nad najważniejsze problemy naukowe.

Tak naprawdę zdobywcy Nagrody Nobla nie są tak cenni jak jeden na kilkaset milionów. Większość z nich pod względem zdolności i inteligencji dorównuje czołowym profesorom uniwersyteckim, ale dzięki prawdopodobieństwu i szczęściu wybrali właściwy kierunek – kontynuował. to zrobić i uzyskałem rezultaty. Być może ludzie na tym samym poziomie co on, jego równie wybitni koledzy, również zdobyli Nagrodę Nobla w równoległym wszechświecie badań naukowych. Ale niestety nadal brakuje ludzi z czołowymi profesorami uniwersyteckimi i osób zaangażowanych w przełomowe badania naukowe, więc tempo „przechodzenia przez wszystkie właściwe kierunki badań naukowych” jest nadal bardzo powolne.

Dzięki AGI, gdy energia i moc obliczeniowa zostaną w pełni dostarczone, możemy mieć nieograniczoną liczbę AGI „laureatów Nagrody Nobla” do prowadzenia dogłębnych badań w każdym możliwym, przełomowym kierunku badań naukowych, a tempo doskonalenia technologii będzie dziesiątki razy szybsze. Udoskonalenie technologii spowoduje, że zasoby, które obecnie uważamy za dość drogie i rzadkie, wzrosną setki razy w ciągu 10–20 lat, takie jak produkcja żywności, nowe materiały, nowe leki, edukacja na wysokim poziomie itp., a także koszt ich uzyskania również spadnie wykładniczo. Mogliśmy wyżywić większą populację mniejszymi zasobami, a bogactwo na mieszkańca szybko rosło.

Wykres trendu całkowitego globalnego PKB, źródło danych: Bank Światowy

Może się to wydawać nieco sensacyjne. Przyjrzyjmy się dwóm przykładom, które autor wykorzystywał w poprzednich raportach z badań dotyczących IO.NET:

  • W 2018 r. zdobywca Nagrody Nobla w dziedzinie chemii Francis Arnold powiedział podczas ceremonii wręczenia nagród: „Dziś możemy czytać, pisać i edytować dowolną sekwencję DNA w zastosowaniach praktycznych, ale nie możemy jeszcze jej skomponować”. Pięć lat po jego przemówieniu, w 2023 r., badacze z Uniwersytetu Stanforda i startupu Salesforce Research zajmującego się sztuczną inteligencją w Dolinie Krzemowej opublikowali artykuł w „Nature-Biotechnology”. Wykorzystali precyzyjnie dostrojony model dużego języka w oparciu o GPT 3 do 0, tworząc 1 milion nowych białek i odkryli 2 białka o zupełnie innych strukturach. , ale oba mają właściwości bakteriobójcze i oczekuje się, że oprócz antybiotyków staną się rozwiązaniem do zwalczania bakterii. Innymi słowy: za pomocą sztucznej inteligencji przełamano wąskie gardło w „tworzeniu” białek.

  • Wcześniej algorytm sztucznej inteligencji AlphaFold przewidywał strukturę prawie wszystkich 214 milionów białek na Ziemi w ciągu 18 miesięcy. Wynik ten był setki razy większy od wyników prac wszystkich ludzkich biologów strukturalnych w przeszłości.

Zmiany już zachodzą, a pojawienie się AGI jeszcze bardziej przyspieszy ten proces.

Z drugiej strony wyzwania, jakie niesie ze sobą pojawienie się AGI, są również ogromne.

AGI nie tylko zastąpi dużą liczbę pracowników umysłowych, ale dostawcy usług ręcznych, których obecnie uważa się za „mniej dotkniętych sztuczną inteligencją”, również odczują skutki obniżenia kosztów produkcji spowodowanego dojrzałością technologii robotyki i rozwojem nowych materiałów i będą miały na to wpływ maszyny. Odsetek stanowisk pracy zastępowanych przez oprogramowanie będzie szybko wzrastał.

W tym czasie wkrótce wyjdą na powierzchnię dwa problemy, które kiedyś wydawały się bardzo odległe:

  • Kwestie zatrudnienia i dochodów dużej liczby bezrobotnych

  • Jak w świecie, w którym sztuczna inteligencja jest wszędzie, jak odróżnić sztuczną inteligencję od ludzi?

Worldcoin\Worldchain próbuje zapewnić rozwiązanie, czyli wykorzystanie systemu UBI (Universal Basic Income) do zapewnienia społeczeństwu podstawowego dochodu oraz wykorzystanie biometrii opartej na tęczówce oka w celu odróżnienia ludzi od sztucznej inteligencji.

W rzeczywistości UBI, który rozdziela pieniądze wśród wszystkich ludzi, nie jest zamkiem w powietrzu bez praktycznej praktyki. Kraje takie jak Finlandia i Anglia wprowadziły uniwersalny dochód podstawowy, a partie polityczne w Kanadzie, Hiszpanii, Indiach i innych krajach aktywnie proponują jego promocję. powiązane eksperymenty.

Zaletą dystrybucji UBI opartej na identyfikacji biometrycznej + modelu blockchain jest to, że system ma charakter globalny i ma szersze pokrycie populacji. Dodatkowo można budować inne modele biznesowe w oparciu o sieć użytkowników rozszerzoną poprzez np. dystrybucję dochodów usługi (Defi), sieci społecznościowe, crowdsourcing zadań itp. tworzą współpracę biznesową w ramach sieci.

Jednym z odpowiednich celów pod kątem wpływu pojawienia się AGI jest Worldcoin-WLD, którego wartość rynkowa w obiegu wynosi 1,03 miliarda dolarów, a pełna wartość rynkowa w obiegu wynosi 47,2 miliarda dolarów.

Ryzyko i niepewność w dedukcji narracyjnej

Artykuł ten różni się od wielu raportów z badań dotyczących projektów i ścieżek opublikowanych wcześniej przez Mint Ventures. Wnioski i przewidywania dotyczące narracji są wysoce subiektywne. Czytelnicy proszeni są o traktowanie treści tego artykułu jedynie jako rozbieżnej dyskusji, a nie przewidywania przyszły. Wspomniana powyżej dedukcja narracyjna autora jest obarczona wieloma niepewnościami, co prowadzi do błędnych przypuszczeń. Do zagrożeń lub czynników wpływających zalicza się między innymi:

  • Energia: Gwałtowny spadek zużycia energii spowodowany wymianą procesora graficznego

Chociaż zapotrzebowanie na energię związane ze sztuczną inteligencją wzrosło, producenci chipów reprezentowani przez firmę NVIDIA zapewniają wyższą moc obliczeniową przy niższym zużyciu energii dzięki ciągłym ulepszeniom sprzętu. Na przykład w marcu tego roku firma NVIDIA wypuściła chip, który integruje dwie karty obliczeniowe AI nowej generacji B GB 200 ma 200 procesorów graficznych i procesor Grace. Jego wydajność uczenia jest 4 razy większa niż w przypadku głównego procesora graficznego AI poprzedniej generacji H 100, jego wydajność wnioskowania jest 7 razy większa niż w przypadku H 100, a wymagane zużycie energii wynosi tylko H 100 1/4. . Oczywiście pomimo tego, zapotrzebowanie ludzi na energię pochodzącą ze sztucznej inteligencji jeszcze się nie skończyło. Wraz ze spadkiem jednostkowego zużycia energii oraz dalszym rozwojem scenariuszy i potrzeb zastosowań sztucznej inteligencji, całkowite zużycie energii może faktycznie wzrosnąć.

  • Jeśli chodzi o dane: Q* planuje uzyskać „dane wyprodukowane samodzielnie”

Od zawsze krążyły plotki o projekcie „Q*” w ramach OpenAI, o czym wspomniano w wewnętrznej wiadomości wysłanej do pracowników przez OpenAI. Według Reutersa, powołującego się na znawców OpenAI, może to być przełom dla OpenAI w dążeniu do superinteligencji/ogólnej sztucznej inteligencji (AGI). Q* może nie tylko wykorzystać swoje możliwości abstrakcji do rozwiązywania nigdy wcześniej nie widzianych problemów matematycznych, ale może także samodzielnie tworzyć dane używane do uczenia dużych modeli bez potrzeby korzystania z danych ze świata rzeczywistego. Jeśli ta plotka jest prawdziwa, wąskie gardło w postaci niewystarczających danych wysokiej jakości w szkoleniu dużych modeli sztucznej inteligencji zostanie przełamane.

  • Nadchodzi AGI: ukryte zmartwienia OpenAI

Nadal nie wiadomo, czy AGI dotrze w 2025 r., jak powiedział Musk, ale jest to tylko kwestia czasu. Jednakże, jako bezpośredni beneficjent pojawienia się narracji AGI, największe obawy Worldcoin mogą wynikać z OpenAI. W końcu jest on uznawany za „token cienia OpenAI”.

Wczesnym rankiem 14 maja OpenAI pokazało wydajność najnowszego GPT-4 o i 19 innych różnych wersji dużych modeli językowych w kompleksowych wynikach zadań na wiosennej konferencji poświęconej wprowadzeniu na rynek nowego produktu. Z samej tabeli GPT-4 o uzyskało punkty 1310, wizualnie wydaje się znacznie wyższy od kolejnych, ale w sumie jest tylko o 4,5% wyższy od drugiego miejsca GPT 4 turbo i o 4,9% wyższy od czwartego miejsca Google Gemini 1.5 Pro It 5,1% wyżej od piątego miejsca Anthropic Claude 3 Opus.

Minął nieco ponad rok, odkąd GPT 3.5 zaszokowało świat swoim debiutem, konkurenci OpenAI dogonili już bardzo bliską pozycję (chociaż GPT 5 nie został jeszcze wydany i oczekuje się, że zostanie wydany w tym roku). wydajność w przyszłości? Jego wiodąca pozycja w branży, odpowiedź wydaje się być niejasna. Jeśli przewaga i dominacja OpenAI zostaną osłabione lub nawet przejęte, wartość narracyjna Worldcoina jako tokena cienia OpenAI również spadnie.

Ponadto oprócz rozwiązania Worldcoin do uwierzytelniania tęczówki na ten rynek zaczyna wkraczać coraz więcej konkurentów. Na przykład projekt Humanity Protocol dotyczący identyfikacji skanowanej dłoni właśnie ogłosił zakończenie nowej rundy finansowania w wysokości 30 milionów dolarów według wyceny. o wartości 1 miliarda dolarów i LayerZero Labs Ogłoszono również, że będzie działać na platformie Humanity i dołączy do jej sieci węzłów walidacyjnych, wykorzystując dowody ZK do uwierzytelniania poświadczeń.

Wniosek

Wreszcie, chociaż autor wydedukował późniejszą narrację ścieżki AI, ścieżka AI różni się od utworów kryptonatywnych, takich jak DeFi. Jest to raczej produkt rozlewu szaleństwa AI do kręgu walutowego. Wiele projektów ma obecnie modele biznesowe. Wiele projektów bardziej przypomina memy o tematyce AI (na przykład Rndr jest podobny do mema firmy NVIDIA, a Worldcoin jest podobny do memów OpenAI Readers). należy traktować go ostrożnie.