Geschrieben von Alex Xu

Einführung

Bisher ist dieser Krypto-Bullenmarkt-Zyklus der langweiligste im Hinblick auf Geschäftsinnovationen. Es fehlen die Trends auf Phänomenebene wie DeFi, NFT und Gamefi im vorherigen Bullenmarkt, was zu einem Mangel an Branchen-Hotspots führt Der Gesamtmarkt, die Nutzer sowie das Brancheninvestitions- und Entwicklerwachstum sind relativ schwach.

Dies spiegelt sich auch in den aktuellen Vermögenspreisen wider. Betrachtet man den gesamten Zyklus, verlieren die meisten Alt-Coins weiterhin Blut gegenüber BTC, einschließlich ETH. Schließlich wird die Bewertung der Smart-Contract-Plattform durch den Erfolg der Anwendung bestimmt. Wenn die Entwicklung und Innovation der Anwendung mangelhaft ist, wird es schwierig sein, die Bewertung der öffentlichen Kette zu steigern.

KI, als eine neuere Krypto-Geschäftskategorie in dieser Runde, profitiert von der explosiven Entwicklungsgeschwindigkeit und den anhaltenden Hotspots in der externen Geschäftswelt und dürfte weiterhin für deutlich mehr Aufmerksamkeit für KI-Track-Projekte in der Kryptowelt sorgen.

In dem vom Autor im April veröffentlichten IO.NET-Bericht erläuterte der Autor die Notwendigkeit der Kombination von KI und Krypto, d ressourcenintensive Probleme der KI Eine der Lösungen für die drei Herausforderungen der Ununterscheidbarkeit zwischen Menschen und Maschinen.

Im KI-Track im Bereich der Kryptoökonomie versucht der Autor, einige wichtige Themen anhand eines weiteren Artikels zu diskutieren und abzuleiten, darunter:

  • Welche anderen Narrative keimen im Bereich der Krypto-KI auf oder werden in Zukunft explodieren?

  • Die katalytischen Wege und die Logik dieser Erzählungen

  • Erzählbezogene Projektziele

  • Risiken und Unsicherheiten bei der narrativen Deduktion

Dieser Artikel stellt die inszenierte Denkweise des Autors zum Zeitpunkt der Veröffentlichung dar. Er kann sich in Zukunft ändern und die Ansichten sind möglicherweise sehr subjektiv. Bitte verwenden Sie ihn nicht als Investitionsreferenz . Kommentare und Diskussionen von Kollegen sind willkommen.

Das Folgende ist der Haupttext.

Die nächste Welle von Erzählungen im Bereich der Krypto-KI

Bevor wir offiziell eine Bilanz der nächsten Welle von Erzählungen im Bereich der verschlüsselten KI ziehen, werfen wir zunächst einen Blick auf die wichtigsten Erzählungen der aktuellen verschlüsselten KI. Aus Sicht des Marktwerts sind es diejenigen mit mehr als 1 Milliarde US-Dollar:

  • Rechenleistung: Render (RNDR, umlaufender Marktwert 3,85 Milliarden), Akash (umlaufender Marktwert 1,2 Milliarden), IO.NET (letzte Runde der Primärfinanzierungsbewertung 1 Milliarde)

  • Algorithmus-Netzwerk: Bittensor (TAO, zirkulierender Marktwert 2,97 Milliarden)

  • KI-Agent: Fetchai (FET, zirkulierende Marktkapitalisierung vor der Fusion 2,1 Milliarden)

* Datenzeit: 24.5.2024, Währungseinheiten sind US-Dollar.

Welcher KI-Bereich wird zusätzlich zu den oben genannten Bereichen der nächste sein, wenn der Marktwert eines einzelnen Projekts 1 Milliarde übersteigt?

Der Autor ist der Ansicht, dass darüber aus zwei Perspektiven spekuliert werden kann: dem Narrativ der „Industrieangebotsseite“ und dem Narrativ des „GPT-Moments“.

Die erste Perspektive der KI-Erzählung: Schauen Sie sich von der Angebotsseite der Branche aus die Energie- und Datenverfolgungsmöglichkeiten an, die hinter der KI stehen

Aus Sicht der Angebotsseite der Branche sind die vier treibenden Kräfte für die KI-Entwicklung:

  • Algorithmen: Hochwertige Algorithmen können Trainings- und Inferenzaufgaben effizienter ausführen

  • Rechenleistung: Unabhängig davon, ob es sich um Modelltraining oder Modellbegründung handelt, ist GPU-Hardware erforderlich, um Rechenleistung bereitzustellen. Dies ist derzeit auch der größte Engpass in der Branche, der zu hohen Preisen für Chips der mittleren bis oberen Preisklasse geführt hat .

  • Energie: Das für die KI erforderliche Datenrechenzentrum wird zusätzlich zur Leistung, die die GPU selbst zur Ausführung von Rechenaufgaben benötigt, auch viel Energie für die Wärmeableitung des Rechenzentrums benötigen Der Gesamtenergieverbrauch beträgt etwa 40 %

  • Daten: Die Verbesserung der Leistung großer Modelle erfordert die Erweiterung der Trainingsparameter, was den Bedarf an riesigen Mengen hochwertiger Daten bedeutet

Als Reaktion auf die treibenden Kräfte der oben genannten vier Branchen gibt es in den Bereichen Algorithmen und Rechenleistung Kryptoprojekte mit einem zirkulierenden Marktwert von mehr als 1 Milliarde US-Dollar, während es in den Bereichen Energie und Daten noch keine Projekte mit demselben Marktwert gab .

Tatsächlich könnte es bald zu Engpässen bei der Energie- und Datenversorgung kommen, die zu einer neuen Welle industrieller Hotspots führen und so zu einem Aufschwung kryptobezogener Projekte führen.

Lassen Sie uns zunächst über Energie sprechen.

Am 29. Februar 2024 sagte Musk auf der Bosch Internet World 2024-Konferenz: „Ich habe vor mehr als einem Jahr einen Chipmangel vorhergesagt, und der nächste Mangel wird Strom sein. Ich denke, dass es nächstes Jahr nicht genug Strom geben wird. Führen Sie alle aus.“ Chips.“

Den spezifischen Daten zufolge veröffentlicht das von Li Feifei geleitete Institut für künstliche Intelligenz (Human-Centered Artificial Intelligence) der Stanford University jedes Jahr den „AI Index Report“, den das Forschungsteam im Jahr 2022 für die 21. KI-Branche veröffentlicht hat Die Bewertung kam zu dem Schluss, dass der KI-Energieverbrauch in diesem Jahr nur 0,9 % des weltweiten Strombedarfs ausmachte und der Druck auf Energie und Umwelt begrenzt war. Im Jahr 2023 kam die Internationale Energieagentur (IEA) zu dem Schluss, dass globale Rechenzentren im Jahr 2022 etwa 460 Terawattstunden (TWh) Strom verbrauchen, was 2 % des weltweiten Strombedarfs entspricht. Sie prognostizierte außerdem, dass globale Rechenzentren bis 2026 Energieverbrauch haben werden wird bei nur 620 Terawattstunden und bei bis zu 1050 Terawattstunden liegen.

Tatsächlich ist die Schätzung der Internationalen Energieagentur noch konservativ, da bereits zahlreiche Projekte rund um KI kurz vor dem Start stehen und der entsprechende Energiebedarf im Jahr 2023 weitaus größer ist, als man es sich vorgestellt hat.

Beispielsweise planen Microsoft und OpenAI das Stargate-Projekt. Dieser Plan soll im Jahr 2028 ins Leben gerufen und etwa im Jahr 2030 abgeschlossen werden. Das Projekt sieht den Bau eines Supercomputers mit Millionen dedizierter KI-Chips vor, um OpenAI mit beispielloser Rechenleistung auszustatten und seine Entwicklung im Bereich der künstlichen Intelligenz, insbesondere der Forschung und Entwicklung großer Sprachmodelle, zu unterstützen . Der Plan wird voraussichtlich mehr als 100 Milliarden US-Dollar kosten, 100-mal mehr als die Kosten heutiger großer Rechenzentren.

Allein der Energieverbrauch von Stargate liegt bei bis zu 50 Terawattstunden.

Genau aus diesem Grund sagte OpenAI-Gründer Sam Altman beim Davoser Forum im Januar dieses Jahres: „Zukünftige künstliche Intelligenz erfordert Energiedurchbrüche, denn künstliche Intelligenz wird weit mehr Strom verbrauchen, als die Menschen erwarten.“

Nach Rechenleistung und Energie dürften Daten der nächste Mangelbereich in der schnell wachsenden KI-Branche sein.

Mit anderen Worten: Der Mangel an qualitativ hochwertigen Daten, die für KI erforderlich sind, ist Realität geworden.

Gegenwärtig hat der Mensch aus der Entwicklung von GPT im Wesentlichen die Regeln für das Wachstum der Fähigkeiten großer Sprachmodelle herausgefunden – das heißt, durch die Erweiterung von Modellparametern und Trainingsdaten können die Fähigkeiten des Modells exponentiell verbessert werden – und dieser Prozess kann nicht Kurzfristig ist ein technischer Engpass zu erkennen.

Das Problem besteht jedoch darin, dass hochwertige und offene Daten in Zukunft möglicherweise immer knapper werden und KI-Produkte möglicherweise mit den gleichen Angebots- und Nachfragewidersprüchen bei Daten konfrontiert sind wie Chips und Energie.

Der erste Grund ist die Zunahme von Streitigkeiten über das Eigentum an Daten.

Am 27. Dezember 2023 verklagte die New York Times OpenAI und Microsoft offiziell vor dem US-Bundesbezirksgericht und beschuldigte sie, Millionen ihrer eigenen Artikel zum Trainieren von GPT-Modellen ohne Erlaubnis verwendet zu haben, und verlangte von ihnen „illegales Kopieren und Verwenden einzigartiger“ Wir wird für gesetzliche und tatsächliche Schäden in Milliardenhöhe für unsere Arbeit haftbar gemacht“ und wird außerdem alle Modelle und Trainingsdaten vernichten, die urheberrechtlich geschütztes Material der New York Times enthalten.

Später, Ende März, veröffentlichte die New York Times eine neue Stellungnahme, die nicht nur OpenAI, sondern auch Google und Meta ins Visier nahm. In der Erklärung der New York Times heißt es, dass OpenAI die Sprachteile einer großen Anzahl von YouTube-Videos mithilfe eines Spracherkennungstools namens Whisper transkribiert und dann Text als Text zum Trainieren von GPT-4 generiert habe. Die New York Times gab an, dass es bei großen Unternehmen mittlerweile weit verbreitet sei, beim Training von KI-Modellen Bagatelldiebstähle einzusetzen, und dass Google dies auch für das Training ihrer eigenen großen Modelle tue. im Wesentlichen die Rechte der Ersteller von Videoinhalten verletzen.

Die New York Times und OpenAI sind der „erste KI-Urheberrechtsfall“. Angesichts der Komplexität des Falles und seiner weitreichenden Auswirkungen auf die Zukunft der Content- und KI-Branche wird es möglicherweise nicht bald zu einem Ergebnis kommen. Eines der möglichen Endergebnisse ist eine außergerichtliche Einigung zwischen den beiden Parteien, wobei die wohlhabenden Unternehmen Microsoft und OpenAI eine hohe Entschädigung zahlen. Allerdings werden in Zukunft noch mehr Konflikte im Bereich des Urheberrechts im Datenbereich unweigerlich die Gesamtkosten für qualitativ hochwertige Daten erhöhen.

Darüber hinaus hat Google als weltweit größte Suchmaschine ebenfalls verraten, dass es darüber nachdenkt, Gebühren für seine Suchfunktion zu erheben, wobei das Ziel der Gebührenerhebung jedoch nicht die breite Öffentlichkeit, sondern KI-Unternehmen sind.

Quelle: Reuters

Die Suchmaschinenserver von Google speichern eine riesige Menge an Inhalten, und man kann sogar sagen, dass Google alle Inhalte speichert, die seit dem 21. Jahrhundert auf Internetseiten erschienen sind. Derzeit verarbeiten KI-gesteuerte Suchprodukte, beispielsweise ausländische Produkte wie Perplexity und inländische Produkte wie Kimi und Secret Tower, die gesuchten Daten mithilfe von KI und geben sie dann an Benutzer aus. Die Gebühren der Suchmaschinen für KI werden unweigerlich die Kosten für die Datenerfassung erhöhen.

Tatsächlich haben KI-Giganten neben öffentlichen Daten auch nicht öffentliche interne Daten im Auge.

Photobucket ist eine etablierte Bild- und Video-Hosting-Website, die Anfang der 2000er Jahre 70 Millionen Nutzer hatte und fast die Hälfte des US-amerikanischen Online-Fotomarkts ausmachte. Mit dem Aufstieg der sozialen Medien ist die Zahl der Photobucket-Nutzer deutlich zurückgegangen. Derzeit gibt es nur noch 2 Millionen aktive Nutzer (laut der von den Nutzern unterzeichneten Vereinbarung und Datenschutzrichtlinie zahlen sie eine hohe Gebühr von 399 US-Dollar pro Jahr). Wenn Sie registriert sind, werden sie länger als ein Jahr nicht verwendet. Das Konto wird recycelt und das Recht von Photobucket, die vom Benutzer hochgeladenen Bild- und Videodaten zu verwenden, wird ebenfalls unterstützt. Ted Leonard, CEO von Photobucket, gab bekannt, dass die 1,3 Milliarden Foto- und Videodaten äußerst wertvoll für das Training generativer KI-Modelle sind. Er ist in Gesprächen mit mehreren Technologieunternehmen, um die Daten zu verkaufen, wobei die Angebote zwischen 5 Cent und 1 US-Dollar pro Foto und mehr als 1 US-Dollar pro Video liegen. Er schätzt, dass die Daten, die Photobucket bereitstellen kann, einen Wert von mehr als 1 Milliarde US-Dollar haben.

EPOCH, ein Forschungsteam, das sich auf den Entwicklungstrend der künstlichen Intelligenz konzentriert, hat einmal einen Bericht über die für maschinelles Lernen erforderlichen Daten veröffentlicht, basierend auf der Datennutzung und der Generierung neuer Daten durch maschinelles Lernen im Jahr 2022 und unter Berücksichtigung des Wachstums der Computerressourcen „Werden uns die Daten ausgehen? Eine Analyse der Grenzen der Skalierung von Datensätzen beim maschinellen Lernen“, kam der Bericht zu dem Schluss, dass hochwertige Textdaten zwischen Februar 2023 und 2026 erschöpft sein werden 2060 und 2060. Wenn die Effizienz der Datennutzung nicht wesentlich verbessert werden kann oder neue Datenquellen entstehen, könnte sich der aktuelle Trend zu großen Modellen für maschinelles Lernen, die auf riesigen Datensätzen basieren, verlangsamen.

Angesichts der aktuellen Situation, in der KI-Giganten Daten zu hohen Preisen kaufen, sind kostenlose, qualitativ hochwertige Textdaten im Grunde erschöpft. Die Vorhersage von EPOCH vor zwei Jahren war relativ zutreffend.

Gleichzeitig entstehen auch Lösungen für die Nachfrage nach „KI-Datenknappheit“, nämlich: KI-Datenbereitstellungsdienste.

Defined.ai ist ein Unternehmen, das maßgeschneiderte Daten in echter Qualität für KI-Unternehmen bereitstellt.

Beispiele für Datentypen, die Defined.ai bereitstellen kann: https://www.defined.ai/datasets

Sein Geschäftsmodell lautet: KI-Unternehmen stellen Defined.ai ihre eigenen Datenanforderungen zur Verfügung, beispielsweise in Bezug auf die Bildqualität, welche Auflösung erforderlich ist, um Unschärfe und Überbelichtung zu vermeiden, und ob der Inhalt authentisch ist. Inhaltlich können KI-Unternehmen bestimmte Themen basierend auf ihren eigenen Trainingsaufgaben anpassen, z. B. Fotos bei Nacht, Kegel bei Nacht, Parkplätze und Schilder, um die Erkennungsrate von KI in Nachtszenen zu verbessern. Die Öffentlichkeit kann die Aufgabe übernehmen, das Unternehmen prüft die Fotos und lädt sie hoch. Anschließend werden die Teile, die den Anforderungen entsprechen, anhand der Anzahl der Bilder abgerechnet. Der Preis für ein qualitativ hochwertiges Bild beträgt etwa 1 bis 2 US-Dollar 5 bis 7 US-Dollar für einen Kurzfilm von mehr als zehn Sekunden. Ein hochwertiges Video von mehr als 10 Minuten kostet 100 bis 300 US-Dollar, und ein Text kostet 1 US-Dollar pro tausend Wörter etwa 20 % des Honorars. Die Datenbereitstellung könnte nach der „Datenkennzeichnung“ zu einem weiteren Crowdsourcing-Geschäft werden.

Globales Crowdsourcing von Aufgaben, wirtschaftliche Anreize, Preisgestaltung für Datenbestände, Zirkulation und Schutz der Privatsphäre, an dem jeder teilnehmen kann, klingt nach einer Unternehmenskategorie, die besonders für das Web3-Paradigma geeignet ist.

KI-Narrativziele aus Sicht der Angebotsseite der Industrie

Die durch die Chipknappheit verursachte Besorgnis hat auch die Verschlüsselungsbranche erfasst und verteilte Rechenleistung zur beliebtesten KI-Track-Kategorie mit bisher höchstem Marktwert gemacht.

Wenn also in den nächsten 1-2 Jahren der Widerspruch zwischen Angebot und Nachfrage in der KI-Branche in den Bereichen Energie und Daten aufbricht, welche narrativen Projekte gibt es derzeit in der Verschlüsselungsbranche?

Schauen wir uns zunächst die Energieziele an.

Es gibt nur sehr wenige Energieprojekte, die den führenden CEX eingeführt haben, und es gibt nur eines, Power Ledger (Token Powr).

Power Ledger wurde 2017 gegründet und ist eine umfassende Energieplattform, die auf Blockchain-Technologie basiert. Sie zielt darauf ab, Energietransaktionen zu dezentralisieren, den direkten Stromhandel durch Einzelpersonen und Gemeinschaften zu fördern, die weit verbreitete Anwendung erneuerbarer Energien zu unterstützen und Transparenz und Effizienz von Transaktionen sicherzustellen. Ursprünglich basierte Power Ledger auf einer von Ethereum abgeleiteten Konsortialkette. In der zweiten Hälfte des Jahres 2023 aktualisierte Power Ledger sein Whitepaper und startete eine eigene umfassende öffentliche Kette, die auf der Grundlage des technischen Rahmens von Solana modifiziert wurde, um die Verarbeitung hochfrequenter Mikrotransaktionen im dezentralen Energiemarkt zu erleichtern. Zu den Hauptgeschäftsfeldern von Power Ledger gehören derzeit:

  • Energiehandel: ermöglicht Benutzern den direkten Kauf und Verkauf von Strom, insbesondere aus erneuerbaren Energiequellen, Peer-to-Peer.

  • Handel mit Umweltprodukten: beispielsweise der Handel mit Emissionszertifikaten und Zertifikaten für erneuerbare Energien sowie die Finanzierung auf Basis von Umweltprodukten.

  • Betrieb der öffentlichen Kette: Bringen Sie Anwendungsentwickler dazu, Anwendungen auf der Powerledger-Blockchain zu erstellen, und Transaktionsgebühren in der öffentlichen Kette werden in Powr-Tokens bezahlt.

Der aktuelle Umlaufwert des Power-Ledger-Projekts beträgt 170 Millionen US-Dollar und der volle Umlaufwert beträgt 320 Millionen US-Dollar.

Im Vergleich zu Energieverschlüsselungszielen ist die Anzahl der Verschlüsselungsziele in der Datenspur größer.

Der Autor listet nur die Datenverfolgungsprojekte auf, die ich derzeit beobachte und die mindestens einen der CEXs von Binance, OKX und Coinbase gestartet haben, und sie sind laut FDV von niedrig nach hoch geordnet:

1.Streamr – DATEN

Das Wertversprechen von Streamr besteht darin, ein dezentrales Echtzeit-Datennetzwerk aufzubauen, das Benutzern den freien Handel und Austausch von Daten ermöglicht und gleichzeitig die volle Kontrolle über ihre Daten behält. Mit seinem Datenmarktplatz möchte Streamr es Datenproduzenten ermöglichen, Datenströme ohne Zwischenhändler direkt an interessierte Verbraucher zu verkaufen und so die Kosten zu senken und die Effizienz zu steigern.

Quelle: https://streamr.network/hub/projects

In einem konkreten Kooperationsfall kooperiert Streamr mit DIMO, einem weiteren Web3-Fahrzeughardwareprojekt, um Temperatur, Luftdruck und andere Daten über am Fahrzeug montierte DIMO-Hardwaresensoren zu sammeln, einen Wetterdatenstrom zu bilden und ihn an die bedürftigen Institutionen zu übermitteln.

Im Vergleich zu anderen Datenprojekten konzentriert sich Streamr stärker auf Daten aus dem Internet der Dinge und Hardware-Sensoren. Zusätzlich zu den oben erwähnten DIMO-Fahrzeugdaten umfassen andere Projekte den Echtzeit-Verkehrsdatenstrom von Helsinki. Daher verdoppelte der Projekt-Token DATA von Streamr im Dezember letzten Jahres, als das Depin-Konzept seinen Höhepunkt erreichte, einmal seinen Preis an einem einzigen Tag.

Der aktuelle Umlaufwert des Streamr-Projekts beträgt 44 Millionen US-Dollar und der volle Umlaufwert beträgt 58 Millionen US-Dollar.

2.Kovalent – ​​CQT

Im Gegensatz zu anderen Datenprojekten stellt Covalent Blockchain-Daten bereit. Covalent Network liest Daten von Blockchain-Knoten über RPC und verarbeitet und organisiert die Daten dann, um eine effiziente Abfragedatenbank zu erstellen. Auf diese Weise können Covalent-Benutzer schnell die benötigten Informationen abrufen, ohne komplexe Abfragen direkt vom Blockchain-Knoten durchführen zu müssen. Diese Art von Dienst wird auch „Blockchain-Datenindizierung“ genannt.

Die Kunden von Covalent sind hauptsächlich B-Seiten, darunter Dapp-Projekte wie verschiedene Defi sowie viele zentralisierte Verschlüsselungsunternehmen wie Consensys (die Muttergesellschaft von Metamask), CoinGecko (eine bekannte Krypto-Asset-Marktstation), Rotki ( Steuertools), Rainbow (verschlüsselte Geldbörse) usw. Darüber hinaus sind Fidelity, ein Gigant der traditionellen Finanzbranche, und Ernst & Young, die vier großen Wirtschaftsprüfungsgesellschaften, ebenfalls Kunden von Covalent. Den von Covalent offiziell veröffentlichten Daten zufolge übersteigen die Einnahmen des Projekts aus Datendiensten die von The Graph, dem führenden Projekt auf diesem Gebiet.

Aufgrund der Integrität, Offenheit, Authentizität und Echtzeitnatur der Daten in der Kette wird erwartet, dass die Web3-Branche eine hochwertige Datenquelle für segmentierte KI-Szenarien und spezifische „kleine KI-Modelle“ wird. Als Datenanbieter hat Covalent damit begonnen, Daten für verschiedene KI-Szenarien bereitzustellen und überprüfbare strukturierte Daten speziell für KI auf den Markt gebracht.

Quelle: https://www.covalenthq.com/solutions/decentralized-ai/

Es liefert beispielsweise Daten an die intelligente On-Chain-Handelsplattform SmartWhales und nutzt KI, um profitable Handelsmuster und Adressen zu identifizieren; Entender Finance nutzt die strukturierten Daten und die KI-Verarbeitung von Covalent für Echtzeit-Einblicke, Anomalieerkennung und prädiktive Analysen.

Derzeit sind die Hauptszenarien für die von Covalent bereitgestellten On-Chain-Datendienste noch finanzieller Natur. Mit der Verallgemeinerung von Web3-Produkten und Datentypen werden jedoch auch die Nutzungsszenarien von On-Chain-Daten weiter erweitert.

Der aktuelle Umlaufwert des Covalent-Projekts beträgt 150 Millionen US-Dollar, und der volle Umlaufwert beträgt 235 Millionen US-Dollar. Im Vergleich zu The Graph, einem Blockchain-Datenindexprojekt in derselben Richtung, hat es einen klaren Bewertungsvorteil.

3.Hivemapper – Honig

Unter allen Datenmaterialien haben Videodaten oft den höchsten Stückpreis. Hivemapper kann KI-Unternehmen Daten einschließlich Video- und Karteninformationen zur Verfügung stellen. Hivemapper selbst ist ein dezentrales globales Kartierungsprojekt, das darauf abzielt, durch Blockchain-Technologie und Community-Beiträge ein detailliertes, dynamisches und zugängliches Kartierungssystem zu schaffen. Teilnehmer können Kartendaten über eine Dashcam erfassen und zum Open-Source-Datennetzwerk Hivemapper hinzufügen und Belohnungen basierend auf ihren Beiträgen im Projekt-Token HONEY erhalten. Um Netzwerkeffekte zu verbessern und Interaktionskosten zu reduzieren, basiert Hivemapper auf Solana.

Hivemapper wurde 2015 mit der ursprünglichen Vision gegründet, Drohnen zur Kartenerstellung einzusetzen. Später stellte sich jedoch heraus, dass sich dieses Modell nur schwer skalieren ließ, und wandte sich der Verwendung von Dashcams und Smartphones zu, um geografische Daten zu erfassen, wodurch die Kosten für die globale Kartenproduktion gesenkt wurden.

Im Vergleich zu Street View- und Kartensoftware wie Google Maps kann Hivemapper die Kartenabdeckung effizienter erweitern, die Aktualität realer Kartenszenen aufrechterhalten und die Videoqualität durch Anreiznetzwerke und Crowdsourcing-Modelle verbessern.

Bevor die Nachfrage von KI nach Daten explodierte, gehörten zu den Hauptkunden von Hivemapper der autonome Fahrsektor der Automobilindustrie, Navigationsdienstleistungsunternehmen, Regierungen, Versicherungs- und Immobilienunternehmen usw. Jetzt kann Hivemapper KI und große Modelle über APIs mit einer breiten Palette von Straßen- und Umgebungsdaten versorgen. Durch die Eingabe ständig aktualisierter Bild- und Straßenmerkmalsdatenströme können KI- und ML-Modelle Daten besser in verbesserte Fähigkeiten und Ausführung umwandeln. Aufgaben im Zusammenhang mit der geografischen Lage und dem visuellen Urteilsvermögen.

Datenquelle: https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

Der aktuelle Umlaufwert des Hivemapper-Honey-Projekts beträgt 120 Millionen US-Dollar und der volle Umlaufwert beträgt 496 Millionen US-Dollar.

Zusätzlich zu den oben genannten drei Projekten gehören zu den Projekten auf der Datenspur The Graph – GRT (Umlaufmarktwert von 3,2 Milliarden US-Dollar, FDV von 3,7 Milliarden US-Dollar), dessen Geschäft Covalent ähnelt und auch Blockchain-Datenindizierungsdienste anbietet, und Ocean Protocol –; OCEAN (Umlaufmarktwert 670 Millionen US-Dollar, FDV 1,45 Milliarden US-Dollar, dieses Projekt wird bald mit Fetch.ai und SingularityNET fusioniert, der Token wird in ASI umgewandelt), ein Open-Source-Protokoll zur Förderung des Austauschs und der Monetarisierung von Daten und Datenbezogene Dienste, die Datenkonsumenten mit Datenanbietern verbinden, um Daten auszutauschen und gleichzeitig Vertrauen, Transparenz und Rückverfolgbarkeit zu gewährleisten.

Die zweite Perspektive der KI-Erzählung: GPT taucht jederzeit wieder auf und allgemeine künstliche Intelligenz kommt

Nach Meinung des Autors war das erste Jahr des „KI-Tracks“ in der Verschlüsselungsbranche das Jahr 2023, als GPT die Welt schockierte. Der Anstieg verschlüsselter KI-Projekte ist eher eine Folge der „hitzigen Nachwirkungen“, die durch die explosive Entwicklung der KI verursacht wurden Industrie.

Obwohl die Fähigkeiten von GPT4, Turbo usw. nach GPT3.5 kontinuierlich verbessert wurden und Soras erstaunliche Fähigkeiten zur Videoerstellung gezeigt wurden, einschließlich der schnellen Entwicklung großer Sprachmodelle außer OpenAI, ist der technologische Fortschritt unbestreitbar Die kognitive Wirkung der KI lässt in der Öffentlichkeit nach, die Menschen nutzen nach und nach KI-Tools und es scheint noch nicht zu einem groß angelegten Arbeitsplatzaustausch gekommen zu sein.

Wird es also in Zukunft einen weiteren „GPT-Moment“ im KI-Bereich geben, mit einer sprunghaften Entwicklung der KI, die die Öffentlichkeit schockiert und den Menschen klar macht, dass sich ihr Leben und ihre Arbeit dadurch verändern werden?

Dieser Moment könnte die Ankunft der künstlichen allgemeinen Intelligenz (AGI) sein.

AGI bezieht sich auf die Tatsache, dass Maschinen ähnlich wie Menschen über umfassende kognitive Fähigkeiten verfügen und eine Vielzahl komplexer Probleme lösen können, nicht nur bestimmte Aufgaben. Das AGI-System verfügt über Fähigkeiten wie ein hohes Maß an abstraktem Denken, umfangreiches Hintergrundwissen, gesundes Menschenverstandsdenken und Kausalverständnis in allen Bereichen sowie berufsübergreifendes Transferlernen. Die Leistung von AGI ist nicht von der der besten Menschen in verschiedenen Bereichen zu unterscheiden, und in Bezug auf umfassende Fähigkeiten übertrifft es die besten menschlichen Gruppen bei weitem.

Unabhängig davon, ob es in Science-Fiction-Romanen, Spielen, Filmen und Fernsehwerken dargestellt wird oder ob die öffentliche Erwartung nach der rasanten Popularität von GPT besteht, hat die Öffentlichkeit seit langem mit der Entstehung von AGI gerechnet, die über das Niveau der menschlichen Erkenntnis hinausgeht. Mit anderen Worten: GPT selbst ist das führende Produkt von AGI und die prophetische Version allgemeiner künstlicher Intelligenz.

Der Grund, warum GPT eine so große industrielle Energie und psychologische Wirkung hat, liegt darin, dass die Geschwindigkeit und Leistung seiner Implementierung die öffentlichen Erwartungen übertroffen hat: Die Leute haben nicht erwartet, dass ein künstliches Intelligenzsystem, das den Turing-Test abschließen kann, wirklich angekommen ist, und es ist so schnell . .

Tatsächlich könnte die künstliche Intelligenz (AGI) in ein bis zwei Jahren erneut den „GPT-Moment“ erleben: Die Menschen haben sich gerade an die Unterstützung durch GPT gewöhnt und entdeckt, dass KI nicht mehr nur ein Assistent ist, sondern sogar Aufgaben erledigen kann Extreme Aufgaben unabhängig Die kreativste und anspruchsvollste Arbeit, einschließlich jener schwierigen Probleme, die den Spitzenwissenschaftlern der Menschheit jahrzehntelang entgangen sind.

Am 8. April dieses Jahres wurde Musk von Nicolai Tangen, Chief Investment Officer des norwegischen Staatsfonds, interviewt und sprach über die Zeit, als AGI entstand.

Er sagte: „Wenn Sie AGI als intelligenter als den klügsten Teil des Menschen definieren, denke ich, dass es wahrscheinlich im Jahr 2025 auftauchen wird.“

Das heißt, seiner Schlussfolgerung zufolge wird es höchstens eineinhalb Jahre dauern, bis AGI kommt. Natürlich fügte er eine Voraussetzung hinzu, nämlich „wenn die Leistung und die Hardware mithalten können“.

Die Vorteile der Einführung von AGI liegen auf der Hand.

Das bedeutet, dass das Niveau der menschlichen Produktivität einen großen Schritt nach vorne machen wird und eine große Zahl wissenschaftlicher Forschungsprobleme gelöst werden wird, die uns seit Jahrzehnten in die Falle locken. Wenn wir „den klügsten Teil der Menschheit“ als die Ebene der Nobelpreisträger definieren, bedeutet das, dass wir, solange genügend Energie, Rechenleistung und Daten vorhanden sind, unzählige unermüdliche „Nobelpreisträger“ haben können, die rund um die Uhr arbeiten die wichtigsten Probleme.

Tatsächlich seien Nobelpreisträger nicht so selten wie einer von ein paar Hundert Millionen. Die meisten von ihnen stünden in Bezug auf Fähigkeiten und Intelligenz auf dem Niveau von Spitzenuniversitätsprofessoren, aber aufgrund von Wahrscheinlichkeit und Glück hätten sie die richtige Richtung gewählt, fuhr er fort um es zu tun, und habe Ergebnisse erzielt. Menschen auf seinem gleichen Niveau, seine ebenso herausragenden Kollegen, könnten auch im Paralleluniversum der wissenschaftlichen Forschung den Nobelpreis gewonnen haben. Leider gibt es immer noch nicht genügend Leute mit Spitzen-Universitätsprofessoren und Teilnehmern an Durchbrüchen in der wissenschaftlichen Forschung, so dass die Geschwindigkeit, „alle richtigen Richtungen der wissenschaftlichen Forschung zu durchqueren“, immer noch sehr langsam ist.

Mit AGI können wir bei vollständiger Bereitstellung von Energie und Rechenleistung über unbegrenzte AGIs auf „Nobelpreisträger“-Niveau verfügen, um eingehende Untersuchungen in jede mögliche bahnbrechende Richtung der wissenschaftlichen Forschung durchzuführen, und die Geschwindigkeit der Technologieverbesserung wird um ein Vielfaches schneller sein. Die Verbesserung der Technologie wird dazu führen, dass die Ressourcen, die wir heute als ziemlich teuer und knapp betrachten, in 10 bis 20 Jahren um das Hundertfache zunehmen, wie z. B. Nahrungsmittelproduktion, neue Materialien, neue Medikamente, hochqualifizierte Bildung usw. und so weiter Auch die Kosten für den Erwerb dieser Ressourcen werden exponentiell sinken. Wir konnten eine größere Bevölkerung mit weniger Ressourcen ernähren und das Pro-Kopf-Vermögen nahm rapide zu.

Globales BIP-Trenddiagramm, Datenquelle: Weltbank

Das klingt vielleicht etwas sensationell. Schauen wir uns zwei Beispiele an, die ich auch in früheren Forschungsberichten zu IO.NET verwendet habe:

  • Im Jahr 2018 sagte der Chemie-Nobelpreisträger Francis Arnold bei der Preisverleihung: „Heute können wir jede DNA-Sequenz in praktischen Anwendungen lesen, schreiben und bearbeiten, aber fünf Jahre nach seiner Rede, im Jahr 2023, können Forscher sie noch nicht komponieren.“ Von der Stanford University und dem Silicon Valley AI-Startup Salesforce Research wurde ein Artikel in „Nature-Biotechnology“ veröffentlicht. Sie verwendeten ein großes, auf GPT3 basierendes Sprachmodell, um von 0 auf eine Million neuer Proteine ​​zu gelangen, und zwei Proteine ​​mit völlig unterschiedlichen Eigenschaften Es wurden jedoch beide Strukturen mit bakterizider Wirkung gefunden, von denen erwartet wird, dass sie neben Antibiotika auch eine Lösung zur Bekämpfung von Bakterien darstellen. Mit anderen Worten: Mit Hilfe der KI wurde der Engpass bei der Protein-„Erstellung“ durchbrochen.

  • Zuvor hatte der AlphaFold-Algorithmus der künstlichen Intelligenz innerhalb von 18 Monaten die Struktur fast aller 214 Millionen Proteine ​​auf der Erde vorhergesagt. Dieses Ergebnis war in der Vergangenheit hundertfach die Arbeit aller menschlichen Strukturbiologen.

Der Wandel ist bereits im Gange und die Einführung von AGI wird diesen Prozess noch weiter beschleunigen.

Andererseits sind die Herausforderungen, die das Aufkommen von AGI mit sich bringt, auch enorm.

AGI wird nicht nur eine große Zahl von Geistesarbeitern ersetzen, sondern auch manuelle Dienstleister, die heute als „weniger von KI betroffen“ gelten, werden von der Senkung der Produktionskosten betroffen sein, die durch die Reife der Robotertechnologie und die Entwicklung neuer Materialien entsteht , und wird durch Maschinen beeinflusst. Der Anteil der durch Software ersetzten Arbeitsstellen wird rapide zunehmen.

Zu diesem Zeitpunkt werden bald zwei Probleme an die Oberfläche treten, die einst sehr weit entfernt schienen:

  • Beschäftigungs- und Einkommensprobleme für die große Zahl arbeitsloser Menschen

  • Wie kann man in einer Welt, in der KI allgegenwärtig ist, den Unterschied zwischen KI und Menschen erkennen?

Worldcoin\Worldchain versucht, eine Lösung bereitzustellen, nämlich das UBI-System (Universal Basic Income) zu nutzen, um der Öffentlichkeit ein Grundeinkommen zu bieten, und irisbasierte Biometrie zu verwenden, um Menschen von KI zu unterscheiden.

Tatsächlich ist ein BGE, das Geld an alle Menschen verteilt, ohne praktische Praxis kein Luftschloss. Länder wie Finnland und England haben ein universelles Grundeinkommen eingeführt, und politische Parteien in Kanada, Spanien, Indien und anderen Ländern schlagen aktiv vor, es zu fördern verwandte Experimente.

Der Vorteil der UBI-Verteilung auf der Grundlage des biometrischen Identifikations- und Blockchain-Modells besteht darin, dass das System global ist und eine breitere Abdeckung der Bevölkerung bietet. Darüber hinaus können andere Geschäftsmodelle auf der Grundlage des durch Einkommensverteilung erweiterten Benutzernetzwerks aufgebaut werden Dienstleistungen (Defi), soziale Netzwerke, Aufgaben-Crowdsourcing usw. bilden die geschäftliche Zusammenarbeit innerhalb des Netzwerks, weshalb

Eines der entsprechenden Ziele für die Auswirkungen, die das Aufkommen von AGI mit sich bringt, ist Worldcoin – WLD mit einer zirkulierenden Marktkapitalisierung von 1,03 Milliarden US-Dollar und einer vollständigen zirkulierenden Marktkapitalisierung von 47,2 Milliarden US-Dollar.

Die Risiken und Unsicherheiten der narrativen Deduktion

Dieser Artikel unterscheidet sich von vielen früheren Projekt- und Track-Forschungsberichten, die von Mint Ventures veröffentlicht wurden. Die Schlussfolgerung und Vorhersage der Erzählung sind höchst subjektiv. Die Leser werden gebeten, den Inhalt dieses Artikels nur als eine abweichende Diskussion und nicht als Vorhersage zu betrachten Zukunft. Die oben erwähnte narrative Schlussfolgerung des Autors ist mit vielen Unsicherheiten konfrontiert, die zu falschen Vermutungen führen. Zu diesen Risiken oder Einflussfaktoren gehören unter anderem:

Energie: Rasanter Rückgang des Energieverbrauchs durch GPU-Austausch

Obwohl der Energiebedarf rund um die KI sprunghaft angestiegen ist, bieten die von NVIDIA vertretenen Chiphersteller durch kontinuierliche Hardware-Upgrades eine höhere Rechenleistung bei geringerem Stromverbrauch. Beispielsweise hat NVIDIA im März dieses Jahres zwei B200-Prozessoren herausgebracht, die die KI-Rechenkarte GB200 der neuen Generation integrieren Verwendet eine GPU und eine Grace-CPU. Seine Trainingsleistung ist viermal so hoch wie die der Haupt-KI-GPU H100, seine Inferenzleistung ist siebenmal so hoch wie die von H100 und der erforderliche Energieverbrauch beträgt nur 1/4 von H100. Trotzdem ist der Wunsch der Menschen nach Strom durch KI noch lange nicht gestillt. Da der Energieverbrauch der einzelnen Einheiten sinkt und sich die Anwendungsszenarien und Anforderungen der KI weiter ausdehnen, kann der Gesamtenergieverbrauch tatsächlich steigen.

Apropos Daten: Q* plant die Implementierung „selbst generierter Daten“

Es gab Gerüchte über ein Projekt „Q*“ innerhalb von OpenAI, das in einer internen Nachricht von OpenAI an Mitarbeiter erwähnt wurde. Laut Reuters unter Berufung auf OpenAI-Insider könnte dies ein Durchbruch für OpenAI in seinem Streben nach Superintelligenz/allgemeiner künstlicher Intelligenz (AGI) sein. Q* kann seine Abstraktionsfähigkeiten nicht nur nutzen, um nie zuvor gesehene mathematische Probleme zu lösen, es kann auch die Daten, die zum Trainieren großer Modelle verwendet werden, selbst erstellen, ohne dass reale Daten erforderlich sind. Wenn dieses Gerücht wahr ist, wird der Engpass beim Training großer KI-Modelle, der durch unzureichende qualitativ hochwertige Daten begrenzt ist, überwunden.

AGI kommt: Die verborgenen Sorgen von OpenAI

Es ist noch nicht bekannt, ob AGI im Jahr 2025 eintreffen wird, wie Musk sagte, aber es ist nur eine Frage der Zeit. Da Worldcoin jedoch ein direkter Nutznießer der AGI-Erscheinungserzählung ist, könnte die größte Sorge von OpenAI ausgehen, schließlich wird es als „OpenAI-Schatten-Token“ anerkannt.

Am frühen Morgen des 14. Mai zeigte OpenAI die Leistung des neuesten GPT-4o und 19 anderer verschiedener Versionen großer Sprachmodelle in umfassenden Aufgabenbewertungen auf der Konferenz zur Einführung neuer Produkte im Frühjahr. Allein in der Tabelle erzielte GPT-4o 1310 Punkte. und die visuelle Punktzahl betrug 1310. Sie scheint viel höher zu sein als die folgenden, aber in Bezug auf die Gesamtpunktzahl ist sie nur 4,5 % höher als der zweitplatzierte GPT4 Turbo, 4,9 % höher als der viertplatzierte Googles Gemini 1.5 Pro. und 4,9 % höher als der fünfte Platz. Claude 3 Opus stieg um 5,1 %.

Etwas mehr als ein Jahr ist vergangen, seit GPT3.5 die Welt schockierte, als es auf den Markt kam. Die Konkurrenten von OpenAI sind bereits ganz nah dran (obwohl GPT5 noch nicht veröffentlicht wurde und voraussichtlich in diesem Jahr veröffentlicht wird). Wettbewerbsfähigkeit in der Zukunft? Ihre eigene branchenführende Position, die Antwort scheint zu verschwimmen. Wenn der Vorsprung und die Dominanz von OpenAI verwässert oder sogar überholt werden, wird auch der narrative Wert von Worldcoin als Schatten-Token von OpenAI sinken.

Darüber hinaus haben neben der Iris-Authentifizierungslösung von Worldcoin immer mehr Wettbewerber begonnen, in diesen Markt einzusteigen. So hat beispielsweise das Handscanner-ID-Projekt Humanity Protocol gerade den Abschluss einer neuen Finanzierungsrunde in Höhe von 30 Millionen US-Dollar bekannt gegeben von 1 Milliarde US-Dollar und LayerZero Labs Es wurde außerdem angekündigt, dass es auf Humanity laufen und seinem Netzwerk von Validierungsknoten beitreten wird, wobei ZK-Proofs zur Authentifizierung von Anmeldeinformationen verwendet werden.

Abschluss

Obwohl der Autor die Folgeerzählung des KI-Tracks abgeleitet hat, unterscheidet sich der KI-Track schließlich von krypto-nativen Tracks wie DeFi Viele aktuelle Projekte ähneln eher Memes mit KI-Thema (Rndr ähnelt dem Meme von OpenAI). sollte es mit Vorsicht behandeln.