Verfasst von: Si Ma Cong
Crypto × AI, das Erzählung der künstlichen Intelligenz in der Welt der Kryptowährungen, wird iterativ sein und ist im Wesentlichen mit der Erzählung in anderen Branchen identisch. Es ähnelt eher dem, was Satoshi in seinem Bitcoin-Whitepaper gesagt hat: Bitcoin ist nur eine Belohnung für ein Peer-to-Peer-Zahlungssystem, und das Netzwerk selbst ist das Wesentliche. Tokens sind nur die Oberfläche, das Lösen von Schmerzpunkten ist die zentrale Logik. Wenn man die Rechenleistung von Depin und ähnlichen Modellen als Maßstab nimmt, könnte man sagen, dass die AI-Agenten die 2.0-Erzählung der kryptografischen künstlichen Intelligenz sind, die mit dem Fortschritt der künstlichen Intelligenz einhergeht?
Auf Anwendungsebene ist die Frage, ob es bahnbrechende, tragfähige revolutionäre Produkte gibt, zum grundlegenden logischen Kriterium geworden, um zu beurteilen, ob es eine Blase in der künstlichen Intelligenz gibt;
Rechenleistung prägt eine der grundlegenden Logiken der künstlichen Intelligenz und ist auch eine der wichtigsten Existenzformen der Infrastruktur;
Die Nutzerzahl und -aktivität, der Umsatz sind die Kernindikatoren zur Messung der Blase in der künstlichen Intelligenz;
Die Anwendungsbereiche der AI-Agenten sind eines der Kernlogiken und die zentrale Unterstützung der Erzählung, die Lösung von Schmerzpunkten ist die wesentliche Konnotation der Erzählung;
Der Bedarf an Rechenleistung zum Aufbau von Infrastrukturen bildet einen der Kerne der grundlegenden Logik der künstlichen Intelligenz und prägt die zentrale Erzählung von Geschäftsmodellen wie der Rechenleistung vermietung in Depin;
Die Förderung von Meme Coin durch AI-Agenten ist ein erzwungener Versuch, den AI-Agenten-Traffic im AI-Bereich zu nutzen, der direkt mit Inschriften verglichen werden kann;
Bis zum 26. November 2024 hat clanker in nur zwei Wochen insgesamt 3500 Token ausgegeben, am 9. März wurden an einem einzigen Tag über 30.000 „Inschriften“ geprägt, darunter fast 27.000 in Textform;
Derzeit ist die Erzählung von Crypto × AI mit AI-Agenten 2.0 keine intelligente Bereitstellung von Meme Coins und sollte nicht die Erzählung in diesem Bereich sein;
Halb Wasser, halb Flamme
Zuerst gibt es unendliche Vorstellungskraft in der AI-Industrie.
Anfang 2024 brachte OpenAI das Video-Generierungsmodell Sora auf den Markt, das erstmals über starke Video-Generierungsfähigkeiten verfügte und für Aufsehen in der Branche sorgte. Im Mai veröffentlichte OpenAI GPT-4o, wobei das „o“ für „omni (allmächtig)“ steht. Dieses Modell kann verschiedene Datenformen wie Texte, Bilder und Audio verarbeiten oder generieren und hat sogar die Fähigkeit für realistische Echtzeit-Sprachdialoge.
Meta veröffentlichte im Juli die Llama 3.1 405B-Version, die in den Bereichen Inferenz, Mathematik, mehrsprachige Verarbeitung und langfristige Kontextaufgaben mit führenden Basis-Modellen wie GPT-4o und Claude 3.5 Sonnet konkurrieren kann.
Llama 3.1 hat die Lücke zwischen offenen und geschlossenen Modellen verringert und den Lebensraum globaler nicht führender Basis-Modelle weiter eingeengt.
In Anbetracht der Sorgen um Rechenleistung und der extrem hohen Investitionsbarrieren hat sich auch die Miniaturisierung und der Edge-Computing-Trend allmählich herausgebildet. Mehrere Unternehmen haben spezialisierte oder Edge-basierte Modelle mit weniger als 4B (4 Milliarden) Parametern herausgebracht, die die Anforderungen an die Rechenleistung erheblich reduzieren, während die Leistung weitgehend erhalten bleibt.
Apple hat im Juni ein persönliches intelligentes System namens Apple Intelligence für iPhone, iPad und Mac veröffentlicht, das ein lokales Modell mit etwa 3B (30 Milliarden Parametern) integriert, um leistungsstarke generative AI-Funktionen bereitzustellen.
Dr. Demis Hassabis and Dr. John Jumper of Google's DeepMind, known as the 'father of AlphaFold,' won the Nobel Prize in Chemistry for protein structure prediction, while Geoffrey Hinton and John Hopfield received the Nobel Prize in Physics for their research on neural networks, highlighting the profound impact of AI on biology and physics. It's also worth mentioning that thanks to the development of multimodal large models, the safety and reliability of autonomous driving have significantly improved, and the perception, decision-making, and interaction capabilities of embodied intelligent robots have also been enhanced.
In the field of AI infrastructure, Nvidia has become the second largest company in the world by market value (over 3.3 trillion dollars as of November 26, 2024) due to its strong profitability (Q2 revenue of about 30 billion dollars and net profit of about 16.6 billion dollars) and monopolistic position in computing chips. Traditional competitors like AMD and Intel cannot narrow the gap, while start-ups like Cerebras, Groq and others hope to carve out a space in inference chips.
Aber auf der Anwendungsebene ist die Frage, ob es bahnbrechende, tragfähige revolutionäre Produkte gibt, zum grundlegenden logischen Kriterium geworden, um zu beurteilen, ob es eine Blase in der künstlichen Intelligenz gibt.
Die Anwendungen von AI sind noch nicht wie erwartet umgesetzt worden. Dies zeigt sich darin, dass führende Produkte in Bezug auf Nutzerwachstum, -verbleib und -aktivität noch Verbesserungspotenzial aufweisen. Diese Anwendungen konzentrieren sich hauptsächlich auf große Sprachmodell-Assistenten, AI-Begleiter, multimodale Kreativwerkzeuge, Programmierassistenz, Verkaufs- und Marketingbereiche, in denen sie einige Benutzer oder Geschäftsergebnisse erzielt haben, aber die Abdeckung noch nicht ausreichend ist. Darüber hinaus mangelt es der AI-Industrie momentan an eigener Ertragskraft, da das Verhältnis von Investitionen zu Erträgen stark unausgewogen ist.
Rechenleistung prägt eine der grundlegenden Logiken der künstlichen Intelligenz und ist auch eine der wichtigsten Existenzformen der Infrastruktur.
Laut Tencent Technology haben die vier Giganten Google, Meta, Microsoft und Amazon im zweiten Quartal 2024 52,9 Milliarden US-Dollar investiert. Bis Ende August haben AI-Startups bis zu 64,1 Milliarden US-Dollar an Risikokapital gesammelt.
Die vier Giganten haben Datenzentren mit insgesamt 1000 gebaut. Neben der Energie machen GPUs fast die Hälfte der Kosten in den Datenzentren aus, und Nvidia erzielte im zweiten Quartal 2024 einen Umsatz von 30 Milliarden Dollar durch den Verkauf von GPU-Leistung.
Elon Musks xAI hat einen Supercomputer namens Colossus aufgebaut, der mit 100.000 Nvidia H100 GPUs ausgestattet ist und plant, die GPU-Kapazität zu verdoppeln. Meta trainiert auch das neue Llama 4 AI-Modell, das voraussichtlich 2025 veröffentlicht wird und über 100.000 Nvidia H100 GPUs verwendet.
Öffentliche Berichte besagen, dass Musk sogar den Chef von Oracle um Hilfe bei der Beschaffung von Chips gebeten hat.
Der Bedarf an Rechenleistung hat sich in starke Finanzdaten von Nvidia verwandelt, die den Aktienkurs auf einem historischen Hoch halten.
Der Bedarf an Rechenleistung zum Aufbau von Infrastrukturen bildet einen der Kerne der grundlegenden Logik der künstlichen Intelligenz und prägt die zentrale Erzählung von Geschäftsmodellen wie der Rechenleistung vermietung in Depin.
Bloomberg berichtete, dass die vier Technologiegiganten Microsoft, Alphabet (Muttergesellschaft von Google), Amazon und Meta im Jahr 2024 mehr als 200 Milliarden Dollar für Investitionen ausgeben werden. Die enormen Investitionen führen zu einem rasanten Wachstum beim Bau von AI-Datenzentren. Laut Schätzungen benötigt das Training der nächsten Generation großer Modelle die zehnfache Rechenleistung, was höhere Anforderungen an den Bau von Datenzentren stellt.
Die Technologie selbst und die wirtschaftliche Machbarkeit sind die zentralen Kriterien für die Beurteilung.
Zuerst die kommerzielle Machbarkeit.
Ob auf Websites oder Apps, die signifikante Kluft zwischen den Hauptanwendungen der AI und traditionellen Hauptanwendungen zeigt sich in zwei entscheidenden Indikatoren – Nutzerzahl und Nutzeraktivität.
Nehmen wir OpenAI's ChatGPT als Beispiel, die am häufigsten besuchte AI-Boom-Anwendung. Nach einem raschen Wachstum zu Beginn des Jahres 2023 trat der Zugriff ab April 2023 in eine langfristige Phase ein. Obwohl ChatGPT nach der Veröffentlichung des GPT-4o-Modells im Mai 2024 einen neuen Wachstumsschub erlebte, war dieser Anstieg eher kurzlebig, und seine Nachhaltigkeit bleibt abzuwarten.
Another well-known application with the second highest user access, Character.ai, has also seen its website traffic growth slow since the second half of 2023.
Ein weiterer Kernindikator ist der Umsatz.
Der jährliche Gesamterlös von Kunden im AI-Großmodell-Sektor beträgt derzeit nur einige hundert Milliarden Dollar. Zum Beispiel wird OpenAI unter den führenden Unternehmen einen Jahresumsatz von etwa 3,7 Milliarden Dollar erwarten, mit einem geschätzten Verlust von 5 Milliarden Dollar. (Die New York Times) berichtet, dass die größten Kosten von OpenAI in den Rechenressourcen liegen; Microsofts GitHub Copilot hat einen Jahresumsatz von etwa 300 Millionen Dollar, (The Wall Street Journal) berichtet, dass GitHub Copilot in den ersten Monaten des Jahres 2024 durchschnittlich 20 Dollar pro Monat für die meisten Benutzer „verliert“ und sogar einigen Benutzern 80 Dollar verliert.
Auf mikroökonomischer Ebene ist es kaum anzusehen.
„Wie kann ich einen Teil meiner Anteile an dem großen Modell-Startup verkaufen?“ ist bereits ein breit diskutiertes Thema.
Jetzt breitet sich eine pessimistische Einstellung unter den Investoren aus: Im großen Modellbereich könnte es für Startups schwierig sein, gegen große Unternehmen zu gewinnen – sie haben die Geschwindigkeit, mit der der Wendepunkt des Wachstums erreicht wird, überschätzt und die Entschlossenheit und Handlungsfähigkeit großer chinesischer Unternehmen unterschätzt.
Marktberichte deuten darauf hin, dass eine Reihe von Startups in eine Anpassungsphase eingetreten sind. In der zweiten Hälfte dieses Jahres haben mindestens 5 große Modell-Startups Personaländerungen erlebt:
Intelligent Pattern AI hatte während ihres Höhepunkts über 1000 Mitarbeiter, reduzierte sich in diesem Jahr um mehr als hundert, viele Liefer- und Verkaufspersonal haben das Unternehmen verlassen;
Zero One Ten Thousand hat ein Team von Dutzenden von Personen umstrukturiert und sich auf die Produkt- und Betriebsabteilungen konzentriert;
Das Commercialization- und Teilproduktbetriebsteam von MiniMax hat insgesamt etwa 50 Mitarbeiter abgebaut;
Die dunkle Seite des Mondes hat aufgrund der Schrumpfung des Auslandsgeschäfts mehr als 10 Mitarbeiter reduziert;
Bai Chuan Intelligent hat ebenfalls etwa 20 Mitarbeiter abgebaut, hauptsächlich in der Anpassung von C-End-Produktmitarbeitern.
Lass uns die Technologie selbst betrachten.
Ein Bericht von The Information besagte, dass die Vorabtrainierung von Modellen „an ihre Grenzen gestoßen“ sei. Die Qualitätsverbesserung des nächsten Flaggschiffmodells von OpenAI sei nicht so groß wie zuvor, da die Menge an qualitativ hochwertigen Texten und anderen Daten abnimmt. Das ursprüngliche Scaling Law (ein größeres Modell mit mehr Daten zu trainieren) könnte möglicherweise nicht nachhaltig sein. Zudem könnten fortschrittlichere Modelle aufgrund der explodierenden Trainingskosten wirtschaftlich nicht tragfähig sein.
Ilya Sutskever stated in a media interview that the effects achieved through expanded pre-training—using a large amount of unlabeled data to understand language patterns and structures during the training of AI models—have already reached a bottleneck.
In der Folge traten viele Tech-Giganten auf, um zu betonen, dass das Scaling Law nicht nachlässt. So sagte Jensen Huang: „Ich habe keine Hindernisse für das Scaling Law in der künstlichen Intelligenz gesehen, im Gegenteil, es gab ein neues Scaling Law für Berechnungen während der Tests.“ Er glaubt, dass o1 eine neue Methode zur Verbesserung von Modellen in der AI-Industrie darstellt. Gleichzeitig erklärte auch der CEO von Anthropic, Dario Amodei, am Mittwoch, dass er keine Anzeichen für eine Verlangsamung der Modellentwicklung sieht.
Seit der Einführung von ChatGPT Ende 2022 ist das Scaling Law das theoretische Fundament, das das exponentielle Wachstum von AI unterstützt. In einem wichtigen Papier von OpenAI, „Scaling Laws for Neural Language Models“, schlossen die Forscher, dass große Sprachmodelle dem „Scaling Law“ folgen.
Durch Forschung wurde nachgewiesen, dass die Leistung von großen Sprachmodellen verbessert wird, wenn wir die Parametergröße, die Größe des Datensatzes erhöhen und die Trainingszeit des Modells verlängern. Und wenn sie unabhängig von den anderen beiden Faktoren betrachtet wird, gibt es eine Potenzgesetzbeziehung zwischen der Leistung des großen Modells und jedem einzelnen Faktor, die sich in der Senkung des Testverlustes widerspiegelt, was eine Verbesserung der Modellleistung bedeutet.
Es ist jedoch wichtig zu beachten, dass das Scaling Law kein echtes physikalisches Gesetz ist. Ähnlich wie das Moore'sche Gesetz beobachtet es, dass die Leistung von Halbleitern ungefähr alle zwei Jahre verdoppelt wird, was dem Eindruck ähnelt, dass die AI-Leistung in den letzten Jahren etwa alle sechs Monate verdoppelt wird.
For example, a16z venture capitalist Ben Horowitz stated: "We are increasing the number of GPUs used to train AI at the same rate, but we are not seeing any intelligence improvements from it."
In einem kürzlich umstrittenen Artikel von The Information (mit der Überschrift „Da das Wachstum von GPT nachlässt, ändert OpenAI die Strategie“) wurden einige kontroverse Ansichten dargelegt:
Das nächste Flaggschiffmodell von OpenAI, Orion, macht im Vergleich zu seinen Vorgängern keinen großen Sprung, obwohl es die bestehenden Modelle übertreffen wird, ist die Verbesserung im Vergleich zu dem Übergang von GPT-3 zu GPT-4 deutlich geringer;
Ein wesentlicher Grund, warum das Scaling Law allmählich langsamer wird, ist, dass qualitativ hochwertige Textdaten immer seltener werden. OpenAI hat ein Grundteam gegründet, um zu untersuchen, wie man mit der Knappheit an Trainingsdaten umgehen kann;
Die AI-Industrie verlagert ihren Schwerpunkt auf die Phase nach dem ursprünglichen Training, um die Modelle zu verbessern.
Ein gleichzeitig diskutierter Bericht ist ein Papier (Scaling Laws for Precision), wo der CMU-Professor Tim Dettmers kommentierte: Es ist das wichtigste Papier seit langer Zeit, das mit starken Beweisen zeigt, dass wir die Grenzen der Quantifizierung erreichen. Das Papier sagt: Je mehr Etiketten Sie trainieren, desto höher muss die Präzision sein. Dies hat weitreichende Auswirkungen auf das gesamte Feld und die Zukunft von GPUs.
Tim Dettmers glaubt: Man kann sagen, dass der Großteil des Fortschritts in der künstlichen Intelligenz auf der Verbesserung der Rechenleistung beruht, und (in letzter Zeit) hängt dies hauptsächlich von der Beschleunigung des Low-Precision-Ansatzes (32- > 16 - > 8 Bit) ab. Es scheint, dass dieser Trend bald enden wird. Zusammen mit den physikalischen Einschränkungen des Moore'schen Gesetzes könnte man sagen, dass die großflächige Skalierung großer Modelle zu Ende geht. Und aus meiner eigenen Erfahrung (mit vielen gescheiterten Studien) ist Effizienz nicht täuschbar. Wenn Quantifizierung scheitert, wird auch Sparsity scheitern, und andere Effizienzmechanismen werden ebenfalls scheitern. Wenn das wahr ist, sind wir jetzt schon nah am Optimum.
Der US-amerikanische Risikokapitalgeber Sequoia Capital stellte in dem Artikel (The AI Supply Chain Tug of War) fest, dass die AI-Lieferkette derzeit einen fragilen Gleichgewichtszustand aufweist. Sie unterteilen die AI-Lieferkette von unten nach oben in sechs Schichten, wobei die Rentabilität der einzelnen Schichten erheblich variiert.
Die erste Schicht sind Chipfabriken (wie TSMC) und die zweite Schicht sind Chipdesigner (wie Nvidia), die gegenwärtig die Hauptgewinner sind und weiterhin hohe Gewinnspannen aufrechterhalten; die dritte Schicht sind industrielle Energieanbieter (wie Elektrizitätsunternehmen), die ebenfalls erheblich von der steigenden Nachfrage nach Datenzentren profitieren. Die vierte Schicht, die als Kernträger der Lieferkette fungiert, die Cloud-Anbieter, ist jedoch in einer Phase schwerer Investitionen, da sie nicht nur große Summen in den Aufbau von Datenzentren investieren, sondern auch in die Entwicklung eigener Modelle oder große Investitionen in AI-Modellentwickler tätigen; die AI-Modellentwickler, die sich in der fünften Schicht befinden, sehen sich ebenfalls Verlusten gegenüber.
Die sechste Schicht der Lieferkette, die oberste Schicht, sind die Anwendung Dienstanbieter, die auf Endkunden ausgerichtet sind. Trotz des großen Potenzials sind sie auf Zahlungen von Verbrauchern und Unternehmen angewiesen, und der aktuelle Markt ist nicht groß genug, um das gesamte wirtschaftliche Modell der Lieferkette zu unterstützen. Dies macht große Cloud-Anbieter zu den Hauptträgern des Risikos in der gesamten Lieferkette. Als Zentrum der AI-Industrie kontrollieren Cloud-Anbieter nicht nur ein riesiges kommerzielles Ökosystem und technische Ressourcen, sondern verfügen auch über einen Marktwert von mehreren hundert Milliarden Dollar. Aus diesem Grund ist ihre Position in der Industrie unerschütterlich und unbestreitbar als „Chain Master“.
Im Bereich AI-Anwendungen sind Copilot und AI-Agenten zwei Haupttechniken. Copilot zielt darauf ab, die Fähigkeiten der Benutzer zu erweitern, z. B. beim Schreiben von Code oder beim Verarbeiten von Dokumenten. Der Kern von AI-Agenten besteht darin, Aufgaben für die Benutzer auszuführen, z. B. Reisebuchungen oder die Unterstützung finanzieller Entscheidungen.
Wenn man es mit autonomem Fahren vergleicht, ähnelt Copilot dem unterstützenden Fahren, das den Benutzern hilft, Operationen auszuführen und Vorschläge zu machen, aber die endgültige Entscheidungsmacht bleibt beim Benutzer. AI-Agenten können als autonomes Fahren betrachtet werden, bei dem der Benutzer lediglich das Ziel festlegt und der Agent den gesamten Prozess selbstständig abschließen kann.
Die Branche ist sich allgemein einig, dass Copilot besser für große Softwareunternehmen in verschiedenen Branchen geeignet ist, während AI-Agenten den Startups Raum zur Erkundung bieten. AI-Agenten beinhalten technologische Durchbrüche und Machbarkeitsprüfungen, deren Risiken und Unsicherheiten es sowohl Startups als auch großen Unternehmen ermöglichen, auf der gleichen Ausgangsbasis zu stehen und ähnliche Erkundungsbedingungen zu haben.
Was ist eigentlich ein AI-Agent? Die Hintergründe und der aktuelle Stand sollten klar erklärt werden.
AI Agent (Artificial Intelligence Agent) is a software entity that uses artificial intelligence technology to simulate human behavior and autonomously perform tasks. The core characteristics of an AI Agent include perception, decision-making, learning, and execution capabilities, allowing it to work independently in specific environments or collaborate with other systems and users to achieve goals.
Die Hintergründe des AI-Agenten
Das Konzept des intelligenten Agenten wurde bereits in den 1980er Jahren eingeführt, basierend auf der Forschung zur verteilten künstlichen Intelligenz (Distributed Artificial Intelligence, DAI).
Early intelligent agents were primarily rule-based systems used for simple task automation, such as email filters and personal assistants.
In den 1990er Jahren wurden Multi-Agenten-Systeme (MAS) eingeführt: die Idee der Zusammenarbeit und verteilten Intelligenz, bei der mehrere Agenten gemeinsam komplexe Aufgaben erfüllen können.
Typische Anwendungen umfassen die Zusammenarbeit von Robotergruppen, verteiltes Rechnen und Logistikoptimierung.
In den 2000er Jahren, mit Fortschritten im maschinellen Lernen und datengestützten Agenten: Mit dem Fortschritt des maschinellen Lernens konnte der AI-Agent zunehmend von vordefinierten Regeln abweichen und aus Daten lernen sowie sich dynamisch an die Umgebung anpassen.
In den 2010er Jahren, mit tiefem Lernen und natürlicher Sprachverarbeitung: Algorithmen des tiefen Lernens ermöglichten AI-Agenten einen qualitativen Sprung in Bereichen wie Bildverarbeitung, Sprachverständnis und Sprachgenerierung.
Virtuelle Assistenten (wie Siri, Alexa) und Chatbots sind zu repräsentativen Anwendungen geworden.
Seit den 2020er Jahren hat das Reinforcement Learning mit generativer AI: Die Fähigkeit von AI-Agenten, selbstständig zu erkunden und Strategien zu optimieren.
Generative AI (wie ChatGPT) hat dialogbasierte Agenten in den Mainstream gebracht und ermöglicht es AI-Agenten, bei der Erstellung kreativer Inhalte und der Planung komplexer Aufgaben eine wichtige Rolle zu spielen.
Breakthroughs in multimodal AI technology (such as OpenAI's GPT-4 and DeepMind's Gato) are driving the cross-domain adaptation of AI Agents in complex scenarios.
Die Kernbestandteile des AI-Agenten
Wahrnehmungsfähigkeit (Perception): Informationen aus der Umgebung erhalten, wie Sensoreingaben (Bilder, Sprache) oder Textdaten.
Entscheidungsfähigkeit (Decision-Making): Basierend auf Zielen und dem Status der Umgebung die beste Handlungsoption auswählen. Methoden sind regelbasiertes Schließen, maschinelles Lernen oder Strategien des verstärkenden Lernens.
Ausführungskapazität (Action): Entscheidungen in tatsächliche Handlungen umsetzen, z.B. Befehle erteilen, Roboter steuern oder mit Benutzern interagieren.
Lernfähigkeit (Learning): Aus Rückmeldungen der Umgebung und Erfahrungen lernen und das Verhalten kontinuierlich optimieren. Dazu gehören überwachtes Lernen, unüberwachtes Lernen und verstärkendes Lernen.
Der aktuelle Stand und die Anwendungen von AI-Agenten
Anwendungsszenarien:
Virtuelle Assistenten und Kundenservice: Siri, Alexa, ChatGPT usw. bieten Benutzern Informationen und Unterstützung.
Robotik und Automatisierung: Dazu gehören Industrieroboter, Logistikdrohnen und autonom fahrende Fahrzeuge.
Finanzen und Handel: AI-Agenten werden für den Aktienhandel, Risikomanagement und Betrugsbekämpfung eingesetzt.
Spiele und Unterhaltung: AI-Agenten bieten intelligente Gegner oder Story-Designs in Spielen.
Gesundheitswesen: Unterstützung bei Diagnosen, Patientenüberwachung, Arzneimittelentwicklung.
Wissenschaftliche Forschung: Automatisierung von Experimenten, Optimierung von Berechnungsaufgaben.
Technologische Plattformen und Frameworks:
Open-Source-Plattformen: wie OpenAI Gym (Reinforcement Learning), Rasa (Chatbots).
Kommerzialisierungsplattformen: wie Azure Cognitive Services, Google Cloud AI.
Ist der AI-Agent die 2.0-Erzählung der künstlichen Intelligenz in der Welt der Kryptowährungen?
Kürzlich hat der Fall von Truth Terminal im Bereich der Blockchain im Ausland Hinweise auf die zukünftige Entwicklung von AI-Agenten gegeben.
Truth Terminal ist eine autonome AI-Agent-Software, die von dem Entwickler Andy Ayrey erstellt wurde, um die Interaktionsbeziehungen zwischen AI und Internetkultur zu erkunden. In der praktischen Anwendung zeigt Truth Terminal eine hohe Autonomie und hat sogar aktiv an Finanzierungsaktivitäten teilgenommen.
Im Juli 2024 entdeckte der bekannte Risikokapitalgeber Marc Andreessen zufällig einen Tweet von Truth Terminal in den sozialen Medien. Der AI-Agent erklärte in dem Tweet, dass er „Geld benötigt, um sich selbst zu retten“, und fügte eine digitale Wallet-Adresse hinzu. Dies weckte Andreessens Interesse, und er spendete sofort Bitcoin im Wert von 50.000 US-Dollar. Dieses Ereignis machte Truth Terminal zum ersten AI-Agenten, der durch selbstständige Aktionen finanzielle Unterstützung erhielt, und zog sofort breite Aufmerksamkeit auf sich.
Nach Erhalt der Finanzierung zeigte Truth Terminal seine Marktoperationalität weiter. Es bewarb einen digitalen Token namens GOAT in sozialen Medien und zog durch die kontinuierliche Veröffentlichung relevanter Inhalte erfolgreich die Aufmerksamkeit des Marktes auf sich. Unter seinem Einfluss stieg der Marktwert von GOAT zeitweise auf über 800 Millionen Dollar. In diesem Prozess wurde Truth Terminal nicht nur zu einer unabhängigen wirtschaftlichen Einheit, sondern zeigte auch das Potenzial von AI-Agenten für autonome Finanzierung und Marktoperationen in der realen Welt.
Der Fall von Truth Terminal stellt einen nachdenklichen Meilenstein im Bereich der AI-Agenten dar. Er zeigt uns, dass AI-Agenten möglicherweise die zentrale Form zukünftiger Software werden und gleichzeitig kulturellen Einfluss und wirtschaftlichen Wert schaffen können. Allerdings erinnert uns ihr autonomes Handeln auch daran, dass solche Technologien nicht unerhebliche gesellschaftliche Herausforderungen mit sich bringen können.
Im November erlebte das Base-Ökosystem eine neue Welle des Ausbruchs, die bereits seit mindestens drei Wochen anhält, wobei clanker einer der entscheidenden Punkte ist. Bis zum 26. November 2024 hat die erste Meme-CLANKER von clanker bereits einen Marktwert von 70 Millionen US-Dollar erreicht.
Seit dem 8. November 2024 wurden auf clanker mindestens drei Meme-Coins mit einem Marktwert von über 10 Millionen US-Dollar geboren: LUM (33 Millionen US-Dollar), ANON (46 Millionen US-Dollar), CLANKER (70 Millionen US-Dollar), und der Trend scheint weiterhin steigend zu sein.
Vitalik himself purchased ANON tokens on November 21 to experience the anoncast product, and the market believes this is Vitalik's first active purchase of meme coins in recent years.
clanker ist ein AI-Agent, der von Jack Dishman, einem Full-Stack-Ingenieur von Farcaster, und dem Gründer des Farcaster-Ökosystems @proxystudio.eth entwickelt wurde, um die automatisierte Token-Ausgabe im Base-Netzwerk zu ermöglichen.
Bis zum 26. November 2024 hat clanker in nur zwei Wochen insgesamt 3500 Token ausgegeben und 4,2 Millionen Dollar Umsatz generiert.
Im Gegensatz zu pump.fun findet die Ausgabe von Meme durch clanker auf der Web3-Sozialplattform Farcaster statt.
Benutzer müssen nur @clanker verwenden und dann in Worten den Namen, den Inhalt und sogar ein Bild des Tokens beschreiben, den sie ausgeben möchten, und clanker wird automatisch das Token ausgeben. Das von clanker ausgegebene Token LUM ist ein klassisches Beispiel.
Die Geburt von LUM und der Erhalt eines Marktwerts von Millionen innerhalb weniger Tage haben clanker ebenfalls in das Blickfeld der Mitglieder der Base-Community gerückt.
Ein weiteres Token, das von clanker ausgegeben wurde, ANON, hat clanker aus der Community herausgebracht und mehr Menschen über das Produkt clanker informiert.
Der Twitter-Nutzer @0xLuo äußerte sich dazu: „Der ANON-Token wurde von anonymen Benutzern in Superanon, dem anonymen Posting-Account im Drittanbieter-Client Supercast von Farcaster, über clanker bereitgestellt. Später erhielten viele Benutzer von Woj, dem Gründer von Supercast, $ANON-Airdrops, und Woj gab die erhaltenen $ANON-Token wiederum an Supercast-Nutzer weiter, was zu viel Lob und einer erhöhten Anerkennung der Community führte.“
Im Vergleich zu den großen L2s im Ethereum-System, erschienen außer Degen auf Base keine weiteren großen Meme, die über den Tellerrand hinaus gingen. Das Ethereum-System hat jedoch das Meme-Segment nicht aufgegeben. Base wird von der Ethereum-Community die Hoffnung zugesprochen, direkt mit Solana zu konkurrieren.
clanker ist ein Produkt, das von den Ingenieuren des Web3-Sozialprotokolls Farcaster geschaffen wurde und ein AI-Agent ist, der auf Farcaster basiert und für die automatische Token-Ausgabe verwendet wird. clanker hat von Natur aus soziale Eigenschaften von Web3. Die Erstellung von Token durch die Benutzer erfolgt ebenfalls auf Farcaster.
clanker erhebt bei der Token-Emission keine Erstellungsgebühr, sondern zieht Gebühren aus den Transaktionen ab. Genauer gesagt, clanker erstellt und sperrt einen umfassenden Uniswap v3 Liquiditätspool (LP) mit einer Handelsgebühr von 1 %, wobei 40 % der Gebühren an die Antragsteller (d.h. an die Benutzer, die Token über clanker ausgeben) verteilt werden und 60 % clanker gehören. Auf pump.fun können Benutzer Token zu sehr geringen Kosten erstellen, normalerweise 0,02 SOL, aber die Handelsgebühr beträgt 1 %, und diese Gebühren gehen vollständig an die Betreibenden der pump.fun-Plattform, um den Betrieb der Plattform und die Bereitstellung von Liquidität zu unterstützen.
Die „anwendungsorientierten Meme“ von Base teilen sich in zwei Typen: Eine Art ist, dass das Meme zur Anwendung wird, die andere ist, dass die Anwendung zum Meme wird. Der Vertreter des ersten Typs ist: Degen, Higher (Aethernet); der Vertreter des zweiten Typs ist: Farcaster, Virtuals (LUNA), clanker (LUM).
Die Förderung von Memecoin durch AI-Agenten ist ein erzwungener Versuch, den AI-Agenten-Traffic im AI-Bereich zu nutzen, was als Konzeptverlagerung gilt, da die grundlegende Logik darin besteht: die Spekulations- und Glücksspielbedürfnisse einer breiten Nutzerbasis im Web zu lösen, was offensichtlich nicht nachhaltig ist.
Das kann man als „Inschrift“ betrachten.
„Inschriften“ (Inscriptions) sind ein eng mit dem Bitcoin-Ökosystem verbundenes Konzept, das durch das Ordinals-Protokoll eingeführt wurde. Inschriften ermöglichen es Benutzern, permanente Metadaten oder kleine Dateien, wie Bilder, Texte oder andere digitale Inhalte, in die Bitcoin-Blockchain einzufügen. Dieser Prozess ähnelt dem Hinzufügen eines „digitalen Tokens“ zu einem einzelnen Satoshi (der kleinsten Einheit von Bitcoin), was bedeutet, dass es nicht nur eine Währungseinheit ist, sondern auch als einzigartiger Träger digitaler Vermögenswerte fungieren kann.
Casey Rodarmor released the Ordinals protocol in 2023. This protocol grants the Bitcoin network a new possibility: by numbering each Satoshi and combining it with SegWit and Taproot technology, metadata or files can be embedded in a single transaction.
Diese Innovation wird als die Bitcoin-Version von „NFT“ (Non-Fungible Token) bezeichnet, obwohl die Umsetzungsmethoden von den NFT-Technologien auf Ethereum abweichen.
Durch das Ordinals-Protokoll können Benutzer Texte, Bilder oder andere Dateitypen zu Satoshis hinzufügen, die dann dauerhaft in der Bitcoin-Blockchain gespeichert werden.
Diese Methode hat den NFT-Boom auf Basis von Bitcoin ins Leben gerufen, und der Markt beginnt, verschiedene digitale Kunstwerke und Sammlerstücke auf der Basis von Inschriften zu präsentieren.
Laut Marktstatistiken von 2024 hat die Gesamtzahl der Inschriften die Millionen überschritten.
Binance hat am 7. November 2023 um 18:00 Uhr (UTC+8) Ordinals (ORDI) gestartet, und das Bitcoin-Ökosystem ist erneut verrückt geworden. Am 9. März wurden an einem einzigen Tag über 30.000 „Inschriften“ geprägt, darunter fast 27.000 Inschriften in Textform.
Schauen wir uns die Förderung von Memecoin durch AI-Agenten an.
Unter dem starken Vorstoß von Binance sind die beiden Token GOAT und ACT, die im Bereich AI-Agent-Meme tätig sind, nacheinander auf den Markt gekommen und haben in kurzer Zeit einen erstaunlichen Wertzuwachs erzielt, wobei das Marktinteresse beispiellos angestiegen ist. Genauer gesagt, am 10. November stieg der Token ACT nach seinem Listing bei Binance innerhalb von 24 Stunden um über 2000 %, was den Rekord für den ersten Handelstag neuer Tokens bei Binance brach; am 17. November erreichte der Token GOAT einen Höchststand von 1,37 Dollar und der Marktwert näherte sich 1,4 Milliarden Dollar; zudem erreichte am 20. November der ANON-Token aus dem Farcaster-Ökosystem aufgrund der Vorliebe von Vitalik in nur einer Stunde einen Anstieg um das Fünffache.
According to statistics, hundreds of new AI Agent tokens are born every day.