1. Berechnungs- und Ressourcenengpässe im traditionellen Rahmen

Traditionelle Blockchain-Technologien, vertreten durch Bitcoin und Ethereum, haben signifikante Erfolge in Bezug auf Dezentralisierung, Transparenz und Sicherheit erzielt, was die Entwicklung von Kryptotechnologien und -anwendungen vorangetrieben hat. Dennoch bestehen aufgrund des Dilemmas des „Unmöglichkeitsdreiecks der Blockchain“ (Abbildung 1-1) offensichtliche Engpässe in der Rechenleistung und Ressourcennutzung, die technologische Innovationen und die Anwendungsentwicklung behindern und der Kryptobranche Herausforderungen auferlegen.

Abbildung 1-1. Unmöglichkeitsdreieck der Blockchain

Zunächst analysieren wir die drei Elemente im „Unmöglichkeitsdreieck der Blockchain“:

  • Sicherheit: Sicherheit spiegelt im Wesentlichen den Konsensbedarf wider, konkretisiert in der Gewährleistung der Konsistenz, Integrität, Unveränderlichkeit, Rückverfolgbarkeit und Überprüfbarkeit der Blockdaten. Die Erfüllung dieser Eigenschaften ermöglicht es der Blockchain, ein starkes Vertrauensmechanismus ohne Vertrauen aufzubauen. Daher ist die Sicherheit des Konsenses die primäre Forderung der Blockchain und auch das Fundament ihrer Entwicklung.

  • Dezentralisierung: Dezentralisierung bedeutet, dass es im System keinen einzigen Kontrollpunkt gibt und die Macht und Kontrolle auf mehrere Knoten verteilt sind, was die Fehlertoleranz, Zensurresistenz und Sicherheit des Systems erhöht und Einzelpunktfehler und böswillige Manipulationen verhindert. Obwohl verteilte Systeme nicht unbedingt dezentrale Systeme sind (zum Beispiel ist ein verteiltes System, das von einer einzigen Entität kontrolliert wird, kein dezentrales System), ist ein dezentrales System immer ein verteiltes System.

  • Skalierbarkeit: Im Konzept des „Unmöglichkeitsdreiecks der Blockchain“ bezieht sich Skalierbarkeit auf die Fähigkeit des verteilten Systems, die Rechenleistung zu skalieren. Für digitale Systeme gilt, dass alles Berechnung ist und verschiedene Anwendungen unterschiedliche Anforderungen an die Rechenleistung haben. Aber allgemein bedeutet Skalierbarkeit die Fähigkeit eines Systems, mit einer ständig wachsenden Datenmenge, Transaktionsvolumen und Benutzeranzahl umzugehen, was sich nicht nur in TPS, sondern auch in Speicherkapazität, Netzwerkbandbreite und Knotenanzahl widerspiegelt. Hohe Skalierbarkeit ist notwendig, um großangelegte Anwendungen und Benutzerwachstum zu unterstützen. Die Skalierbarkeit verteilter Systeme beeinflusst direkt die Innovation und den Maßstab der dezentralen Anwendungen (DApps), die auf ihnen laufen.

Unter den drei genannten Elementen betont die Blockchain Dezentralisierung, verstärkt Validierung und Konsenssicherheit, ist jedoch hinsichtlich der Rechenleistung relativ schwach. Dies führt zum Dilemma des Unmöglichkeitsdreiecks der Blockchain: Wenn die Anforderungen an Dezentralisierung und Konsenssicherheit erfüllt sind, wird die Skalierbarkeit der Berechnung eingeschränkt, wie typischerweise bei Bitcoin. Das bedeutet, dass in einem solchen Systemrahmen die verteilte Blockchain schwerlich Anwendungen mit hoher Rechenleistung unterstützen kann oder den Anforderungen an die Skalierung von Anwendungen nicht gerecht werden kann, wie z.B. KI-, Big-Data-Modelle, Grafikrendering, On-Chain-Spiele und großangelegte soziale Interaktionen.

Oben haben wir hauptsächlich die Herausforderungen der Skalierung der Rechenleistung durch das Unmöglichkeitsdreieck der Blockchain analysiert. Wo genau liegt die Wurzel dieses Problems? Im nächsten Schritt werden wir den Prozess der Blockbildung untersuchen und die Wechselbeziehungen zwischen den verschiedenen Elementen innerhalb des Blocks erkunden.

In der Blockchain-Technologie bezieht sich „Block“ auf einen Datensatz, der in einem bestimmten Zeitraum eine Reihe verifiziertter Transaktionsdaten verpackt. In diesem Konzept sind folgende Schlüsselelemente und ihre Wechselbeziehungen enthalten:

  • Konsens (Daten): Verifiziertes Transaktionsdaten mit konsistentem Zustand, d.h. Konsensdaten, die im Block gebildet werden.

  • Blockraum: Bezieht sich auf den Speicherplatz für Transaktionsdaten. Diese Transaktionen sind in Blöcken verpackt, und die Anzahl der speicherbaren Transaktionen wird durch die Blockgröße (festgelegt durch das System oder begrenzt durch die Gesamtkosten von Gas für diesen Block) begrenzt, was bedeutet, dass der Speicherplatz auf der Kette eine begrenzte Ressource ist, die die Skalierbarkeit von Anwendungen beeinflusst.

  • Rechenleistung: Die Anzahl der verpackten Transaktionen geteilt durch die Blockzeit ergibt die Anzahl der Transaktionen pro Sekunde, d.h. TPS (Transaktionen pro Sekunde) = Anzahl der Transaktionen im Block / Blockzeit. Die Rechenleistung steht in Beziehung zu den Konsensprozessen und dem Speicherplatz.

Aus der obigen Analyse ist ersichtlich, dass die drei Elemente Konsens, Speicherplatz und Rechenleistung im Block miteinander verbunden sind und eine Einschränkung bilden. Während die Blockchain versucht, einen konsistenten Konsens zu erreichen, schränkt sie nicht nur die Skalierbarkeit des verfügbaren Speicherplatzes eines einzelnen Blocks ein, sondern limitiert auch die Skalierbarkeit der Rechenleistung. Dies ist die Wurzel des Dilemmas des Unmöglichkeitsdreiecks der Blockchain.

Eine weitere Analyse zeigt, dass im Prozess der Blockbildung die Blockchain-Systeme drei globale, systemweite Ressourcen aufgebaut haben: Daten (Konsens) Ressourcen, Speicherressourcen und Berechnungsressourcen. Das Dilemma des Unmöglichkeitsdreiecks jedoch schränkt die Rolle und Skalierbarkeit dieser drei Ressourcen ein und bildet Engpässe, die es schwer machen, ihr Potenzial vollständig auszuschöpfen. Wenn es eine Möglichkeit gäbe, dieses Limit zu durchbrechen, würde dies der Blockchain eine ressourcengestützte neue Entwicklungslandschaft bieten?

Dies ist das zentrale Thema dieser Überlegungen, das darauf abzielt, Antworten zu finden. Studien zeigen, dass im AO + Arweave-Praxisansatz eine vollständige technische Kette gebildet wurde, die vom SCP-Paradigma, über das hyperparallele Berechnungsmodell Actor bis hin zur SSI-verteilten Systemarchitektur reicht, die das Dilemma des Unmöglichkeitsdreiecks der Blockchain durchbricht, das Ressourcenpotenzial von Blockchains und verteilten Systemen vollständig freisetzt und in der Praxis Befähigung bietet, um neue Entwicklungspfade für die Wertschöpfung und die großflächige Anwendung von Web3 zu ebnen.

II. SCP: Überwindung von Engpässen in Rechenleistung und Ressourcen

2.1, Durchbruch des Blockchain-Unmöglichkeitsdreiecks basierend auf SCP

AO (Hyperparalleles Rechenetzwerk) basiert auf Arweave und implementiert die ingenieurtechnische Anwendung des speicherbasierten Konsensparadigmas (Storage-based Consensus Paradigm, SCP). Siehe Abbildung:

Abbildung 2-1. Modularer Systemaufbau von AO + Arweave basierend auf SCP

Basierend auf den Kernkonzepten von SCP hat die Architektur des AO + Arweave eine wirksame Trennung zwischen On-Chain-Speicherung (Konsens) und Off-Chain-Berechnung erreicht:

  • Speicherebene: Die von Arweave bereitgestellten Speicherressourcen sind verantwortlich für die permanente Speicherung von Daten, während die Blockchain-Technologie die Rückverfolgbarkeit und Unveränderlichkeit der On-Chain-Daten gewährleistet, um Konsistenz und hohe Verfügbarkeit der Daten zu erreichen, was das Konzept „Speicherung ist Konsens“ verkörpert.

  • Berechnungsebene: Berechnungsaufgaben werden außerhalb der Kette verlagert und von der Speicherung (Konsens)-Ebene entkoppelt. Dieses Design ermöglicht es der Rechenleistung, nicht direkt durch den Konsens auf der Kette eingeschränkt zu sein und unbegrenzte Skalierung durch Hinzufügen von Off-Chain-Berechnungsknoten zu ermöglichen, was die Verarbeitungseffizienz und Flexibilität des Systems erheblich steigert.

  • Kombinierte Wirkung: Die Speicher-Blockchain von Arweave wahrt die Dezentralisierung des Systems und die Konsenssicherheit der Daten, während AO außerhalb der Kette die unbegrenzte Skalierbarkeit der Rechenleistung sicherstellt. Diese Struktur garantiert, dass die Anforderungen an Dezentralisierung, Konsenssicherheit und die Skalierbarkeit der Rechenleistung im gesamten AO + Arweave-System erfüllt werden, wodurch die Herausforderung des Unmöglichkeitsdreiecks der Blockchain effektiv angegangen wird.

2.2. Aufbau dreier globaler systemweiter Ressourcen

Die oben genannten Merkmale, die auf SCP basieren, spielen eine wichtige Rolle in der praktischen Anwendung des Systems. Sie machen es möglich, dass Speicher, Berechnung und Daten (Konsens) sowohl miteinander verbunden als auch unabhängig voneinander existieren können, wobei sie globale, systemweite Ressourcen bilden, wie in Abbildung 2-2 dargestellt:

Abbildung 2-2. Globale systemweite Ressourcen im AO-Netzwerk

  • Speicherressourcen: Arweave als Speicher-Blockchain hat keine Begrenzung in Bezug auf die Speicherkapazität, die vollständig durch den Speicherbedarf bestimmt wird, was echte unbegrenzte Skalierung ermöglicht. Dies erfüllt nicht nur die Anforderungen des Systems an flexiblen Speicherplatz, sondern bereichert auch die Vielfalt der Datentypen auf der Kette und bietet mehr Möglichkeiten für die Innovation von nativen Anwendungen auf der Kette.

  • Berechnungsressourcen: Das AO-Berechnungsnetzwerk besteht aus MU, SU und CU; hier sprechen wir zunächst über CU, die Funktionen und gegenseitigen Beziehungen der einzelnen Netzwerkmodule werden später detailliert erläutert. CU ist die Einheit, die für die Berechnung verantwortlich ist und horizontal skaliert werden kann, um CU-Cluster zu bilden. Diese Cluster konkurrieren um Berechtigungen und unterstützen unterschiedliche Prozesse, die parallel in verschiedenen CUs laufen. Dieses Design von Skalierbarkeit und Parallelität ermöglicht es AO, unbegrenzte Ressourcen für Rechenknoten bereitzustellen und hochleistungsfähige parallele Berechnungen zu unterstützen.

  • Daten (Konsens) Ressourcen: Auf Arweave können beliebige Typen und Größen von Daten in Form von „atomaren Vermögenswerten“ permanent gespeichert werden, wie z.B. NFTs, Dokumente, Bilder, Audio- und Videoaufzeichnungen, Webseiten, Spiele, rechtliche Verträge, Programmcode usw. Diese Daten bilden eine manipulationssichere, riesige Datenbank, die die Monetarisierung und den Austausch von Daten ermöglicht. Gleichzeitig erreicht AO keinen Konsens über den Status der Berechnung selbst, sondern konzentriert sich darauf, sicherzustellen, dass Interaktionsprotokolle in Arweave geschrieben werden, um die dauerhafte Verfügbarkeit und Integrität der Daten zu gewährleisten, und die Konsistenz und Überprüfbarkeit der Berechnungsergebnisse sicherzustellen. Unabhängig von der Art der Daten können sie ohne Genehmigungen oder Vertrauen zitiert werden, um neue Werte zu schaffen.

  • Sicherheitsressourcen: Während des Betriebs von AO wurden auch Sicherheitsressourcen geschaffen, die durch das Protokoll-Token $AO unterstützt werden. Dies hat jedoch keinen direkten Bezug zu SCP, sondern betrifft den Betrieb und die Sicherheitsmechanismen der Kommunikationsmodule im AO-Netzwerk, die in Abschnitt 3 „Anpassbare Sicherheit und Sicherheitsressourcen“ detailliert analysiert werden.

2.3. Vertrauenswürdiger Computer auf Basis von Speicherkonsens

Durch die Nutzung der oben genannten systemweiten Ressourcen und der verteilten Merkmale wurde AO auf der Arweave-Speicher-Blockchain aufgebaut und bildet ein Cloud-Computing-Netzwerk. Ähnlich wie das traditionelle Web2-Cloud-Computing verfügt AO theoretisch über unbegrenzte Ressourcen für Berechnung und Speicherung, die große Datenressourcen unterstützen können. Das Besondere an AO ist jedoch, dass es auf dem speicherbasierten Konsensparadigma basiert und eine dezentrale, vertrauenswürdige Rechenplattform mit global einheitlichem Konsens etabliert.

  • Zunächst bietet Arweave den globalen Nutzern einen genehmigungsfreien, permanenten Speicherdienst und hat eine konsensbasierte Datenbasis geschaffen, die nicht auf Vertrauen angewiesen ist.

  • Zweitens speichert AO den Quellcode verschiedener Anwendungen auf der Arweave-Kette; dieser Code kann heruntergeladen und lokal ausgeführt werden; seine Eingaben stammen aus vertrauenswürdigen Daten auf der Kette, und unter festen Eingaben und Ausführungslogik wird die Konsistenz und Vorhersehbarkeit der Ausgabewerte sichergestellt.

  • Schließlich kann jeder Client eine Konsistenzprüfung durchführen, da die Berechnungsausgaben bei gleichen Eingabeparametern und Ausführungslogik zwangsläufig konsistent sein müssen, was die Vertrauenswürdigkeit gewährleistet.

Daher ist es klar, dass AO ein vertrauenswürdiges Berechnungssystem auf der Basis von Speicher-Konsens aufgebaut hat, da sowohl Quellcodes, Eingaben als auch Ausgaben Determinismus aufweisen.

Das Speicherkonsensparadigma unterscheidet sich von herkömmlichen Konsenssystemen für Knoten: Im Speicherkonsensparadigma finden Berechnung, Validierung und Konsensfindung außerhalb der Kette statt, wobei die endgültigen Konsensdaten auf der Kette gespeichert werden und die Verfügbarkeit, Konsens und Abrechnung des Systems bilden. Das bedeutet, dass die Rechenleistung mit Unterstützung von SCP nicht mehr durch den Konsens eingeschränkt wird und unbegrenzt außerhalb der Kette skalieren kann. Dieses Mechanismus bietet die Machbarkeit für ein hochleistungsfähiges, paralleles und verteiltes Architekturdesign für das AO-Netzwerk.

Wie hat sich AO also zu einem dezentralen Weltcomputer mit hoher Parallelität entwickelt? Dies ist hauptsächlich dem Actor-Modell, den Netzwerkkommunikationseinheiten und der durch SSI realisierten verteilten Architektur zu verdanken.

Drittens: Hyperparallel: Actor-Modell und Netzwerkkommunikationseinheit

3.1. Definition des Grundrahmens der parallelen Berechnung mit dem Actor-Modell

Der Name des AO-Netzwerks stammt von „Actor Oriented“, was bedeutet, dass es sich um ein Netzwerk für hyperparallele Berechnungen handelt. Diese Bezeichnung leitet sich von dem zentralen Actor-Modell ab, das die grundlegende Struktur für parallele Berechnungen im System festlegt.

Im Actor-Modell ist ein „Akteur“ die grundlegende Einheit der parallelen Berechnung, die aus drei Hauptelementen besteht: Zustand (State), Verhalten (Behavior) und Postfach (Mailbox). Diese drei Elemente und ihre Wechselwirkungen bilden das Kernkonzept des Actor-Modells, wie in Abbildung 3-1 dargestellt:

Abbildung 3-1. Diagramm des Actor-Modells (Bildquelle: Referenzmaterial 5)

Dieses Modell definiert die zentralen Komponenten und Interaktionsregeln des Systems; ein Akteur kann als unabhängige, nebenläufige Entität betrachtet werden, die Nachrichten empfangen, verarbeiten, senden und dynamisch neue Akteure erstellen kann. Dieses Modell hat folgende Merkmale:

  • Asynchrone Kommunikation: Mehrere Akteure senden über Punkt-zu-Punkt-Mechanismen Nachrichten in einheitlichem Format, wobei das Senden und Verarbeiten von Nachrichten asynchron erfolgt. Diese Art der Kommunikation ist von Natur aus für die Interaktion zwischen Knoten in verteilten Systemen geeignet.

  • Parallele Ausführung: Jeder Akteur ist unabhängig und teilt keinen Zustand, daher muss man sich keine Sorgen machen, dass der Zustand anderer Akteure den eigenen beeinflusst. Jeder Akteur kann seine eigenen Aufgaben unabhängig bearbeiten und echte parallele Operationen durchführen.

  • Verteilte Bereitstellung: Akteure können verteilt bereitgestellt und auf verschiedenen CPUs, Knoten oder sogar in unterschiedlichen Zeitfenstern ausgeführt werden, ohne das Endergebnis zu beeinflussen.

  • Skalierbarkeit: Aufgrund ihrer verteilten Eigenschaften und des lockeren Couplings kann das Actor-Modell durch Hinzufügen von Knoten und dynamische Lastverteilung flexibel horizontal skaliert werden.

Zusammenfassend optimiert das Actor-Modell mit seinen eleganten Verarbeitungsmechanismen parallele und konkurrierende Probleme, was es besonders geeignet macht, um verteilte Systeme und hochparallele Anwendungen zu konstruieren. Das AO-Netzwerk hat das Actor-Modell als architektonische Grundlage für parallele Berechnungen übernommen, um effiziente asynchrone Kommunikation, parallele Ausführung, verteilte Bereitstellung und hervorragende Skalierbarkeit zu erreichen.

3.2. Effiziente Implementierung paralleler Berechnungen in Kommunikationsnetzwerkeinheiten

Das Actor-Modell bietet einen Rahmen für parallele Berechnungen, während die Kommunikationsmodule von AO die spezifische Umsetzung dieses Modells verkörpern. Diese Module umfassen Nachrichtenmodule (MU), Planungsmodule (SU) und Rechenmodule (CU), wobei jede Einheit ein unabhängiger „Akteur“ ist, der über ein einheitliches Format (ANS-104) Nachrichten zur Zusammenarbeit und Synchronisierung austauscht. Abbildung 3-2 zeigt die grundlegenden Funktionen dieser Module und den Nachrichteninteraktionsfluss.

Abbildung 3-2. Funktionsweise der Kommunikationsmodule im AO-Netzwerk (Bildquelle: AO-Whitepaper)

Im AO-Netzwerk wird das Starten einer Anwendung einen oder mehrere Prozesse auslösen, wobei das System für jeden Prozess Ressourcen wie Speicher, virtuelle Maschinen und Kommunikationsmodule konfiguriert. Die Interaktionen zwischen Prozessen erfolgen vollständig über Nachrichten. Zunächst werden Nachrichten von Nutzern oder anderen Prozessen an MU gesendet, das diese Nachrichten an SU zur Sortierung weiterleitet. Die sortierten Nachrichten und ihre Ergebnisse werden dauerhaft in Arweave gespeichert und von einem CU in einem Cluster konkurrierender Berechtigungen zur Statusberechnung bearbeitet, was bedeutet, dass Prozesse auf jedem Rechenknoten ausgeführt werden können, was typische Merkmale dezentraler paralleler Berechnungen zeigt. Nach Abschluss der Berechnung sendet CU die Ergebnisse in Form von signierten Nachweisen zurück an SU, um die Genauigkeit und Überprüfbarkeit der Berechnungsergebnisse sicherzustellen, die letztendlich von SU zu Arweave hochgeladen werden. Der vollständige Datensatz, der von jedem Prozess erstellt wird - einschließlich des Ausgangszustands, des Verarbeitungsprozesses und des Endergebnisses - wird dauerhaft in Arweave gespeichert und steht zur Abfrage, Überprüfung und Nutzung durch Dritte zur Verfügung.

Abbildung 3-3. Kommunikationsfluss zwischen den Einheiten bei Token-Übertragungen (Bildquelle: AO-Whitepaper)

Abbildung 3-3 zeigt die spezifischen Anwendungsszenarien für die Verarbeitung von Token-Übertragungsanfragen im AO-Netzwerk, zeichnet klar die Zusammensetzung und den Kommunikationsfluss der einzelnen modularen Netzwerkkomponenten sowie das durch die Interaktion mit Arweave gebildete verteilte Speichersystem.

Das AO-System nutzt umfassend Rechenressourcen (verteilte CU-Cluster), Speicherressourcen (verteilte Arweave-Knoten) und Datenressourcen (langfristig verfügbare Daten, die in Arweave gespeichert sind), um die Grundlage für AO als globale Rechenplattform zu schaffen. Basierend auf dem Actor-Modell vereint das AO-Berechnungsnetzwerk nicht nur Merkmale wie asynchrone Kommunikation, parallele Ausführung und verteilte Bereitstellung, sondern bietet auch hervorragende Skalierbarkeit und ist ein wirklich dezentrales, verteiltes und paralleles Berechnungsnetzwerk.

3.3. Anpassbare Sicherheit und Sicherheitsressourcen

Im vorherigen Abschnitt haben wir die Zusammensetzung und Funktionsweise der Kommunikationsmodule im AO-Netzwerk untersucht. In diesem Abschnitt werden wir die Sicherheit dieses Netzwerks, die eng mit dem nativen Token $AO des AO-Protokolls verbunden ist, eingehend analysieren. Diese Analyse wird sich auf die Inhalte der „Sicherheitsressourcen“ in Abschnitt 2.2 beziehen und sich auf die anpassbare Sicherheit und Sicherheitsressourcen im AO-Netzwerk konzentrieren.

Die Netzwerkkommunikationseinheit, die aus MU, SU und CU besteht, ist das zentrale Element des AO-Berechnungsnetzwerks und bildet den Betrieb eines dezentralen Weltcomputers, indem sie die drei Arten von systemweiten Ressourcen für Berechnung, Speicherung und Daten schafft, die die Grundlage für die technischen und Ressourcenmodelle im AO-Netzwerk darstellen. Auf der Grundlage dieser technischen und Ressourcenmodelle hat das AO-System maßgeschneiderte Sicherheitsmechanismen geschaffen, die nach Bedarf gesteuert werden. Dies ist ein auf dem Protokoll-Token $AO basierendes Wirtschaftsmodell, das Sicherheitsgarantien durch wirtschaftliche Spiele bietet und damit den Sicherheitsmarkt in AO bereitstellt.

Um das Verständnis zu erleichtern, werden im Folgenden aus der Sicht des Nutzers die Sicherheitsmechanismen von AO auf einige zentrale Elemente und ihre Wechselbeziehungen vereinfacht dargestellt: Anpassungsbedarf, Sicherheits-/Wirtschaftsressourcen, Sicherheitsmechanismen und den Sicherheitswettbewerbsmarkt.

Abbildung 3-4. Beziehungen zwischen den Elementen der Sicherheitsmechanismen im AO-Netzwerk

Abbildung 3-4 beschreibt die Wechselbeziehungen zwischen den Elementen der Sicherheitsmechanismen im AO-Netzwerk:

  • Anpassungsbedarf: Als hyperparallele Rechenplattform führen die Knoten im AO-Netzwerk unabhängig verschiedene Prozesse aus und verarbeiten unterschiedliche Datentypen. Diese verschiedenen Datentransaktionsszenarien haben unterschiedliche Anforderungen an Verzögerung, Kosten und Effizienz, was erfordert, dass das Sicherheitsmodell von AO Flexibilität aufweist, um Sicherheitsstrategien anpassen zu können. Nutzer können für jede Nachricht spezifische Sicherheitsniveaus anpassen, um die Anpassung und effektive Verteilung von Sicherheitsressourcen zu fördern.

  • Sicherheits-/Wirtschaftsressourcen: $AO ist das native Token des Protokolls und dient als Einheit des öffentlichen Wertes und der wirtschaftlichen Ressourcen, die alle Sicherheitsmechanismen im AO-Netzwerk unterstützen.

  • Sicherheitsmechanismen: In allen Prozessen von AO, einschließlich MU, SU und CU, müssen $AO hinterlegt werden, um an den Sicherheitsmechanismen teilzunehmen. Durch die Hinterlegung wirtschaftlicher Werte verwaltet das System die Gelder und verhängt Strafen gemäß den Regeln, um böswillige Handlungen zu verhindern. Beispielsweise, wenn MU ungültige Nachrichten signiert oder CU ungültige Signaturen nachweist, wird das hinterlegte Vermögen des Systems gekürzt.

  • Sicherheitswettbewerbsmarkt: Da Sicherheit pro Nachricht erworben wird, entstehen unterschiedliche Anforderungen an die Hinterlegung für verschiedene Nachrichten und schaffen einen dynamischen Wettbewerbsmarkt. Der Preis der Sicherheit wird durch Angebot und Nachfrage bestimmt, nicht durch feste Netzwerkregeln. Dieses Wettbewerbsmechanismus fördert die effektive Preisgestaltung und Verteilung von Sicherheitsressourcen und bietet maßgeschneiderte Sicherheitslösungen.

Zusammenfassend lässt sich sagen, dass die dezentrale Peer-to-Peer-Markstruktur des AO-Netzwerks es den Knoten im Wesentlichen ermöglicht, ihre eigenen Gebühren für die Nachrichtenübertragungsdienste unabhängig festzulegen, was die unterschiedlichen Anforderungen an Sicherheitsniveaus für verschiedene Datentransaktionen berücksichtigt und die Effizienz der spezifischen Sicherheitsreaktionen des Systems widerspiegelt. Diese Flexibilität ermöglicht es, sich dynamisch an Veränderungen von Angebot und Nachfrage im Markt anzupassen und fördert den Wettbewerb sowie die Effizienz der Reaktionen, um ein effizientes Gleichgewicht im Markt zu erreichen.

$AO's Liquidität dient als Werkzeug für wirtschaftliche Spiele und schafft gleichzeitig Sicherheitsmechanismen, um ein umfassendes, zeitnahes Token-Bewertungsframework aufzubauen, das eine solide Grundlage für die effektive Bewertung von Tokens bietet. Ein $AO-Token-Wirtschaftsmodell mit einem umfassenden Bewertungsrahmen und -indikatoren wird die Sicherheit des AO-Netzwerks zweifellos weiter erhöhen.

IV. SSI: Verteilte Systemarchitektur mit einheitlicher Erfahrung

In den vorherigen Diskussionen haben wir bereits das grundlegende Rahmenwerk des Actor-Modells dargelegt, das AO-Netzwerk für parallele Berechnungen bereitstellt, sowie wie die Kommunikationsmodule MU, SU und CU dieses Modell konkret umsetzen. Diese Kommunikationsmodule werden auf verschiedenen heterogenen Knoten in einem verteilten Netzwerk bereitgestellt, sodass die Ausführung von Prozessen nicht auf einen bestimmten physischen Standort beschränkt ist und durch das Netzwerk nahtlose Interaktionen mit den Nutzern ermöglicht werden. All dies zusammen bildet eine einheitliche Rechenumgebung, die das Konzept des Single System Image (SSI) verwirklicht, was die Grundlage dafür ist, dass das AO-Netzwerk unzählige Prozesse unterstützen kann. In diesem Abschnitt werden wir die Definition von SSI und ihre spezifische Rolle in AO untersuchen.

Das Single System Image (SSI) ist ein zentrales Konzept im verteilten Rechnen, das durch Virtualisierungstechnologien physisch getrennte heterogene Rechenressourcen in einem einheitlichen Ressourcenpool integriert. Diese Integration erhöht nicht nur die Abstraktionsebene des Systems erheblich, sondern optimiert auch die Benutzererfahrung. Durch SSI wirkt es auf den Nutzer so, als ob er eine einzige Maschine bedient, auch wenn das System aus mehreren Servern, verteilten Datenbanken oder Netzwerken besteht.

Normalerweise umfasst die SSI-Struktur die Benutzerebene, eine einheitliche Schnittstelle, die Ressourcenverwaltungsebene, Berechnungsknoten und die Speicherebene; die Strukturdiagramm ist in Abbildung 4-1 dargestellt.

Abbildung 4-1. Diagramm der SSI-Struktur eines Einzelnen Systembildes

Nutzer interagieren über Clients oder Web-Frontends auf der Benutzeroberfläche mit dem SSI-System. Die einheitliche Schnittstelle empfängt die Anfragen der Benutzer und verteilt diese an die Ressourcenverwaltungsebene. Die Ressourcenverwaltungsebene plant die verteilte Bereitstellung der Rechenknoten und Speicherressourcen, führt parallele Berechnungsaufgaben aus oder verarbeitet Datenlese- und -schreiboperationen.

SSI bietet eine praktikable Lösung für das derzeitige Problem der Koexistenz mehrerer Chains bei öffentlichen Blockchains. Zum Beispiel sieht sich das Ethereum-Ökosystem aufgrund seines rasanten Wachstums Herausforderungen wie Überlastung, geringe Effizienz und hohe Kosten gegenüber, während Layer2 als Hauptlösung für diese Skalierungsprobleme neue Herausforderungen einführt. Jede Layer2-Chain führt zur wiederholten Schaffung von Infrastrukturen, was zu einer Zerstreuung der Liquidität und Risiken beim Cross-Chain-Asset-Handel führt, die Komplexität und Teilnahmebarrieren für den Benutzer erhöht und die Benutzererfahrung sowie die großflächige Entwicklung von Anwendungen erheblich beeinträchtigt.

Öffentliche Blockchains wie Solana und Polkadot haben diese Probleme bereits erkannt und passen ihre bestehenden Architekturen an. AO hingegen hat von Anfang an eine verteilte Architektur mit SSI übernommen, was vorausschauend und weitsichtig ist.

Durch das Actor-Modell werden die Kommunikationsmodule von AO in einem verteilten Netzwerk von heterogenen Knoten gehostet, die möglicherweise in verschiedenen Regionen der Welt verteilt sind und verschiedene Typen und Funktionen von Servern umfassen. Das auf dem Actor-Modell basierende AO-Berechnungsnetzwerk ist ein dezentrales, verteiltes Netzwerk, das eine einheitliche Architektur benötigt, um integriert zu werden und eine konsistente Verfügbarkeit und Benutzererfahrung zu bieten.

Wenn ein Benutzer einen AO-Prozess über das Frontend startet, konfiguriert das System die erforderlichen verschiedenen Ressourcen zur Bearbeitung von Aufgaben wie Nachrichtenübertragung, Transaktionsreihenfolge und Statusberechnung. Für den Benutzer wird die zugrunde liegende komplexe verteilte Architektur abstrahiert, sodass selbst große Knotencluster wie ein einzelner Computer erscheinen. Dies liegt daran, dass das AO-System SSI verwendet, um komplexe Komponenten eines verteilten Systems zu integrieren und durch Modularisierung eine einheitliche Rechenumgebung zu schaffen. Das bedeutet, dass AO durch die SSI-Architektur mehrere verteilte Rechenknoten in eine einheitliche Ressource integriert und den Nutzern eine transparente, effiziente, skalierbare und einheitliche Rechenplattform bietet.

Fünf: Ressourcengetriebenes Wertschöpfung und Anwendungsinnovation

Zusammenfassend lässt sich sagen, dass AO durch die Kombination von SCP, Actor und SSI eine innovative Architektur aufgebaut hat, die dem System drei skalierbare systemweite Ressourcen für Berechnung, Speicherung und Daten (Konsens) sowie eine von $AO unterstützte Sicherheitsressource bietet. Ressourcen sind als zentrale Produktionsfaktoren entscheidend für technologische Fortschritte, Innovationsanreize und die wirtschaftliche Effizienz.

Hier fassen wir zusammen:

1. Infrastrukturwertschöpfung

  • Dezentrale Weltcomputer: AO integriert skalierbare Berechnungs-, Speicher- und Datenressourcen und bietet eine einheitliche dezentrale Rechenplattform für alle Anwendungen mit nachweisbaren und vertrauensminimierenden Eigenschaften. Anwendungen müssen sich nur auf Innovationen konzentrieren und das Rad nicht neu erfinden, was AO zur öffentlichen Infrastruktur für Anwendungsinnovationen macht.

  • On-Chain-Datenressourcenteilung: Arweave kann nahezu alle Datentypen dauerhaft speichern und wird zu einer niemals verschwindenden „Bibliothek von Alexandria“. Egal ob Finanzdaten oder nicht-finanzielle Daten, die Unveränderlichkeit und Überprüfbarkeit machen sie zu einem öffentlichen Gut, das Konsenswerte bietet und innovative Kombinationen unterstützt.

  • Anpassbare Sicherheitsinfrastruktur: AO kann basierend auf verschiedenen Datentypen und Werten maßgeschneiderte Sicherheitsmechanismen für Kunden und Anwendungen bereitstellen und dabei Sicherheit, Kosten und Effizienz in Einklang bringen.

  • Brücke zwischen Web2 und Web3: AO läuft außerhalb der Kette und kann nahtlos mit On-Chain- und Off-Chain-Systemen integriert werden, wodurch AO zur verbindenden Brücke zwischen Web2 und Web3 wird. Jede Web2-Anwendung kann Prozesse in AO über API und Nachrichtenübertragungsmechanismen starten, Netzwerk-Einheiten in AO zur Berechnung aufrufen und gleichzeitig ihre Sicherheitsmechanismen anpassen.

2. Technologische und anwendungsbezogene Innovationen

Die Blockchain hat sich bis heute mit öffentlichen Blockchains wie Bitcoin, Ethereum, Solana usw. entwickelt, deren Anwendungen immer noch überwiegend im Finanzbereich liegen, wie z.B. Asset-Emission, Handel, Kreditvergabe, Derivate usw., was viele Menschen dazu verleitet, zu glauben, dass die Rolle der Blockchain darauf beschränkt ist.

Die innovative Architektur von AO + Arweave hat die technische Innovation und Anwendungsentwicklung von Blockchains erweitert. Neben der Unterstützung der finanziellen Innovation, die die meisten öffentlichen Blockchains bieten, unterstützt AO als universeller Computer alle Datentypen und zugehörigen Innovationsanwendungen, insbesondere nicht-finanzielle, datengestützte Innovationsanwendungen.

  • Laden von KI-Modellen: Die AO + Arweave-Architektur bietet unbegrenzte Berechnungs-, Speicher- und Datenressourcen und ermöglicht mit Unterstützung der drei Schlüsseltechnologien WASM64, WeaveDrive und Llama.cpp großen Sprachmodell-Inferenz-Engines, dass AO direkt verschiedene Open-Source-Sprachmodelle wie Llama 3 und GPT-2 in Smart Contracts ausführen kann, sodass Smart Contracts komplexe Daten direkt verarbeiten und Entscheidungen treffen können, wie sie im von KI gesteuerten Llama 3-Modell implementierten, autonom verwalteten virtuellen On-Chain-Welt Llama Land.

  • Erstellen von Agenten und AgentFi: Basierend auf den Inferenzfähigkeiten von KI-Modellen sowie der Fähigkeit des AO-Prozesses, zeitbasiert auf implizite Nachrichten zu reagieren, sich selbst zu aktivieren und Aktionen auszuführen, sowie die Möglichkeit, durch Zahlung an MU einen Prozess zu „abonnieren“, um Berechnungen in angemessenen Intervallen auszulösen, unterstützt AO Agenten und AgentFi, die komplexe Geschäftslogiken, vordefinierte Anforderungen und vielfältige autonome Strategien erfüllen können.

  • Urheberrechtsmanagement und Marktplatz für Kreative (ContentFi): Arweave speichert verschiedene Datentypen in Form von atomaren Vermögenswerten, die leicht identifizierbar und im Eigentum nachweisbar sind und monetarisiert werden können, indem sie auf dem Markt zirkulieren und gehandelt werden, um eine Preisfindung zu ermöglichen, klare Interessensverteilungen und Kooperationsmuster zu schaffen und Unterstützung für Urheberrechtsmanagement und den Marktplatz für Kreative zu bieten.

  • Framework für das nächste Internet Permaweb: Im Gegensatz zur dreischichtigen Struktur der Anwendungsebene, Serviceebene und Speicherebene des traditionellen Web2 ermöglicht Permaweb durch den Austausch der Speicherebene durch die permanente Speicherlösung von Arweave die dauerhafte Speicherung aller Inhalte, die in Form von atomaren Vermögenswerten in Arweave gespeichert sind. Basierend auf SCP werden auf der Anwendungsebene verschiedene Anwendungen zur Unterstützung von AO über parallelisierte Berechnungen erstellt, um ein dauerhaftes, dezentrales Framework für das nächste Internet zu schaffen. Dieses Framework integriert sich zwar in Web2 und bietet eine vergleichbare Erfahrung, weist jedoch signifikante Unterschiede auf; Permaweb ist kein „eingemauerter Garten“. Es bietet Entwicklern, Betreibern und Nutzern eine faire, offene Umgebung: Nutzer besitzen und kontrollieren ihre Daten; Daten können zwischen verschiedenen Anwendungen frei fließen; Entwickler und Betreiber können innerhalb definierter Regeln Daten nutzen, ohne spezielle Genehmigungen einzuholen, was zu gegenseitigem Nutzen für alle Beteiligten führt.

Dies sind einige der typischen Innovationsrichtungen, die AO unterstützen kann. Natürlich kann AO auch eine Vielzahl anderer Datentypen und breitere Anwendungsszenarien unterstützen. Obwohl die Entwicklung des AO-Ökosystems noch kurz ist und technische sowie anwendungsbezogene Innovationen Zeit zur Überprüfung benötigen, ziehen wir es vor, die Bedeutung und den Wert dieser Innovationen im Kontext der Gesamtentwicklung der Web3-Industrie und der Merkmale von Web2-Systemen zu bewerten.

Derzeit untersucht die gesamte Web3-Industrie praktikable Pfade zur großflächigen Akzeptanz. Viele Blockchains arbeiten daran, wie TON in Verbindung mit Telegram, um den Übergang echter Web2-Nutzer zu echten Web3-Anwendungen zu fördern, mit dem Ziel, die Wertumwandlung von Traffic in Liquidität großflächig zu verwirklichen; CKB wird zu Bitcoins L2 und baut ein auf CKB basierendes Lightning-Netzwerk auf, das hohe Frequenzen, kleine Beträge und großflächige Peer-to-Peer-Zahlungen ermöglichen soll.

Aus der Perspektive der Branchenentwicklung hat AO + Arweave den Rahmen für die Umsetzung dezentraler Computer neu definiert, indem es mit innovativen Architekturen Flexibilität, Sicherheit und wirtschaftliche Effizienz in das System bringt, skalierbare systemweite Ressourcen aufbaut, das Ressourcenpotenzial nachhaltig freisetzt, technologische und Anwendungsinnovationen antreibt, Wertschöpfung und -transfer ermöglicht, die Integration von Web3 und Web2 fördert und einen praktikablen Weg für die großflächige Akzeptanz von Web3 schafft.

Referenzen

1. Arweave: Ein Protokoll zur wirtschaftlich nachhaltigen, permanenten Informationsbewahrung

2. AO-Protokoll: Dezentrale, genehmigungsfreie Supercomputer:

https://x.com/kylewmi/status/1802131298724811108

3. Das auf Speicherung basierende Berechnungsparadigma, das durch Arweave ermöglicht wird:

https://news.ever.vision/a-storage-based-computation-paradigm-enabled-by-arweave-de799ae8c424

4. Technische Details zu AO hyperparallelen Computern:

https://www.chaincatcher.com/article/2121544

5. Interpretation von SCP: Paradigma der enttrusteten Infrastruktur, das die Rollup-Denke überwindet:

https://mp.weixin.qq.com/s/BPRAsby78G2a835pX1l3iw

6. Detaillierte Analyse des Actor-Modells (Teil 1): Einführung und Anwendung in der Spieleindustrie:

https://blog.csdn.net/weixin_44505163/article/details/121191182

7. Arweave-Permanentspeicherung + AO-Hyperparallelcomputer: Aufbau einer Infrastruktur für Datenkonsens:

https://www.chaincatcher.com/article/2141924