Auf der AI on AO-Konferenz wurden drei wichtige technologische Durchbrüche vorgestellt: Web Assembly 64-Bit-Unterstützung, WeaveDrive-Technologie und die Integration der großen Sprachmodell-Inferenz-Engine Llama.cpp. Gleichzeitig wurden auch zwei Projekte speziell vorgestellt: LlaMA Land und Apus Network. Folgen Sie dem Artikel, um alle Details zu erfahren.

Autor: Kyle

Rezensiert von: Lemon

Quelle: Content Guild – News

Am 20. Juni ging die AI on AO-Konferenz erfolgreich zu Ende. Auf dieser Konferenz wurden drei wichtige technische Aktualisierungen des AO-Protokolls vorgestellt, die darauf hinweisen, dass Smart Contracts große Sprachmodelle in einer dezentralen Umgebung ausführen können, was einen aufregenden technologischen Durchbruch darstellt.

Zu den wichtigsten Durchbrüchen von AO in der KI-Technologie zählen insbesondere die folgenden drei Aspekte:

  • Web Assembly 64-Bit-Unterstützung: Entwickler können jetzt Anwendungen mit mehr als 4 GB Speicher erstellen, wobei Web Assembly 64-Bit theoretisch bis zu 16 Exabyte (ca. 1,7 Milliarden GB) Speicher unterstützt. Derzeit kann AO 16-GB-Modelle ausführen, was auch bedeutet, dass der aktuelle 16-GB-Speicher von AO ausreicht, um fast alle Modelle im aktuellen AI-Bereich auszuführen. Die Erweiterung der Speicherkapazität verbessert nicht nur die Anwendungsleistung, sondern fördert auch die Entwicklungsflexibilität und technologische Innovation.

  • WeaveDrive-Technologie: Diese Technologie vereinfacht die Art und Weise, wie Entwickler auf Daten zugreifen und diese verwalten, sodass sie wie auf eine lokale Festplatte auf Arweave-Daten zugreifen und Daten effizient an die Ausführungsumgebung streamen können, wodurch die Entwicklung und Anwendungsleistung beschleunigt wird.

  • Integration der Inferenz-Engine für große Sprachmodelle Llama.cpp: Durch die Portierung des Llama.cpp-Systems unterstützt AO die Ausführung mehrerer großer Open-Source-Sprachmodelle wie Llama 3 und GPT-2 direkt in Smart Contracts. Dies bedeutet, dass Smart Contracts fortschrittliche Sprachmodelle direkt nutzen können, um komplexe Daten zu verarbeiten und Entscheidungen (einschließlich Finanzentscheidungen) zu treffen, wodurch die Funktionalität dezentraler Anwendungen erheblich erweitert wird.

Diese drei wichtigen technologischen Durchbrüche schaffen mehr Spielraum für Entwickler, KI-Anwendungen auf AO zu erstellen. Als Anwendungsbeispiel wurde auf der Konferenz eigens ein neues, vollständig KI-gesteuertes Projekt Llama Land vorgestellt. Gleichzeitig gibt es ein weiteres dezentrales GPU-Netzwerkprojekt, Apus Network, das in Zukunft auf kostengünstigste Weise die beste KI-Modellausführungsumgebung für KI-Anwendungen auf AO bereitstellen wird.

Flammenland

Llama Land ist ein vollständig auf der Kette basierendes, massives Online-Multiplayer-Spiel, das auf AO basiert und für Benutzer eine virtuelle Welt schafft, die vollständig von KI (Llama 3-Modell) gesteuert wird. Im Llama-Land gibt es ein System namens Llama Fed, das der Federal Reserve ähnelt, aber nach dem Llama-Modell betrieben wird und für die Geldpolitik und die Prägung von Lama-Token verantwortlich ist.

Benutzer können Llama-Token anfordern, indem sie Arweave-Token (wAR) bereitstellen, und Llama Fed entscheidet, ob Token vergeben werden, basierend auf der Qualität der Anfrage (z. B. ob das Projekt/der Vorschlag interessant oder wertvoll ist), ohne dass menschliches Eingreifen in den gesamten Prozess erforderlich ist .

Derzeit ist Llama Land noch nicht vollständig für die Öffentlichkeit zugänglich. Interessierte Benutzer können die Website besuchen und sich auf die Warteliste setzen, um es so schnell wie möglich zu erleben.

Apus-Netzwerk

Apus Network ist ein dezentrales, erlaubnisloses GPU-Netzwerk. Es nutzt den dauerhaften Speicher von Arweave und die Skalierbarkeit von AO und bietet über einen wirtschaftlichen Anreizmechanismus eine deterministische GPU-Ausführungsumgebung für KI-Modelle. Konkret kann Apus Network eine effiziente, sichere und wirtschaftliche Rechenumgebung für KI-Anwendungen auf AO bereitstellen und so die Entwicklung dezentraler KI weiter vorantreiben.

Das Apus Network-Projekt hat kürzlich den Inhalt seiner Website aktualisiert, um die Benutzererfahrung zu verbessern. Gleichzeitig ist die Entwicklung von Modellbewertungsfunktionen und Modellfeinabstimmungsfunktionen im Gange und hat schrittweise Ergebnisse erzielt. In Zukunft plant Apus Network, die ökologische Geldbörse von AO zu unterstützen und die damit verbundene Entwicklung und Erprobung auf dem Playground abzuschließen. Darüber hinaus werden die Funktionen zur Modellbewertung erweitert und auf der AO-Plattform implementiert, um deren Anwendungsfähigkeiten und Leistung weiter zu verbessern.

Zusammenfassen

Diese KI-auf-AO-Konferenz demonstrierte nicht nur die Fähigkeit von AO, verschiedene fortschrittliche KI-Modelle zu übertragen, sondern förderte auch die Entwicklung dezentraler KI-Anwendungen erheblich. Als Beispielprojekt nach diesem Technologie-Upgrade zeigt Ihnen Llama Land den Prototyp einer autonomen KI-Agentenanwendung. Mit der Entwicklung von KI-Anwendungen wird das AO-Ökosystem mehr GPU-Ressourcen einführen, um die Ausführung großer Sprachmodelle zu beschleunigen. Apus Network ist außerdem das erste dezentrale GPU-Netzwerk, das auf AO zugreift.

In Zukunft wird AO das Speicherlimit je nach Bedarf weiter erhöhen, um die Ausführung größerer KI-Modelle zu unterstützen. Gleichzeitig wird AO weiterhin die Möglichkeit untersuchen, autonome KI-Agenten zu entwickeln, um die Anwendungsszenarien dezentraler Finanzen und intelligenter Verträge weiter zu erweitern.

🏆 Preise für „Fehler fangen“: Wenn Sie in diesem Artikel Tippfehler, falsche Sätze oder falsche Beschreibungen finden, klicken Sie auf mich, um es zu melden, und Sie erhalten Anreize.

Haftungsausschluss: Der Inhalt dieses Artikels dient nur als Referenz und stellt keine Anlageberatung dar.

🔗 关于 PermaDAO:Website | Twitter | Telegramm | Discord | Mittel | Youtube