Laut Vitalik Buterin, Mitbegründer von Ethereum (ETH), kann die neue Bildkomprimierungsmethode Token for Image Tokenizer (TiTok AI) Bilder so groß kodieren, dass sie onchain hinzugefügt werden können.

Auf seinem Social-Media-Konto Warpcast bezeichnete Buterin die Bildkomprimierungsmethode als eine neue Möglichkeit, „ein Profilbild zu kodieren“. Er führte weiter aus, dass, wenn man ein Bild auf 320 Bit komprimieren könne, was er als „im Grunde einen Hash“ bezeichnete, die Bilder klein genug wären, um für jeden Benutzer in die Kette aufgenommen zu werden.

Der Ethereum-Mitbegründer interessierte sich für TiTok AI durch einen X-Post eines Forschers der Bildgeneratorplattform Leonardo AI für künstliche Intelligenz (KI).

Der Forscher, der unter dem Namen @Ethan_smith_20 auftritt, erläuterte kurz, wie die Methode denjenigen helfen könnte, die an der Neuinterpretation hochfrequenter Details in Bildern interessiert sind, um komplexe visuelle Elemente erfolgreich in 32 Token zu kodieren.

Buterin ist der Ansicht, dass die Methode es Entwicklern und Erstellern erheblich erleichtern könnte, Profilbilder und nicht fungible Token (NFTs) zu erstellen.

Das könnte Sie auch interessieren: Krypto-Liquidationen sinken um über 80 %, während sich der Markt konsolidiert

Beheben früherer Probleme mit der Bild-Tokenisierung

TiTok AI, entwickelt in Zusammenarbeit des TikTok-Mutterunternehmens ByteDance und der Universität München, wird als innovatives eindimensionales Tokenisierungsframework beschrieben, das sich erheblich von den vorherrschenden zweidimensionalen Methoden unterscheidet.

Laut einer Forschungsarbeit zur Methode der Bild-Tokenisierung kann TiTok mithilfe künstlicher Intelligenz gerenderte Bilder mit einer Größe von 256 x 256 Pixeln in „32 verschiedene Token“ komprimieren.

Das Papier wies auf Probleme hin, die bei früheren Methoden zur Bildtokenisierung wie VQGAN auftraten. Bisher war die Bildtokenisierung möglich, aber die Strategien beschränkten sich auf die Verwendung von „2D-latenten Gittern mit festen Downsampling-Faktoren“.

Die 2D-Tokenisierung konnte die Schwierigkeiten beim Umgang mit den in den Bildern gefundenen Redundanzen nicht umgehen, und nahe beieinander liegende Bereiche wiesen viele Ähnlichkeiten auf.

TiTok, das KI verwendet, verspricht, dieses Problem zu lösen, indem es Technologien einsetzt, die Bilder effektiv in latente 1D-Sequenzen tokenisieren, um eine „kompakte latente Darstellung“ bereitzustellen und regionale Redundanz zu vermeiden.

Darüber hinaus könnte die Tokenisierungsstrategie dazu beitragen, die Bildspeicherung auf Blockchain-Plattformen zu optimieren und gleichzeitig die Verarbeitungsgeschwindigkeit erheblich zu verbessern.

Darüber hinaus bietet es Geschwindigkeiten, die bis zu 410-mal höher sind als aktuelle Technologien, was einen enormen Fortschritt in der Rechenleistung darstellt.

Weiterlesen: OkayCoin führt Krypto-Staking-Dienste in Südkorea ein