🤖 Vitalik Buterin empfiehlt TiTok AI für die Onchain-Bildspeicherung

TiTok AI, eine neue Methode zur effizienten Onchain-Bildkomprimierung, könnte ein nützliches Tool für Blockchain-Anwendungen sein.

Ethereum-Mitbegründer Vitalik Buterin hat die neue Komprimierungsmethode Token for Image Tokenizer (TiTok) für ihre potenzielle Blockchain-Anwendung empfohlen.

Nicht zu verwechseln mit der Social-Media-Plattform TikTok, reduziert die neue Komprimierungsmethode von TiTok die Bildgröße erheblich und macht sie so praktischer für die Speicherung auf der Blockchain.

Buterin hob das Blockchain-Potenzial von TiTok auf der dezentralen Social-Media-Plattform Farcaster hervor und erklärte: „320 Bits sind im Grunde ein Hash. Klein genug, um für jeden Benutzer auf die Kette zu gehen.“

Die Entwicklung könnte erhebliche Auswirkungen auf die digitale Bildspeicherung von Profilbildern (PFPs) und nicht fungiblen Token (NFTs) haben.

🔸 TiTok-Bildkomprimierung

TiTok wurde von Forschern der Technischen Universität München und ByteDance entwickelt und ermöglicht die Komprimierung eines Bildes in 32 kleine Datenstücke (Bits) ohne Qualitätsverlust.

Laut dem Forschungsbericht zu TiTok ermöglicht die Bildkomprimierung durch fortschrittliche künstliche Intelligenz (KI) TiTok, ein 256 x 256 Pixel großes Bild in „32 diskrete Token“ zu komprimieren.

TiTok ist ein eindimensionales (1D) Bild-Tokenisierungsframework, das „die in 2D-Tokenisierungsmethoden vorhandenen Rasterbeschränkungen aufhebt“, was zu flexibleren und kompakteren Bildern führt.

💬 „Dadurch wird der Sampling-Prozess erheblich beschleunigt (z. B. 410-mal schneller als DiT-XL/2) und gleichzeitig eine wettbewerbsfähige Generierungsqualität erreicht.“

🔸 Maschinell lernende Bildgebung

TiTok nutzt maschinelles Lernen und fortschrittliche KI und verwendet transformatorbasierte Modelle, um Bilder in tokenisierte Darstellungen umzuwandeln.

Die Methode verwendet regionale Redundanz, d. h. sie identifiziert und verwendet redundante Informationen in verschiedenen Bereichen des Bildes, um die Gesamtdatengröße des Endprodukts zu reduzieren.

💬 „Jüngste Fortschritte bei generativen Modellen haben die entscheidende Rolle der Bild-Tokenisierung bei der effizienten Synthese hochauflösender Bilder hervorgehoben“

$ETH #VitalikButerin #AI