🤖 Vitalik Buterin sostiene l'intelligenza artificiale di TiTok per l'archiviazione di immagini onchain

TiTok AI, un nuovo metodo per un'efficiente compressione delle immagini onchain, potrebbe essere uno strumento utile per le applicazioni blockchain.

Il co-fondatore di Ethereum Vitalik Buterin ha approvato il nuovo metodo di compressione Token for Image Tokenizer (TiTok) per la sua potenziale applicazione blockchain.

Da non confondere con la piattaforma di social media TikTok, il nuovo metodo di compressione TiTok riduce significativamente le dimensioni dell'immagine, rendendola più pratica per l'archiviazione sulla blockchain.

Buterin ha evidenziato il potenziale blockchain di TiTok sulla piattaforma di social media decentralizzata Farcaster, affermando che "320 bit sono fondamentalmente un hash. Abbastanza piccolo da poter essere collegato a catena per ogni utente."

Lo sviluppo potrebbe avere implicazioni significative per l’archiviazione di immagini digitali di immagini del profilo (PFP) e token non fungibili (NFT).

🔸 Compressione delle immagini TiTok

Sviluppato dai ricercatori di ByteDance e dell'Università Tecnica di Monaco, TiTok consente la compressione di un'immagine in 32 piccoli pezzi di dati (bit) senza perdere la qualità.

Secondo il documento di ricerca di TiTok, la compressione avanzata delle immagini dell'intelligenza artificiale (AI) consente a TiTok di comprimere un'immagine da 256x256 pixel in "32 token discreti".

TiTok è un framework di tokenizzazione di immagini monodimensionali (1D) che "rompe i vincoli della griglia esistenti nei metodi di tokenizzazione 2D", portando a immagini più flessibili e compatte.

💬 "Di conseguenza, porta ad una sostanziale accelerazione del processo di campionamento (ad esempio, 410 volte più veloce di DiT-XL/2) ottenendo al tempo stesso una qualità di generazione competitiva."

🔸 Immagini basate sull'apprendimento automatico

TiTok utilizza l'apprendimento automatico e l'intelligenza artificiale avanzata, utilizzando modelli basati su trasformatori per convertire le immagini in rappresentazioni tokenizzate.

Il metodo utilizza la ridondanza della regione, nel senso che identifica e utilizza informazioni ridondanti in diverse regioni dell'immagine per ridurre la dimensione complessiva dei dati del prodotto finale.

💬 “I recenti progressi nei modelli generativi hanno evidenziato il ruolo cruciale della tokenizzazione delle immagini nella sintesi efficiente di immagini ad alta risoluzione”

$ETH #VitalikButerin #AI