De Ed Roman, Managing Partner la Hack VC

Compilat: 1912212.eth, Foresight News

AI+ Crypto este una dintre zonele de frontieră care a atras recent multă atenție pe piața criptomonedelor, cum ar fi antrenamentul AI descentralizat, DePIN-urile GPU și modelele AI rezistente la cenzură.

În spatele acestor progrese uluitoare, nu putem să nu ne întrebăm: Este aceasta o adevărată descoperire tehnologică sau doar un subiect fierbinte? Acest articol vă va curăța ceața, va analiza criptarea x viziunea AI și va discuta despre provocările și oportunitățile reale și va dezvălui care sunt promisiuni goale și care sunt de fapt fezabile?

Viziunea #1: Instruire descentralizată în IA

Problema cu antrenamentul AI în lanț este că necesită comunicare și coordonare de mare viteză între GPU-uri, deoarece rețelele neuronale necesită propagare inversă atunci când se antrenează. Nvidia are două inovații pentru aceasta (NVLink și InfiniBand). Aceste tehnologii fac comunicarea GPU super rapidă, dar sunt tehnologii locale care funcționează numai pe clustere GPU (viteze de peste 50 de gigabit) situate într-un singur centru de date.

Dacă se introduce o rețea descentralizată, viteza va încetini brusc cu câteva ordine de mărime din cauza latenței și lățimii de bandă crescute ale rețelei. În comparație cu debitul pe care îl puteți obține de la interconectarea de mare viteză a Nvidia din centrul de date, această viteză pur și simplu nu este posibilă pentru cazurile de utilizare a instruirii AI.

Rețineți că mai jos există și inovații care pot oferi speranță pentru viitor:

  • Instruirea distribuită pe InfiniBand are loc la scară largă, deoarece NVIDIA însăși sprijină instruirea distribuită non-nativă pe InfiniBand prin Biblioteca de comunicații colective NVIDIA. Cu toate acestea, este încă în stadiu incipient, așa că valorile de adoptare nu au fost încă determinate. Blocajul legii fizice la distanță încă există, așa că antrenamentul local pe InfiniBand este încă mult mai rapid.

  • Au fost publicate unele cercetări noi privind formarea descentralizată care necesită mai puțin timp de sincronizare a comunicării, ceea ce poate face formarea descentralizată mai practică în viitor.

  • Sharding-ul inteligent și programarea antrenamentului modelului ajută la îmbunătățirea performanței. De asemenea, noile arhitecturi model pot fi proiectate special pentru viitoarele infrastructuri distribuite (Gensyn efectuează cercetări în aceste domenii).

Partea de date a instruirii este, de asemenea, provocatoare. Orice proces de instruire AI implică procesarea unor cantități mari de date. De obicei, modelele sunt instruite pe sisteme centralizate de stocare a datelor securizate, cu scalabilitate și performanță ridicate. Acest lucru necesită transferul și procesarea terabytes de date și acesta nu este un ciclu unic. Datele sunt adesea zgomotoase și conțin erori, așa că trebuie curățate și convertite într-un format utilizabil înainte de a antrena un model. Această etapă implică sarcini repetitive de standardizare, filtrare și manipulare a valorilor lipsă. Toate acestea se confruntă cu provocări serioase într-un mediu descentralizat.

Partea de date de antrenament este, de asemenea, iterativă, ceea ce nu este compatibil cu Web3. OpenAI a trecut prin mii de iterații pentru a-și obține rezultatele. Cele mai de bază scenarii de sarcini pentru un cercetător de date dintr-o echipă AI includ definirea obiectivelor, pregătirea datelor, analizarea și conservarea datelor pentru a extrage informații importante și a le face potrivite pentru modelare. Apoi, dezvoltați un model de învățare automată pentru a rezolva problema definită și a valida performanța acesteia folosind un set de date de testare. Procesul este iterativ: dacă modelul actual nu funcționează conform așteptărilor, experții revin la faza de colectare a datelor sau de formare a modelului pentru a îmbunătăți rezultatele. Imaginează-ți că dacă acest proces s-ar desfășura într-un mediu descentralizat, nu ar fi ușor ca cele mai avansate cadre și instrumente existente să fie adaptate în Web3.

O altă problemă cu antrenarea modelelor AI în lanț este că această piață este mult mai puțin interesantă decât inferența. În prezent, pregătirea modelelor de limbaj AI la scară largă necesită o cantitate mare de resurse de calcul GPU. Pe termen lung, inferența va deveni principalul caz de utilizare pentru GPU-uri. Imaginați-vă câte modele mari de limbaj AI trebuie antrenate pentru a satisface cererea globală, care este mai mult în comparație cu numărul de clienți care folosesc aceste modele?

Ipoteza nr. 2: Folosiți calcule de inferență AI excesiv de redundante pentru a ajunge la un consens

O altă provocare în ceea ce privește criptografie și AI este verificarea acurateței inferenței AI, deoarece nu puteți avea încredere deplină într-o singură parte centralizată pentru a efectua operațiuni de inferență și există un risc potențial ca nodurile să se comporte inadecvat. Această provocare nu există în Web2 AI deoarece nu există un sistem de consens descentralizat.

Soluția este calculul redundant, permițând mai multor noduri să repete aceleași operațiuni de inferență AI, care pot rula într-un mediu fără încredere și pot evita punctele de eșec unice.

Problema acestei abordări este însă că există o lipsă extremă de cipuri AI de vârf. Perioadele de așteptare de un an pentru cipurile NVIDIA de ultimă generație cresc prețurile. Dacă doriți ca inferența AI să fie re-execută de mai multe ori pe mai multe noduri, aceasta devine exponențial mai costisitoare, ceea ce o face imposibilă pentru multe proiecte.

Ipoteza nr. 3: Cazuri de utilizare AI specifice Web3 pe termen scurt

S-a sugerat că Web3 ar trebui să aibă propriile cazuri de utilizare AI unice, vizate în mod specific clienților Web3. Acesta ar putea fi (de exemplu) un protocol Web3 care folosește AI pentru a risca să indice pool-uri DeFi, un portofel Web3 care sugerează utilizatorilor noi protocoale bazate pe istoricul portofelului sau un joc Web3 care folosește AI pentru a controla personajele non-player (NPC-uri).

Deocamdată, aceasta este o piață în curs de dezvoltare (pe termen scurt) în care cazurile de utilizare sunt încă explorate. Unele provocări includ:

  • Deoarece cererea pieței este încă la început, există mai puține oferte potențiale de AI necesare pentru cazurile de utilizare native Web3.

  • Există mai puțini clienți, ordine de mărime mai puțini clienți Web3 în comparație cu clienții Web2, astfel încât piața este mai puțin descentralizată.

  • Clienții înșiși sunt mai puțin stabili, deoarece sunt startup-uri cu mai puțină finanțare, iar unele startup-uri pot dispărea în timp. Și furnizorii de servicii Web3 AI care se adresează clienților Web3 ar putea avea nevoie să-și recâștige o parte din baza de clienți pentru a-i înlocui pe cei care au dispărut, ceea ce face ca extinderea afacerii lor să fie extrem de dificilă.

Pe termen lung, suntem foarte optimiști cu privire la cazurile de utilizare AI native Web3, mai ales pe măsură ce agenții AI devin mai răspândiți. Ne imaginăm că, în viitor, orice utilizator Web3 va avea un număr mare de agenți AI care să-l ajute să își îndeplinească sarcinile.

Viziunea #4: DePIN pentru GPU pentru consumatori

Există multe rețele de calcul AI descentralizate care se bazează mai degrabă pe GPU-uri pentru consumatori decât pe centre de date. GPU-urile pentru consumatori sunt ideale pentru sarcinile de inferență AI de vârf sau cazuri de utilizare pentru consumatori în care latența, debitul și fiabilitatea sunt flexibile. Dar pentru cazurile de utilizare serioase ale întreprinderilor (care este cea mai mare parte a pieței care contează), clienții au nevoie de rețele de fiabilitate mai ridicată în comparație cu mașinile de acasă și adesea GPU-uri de ultimă generație dacă au sarcini de inferență mai complexe. Centrele de date sunt mai potrivite pentru aceste cazuri de utilizare mai valoroase pentru clienți.

Rețineți că considerăm că GPU-urile de calitate pentru consumatori sunt potrivite pentru demonstrații, precum și persoane fizice și startup-uri care pot tolera o fiabilitate mai scăzută. Dar acești clienți sunt mai puțin valoroși, așa că credem că DePIN-urile, personalizate special pentru întreprinderile Web2, vor fi mai valoroase pe termen lung. Drept urmare, proiectul GPU DePIN a evoluat de la utilizarea în primul rând hardware de calitate pentru consumatori la începuturile sale la disponibilitatea A100/H100 și la nivel de cluster.

Realitate – Cazuri practice de utilizare ale criptomonedei x AI

Acum discutăm cazuri de utilizare care oferă beneficii reale. Acestea sunt adevăratele câștiguri, iar Crypto x AI poate adăuga valoare clară.

Beneficiul real #1: Servirea clienților Web2

McKinsey estimează că, în cele 63 de cazuri de utilizare analizate, IA generativă ar putea adăuga echivalentul a 2,6 trilioane de dolari la 4,4 trilioane de dolari în venituri anual – comparativ cu PIB-ul total al Regatului Unit în 2021 de 3,1 trilioane de dolari. Acest lucru ar crește impactul AI cu 15% până la 40%. Dacă luăm în considerare impactul AI generativ încorporat în software-ul utilizat în prezent pentru alte sarcini decât cazurile de utilizare, impactul este estimat să se dubleze.

Dacă faceți calculul pe baza estimărilor de mai sus, aceasta înseamnă că valoarea totală a pieței globale pentru AI (dincolo de AI generativă) ar putea fi de zeci de trilioane de dolari. Prin comparație, valoarea totală a tuturor criptomonedelor (inclusiv Bitcoin și toate altcoin-urile) astăzi este de doar aproximativ 2,7 trilioane de dolari. Deci, să recunoaștem: marea majoritate a clienților care au nevoie de AI pe termen scurt vor fi clienți Web2, deoarece clienții Web3 care au nevoie cu adevărat de AI vor reprezenta doar o mică parte din acești 2,7 trilioane de dolari (având în vedere că BTC este piața, Bitcoin însuși nu necesită/folosește AI).

Cazurile de utilizare Web3 AI abia la început și nu este clar cât de mare va fi piața. Dar un lucru este sigur - va reprezenta doar o mică parte din piața Web2 în viitorul apropiat. Credem că Web3 AI are încă un viitor luminos, dar asta înseamnă doar că cea mai puternică aplicație a Web3 AI în acest moment este deservirea clienților Web2.

Exemple ipotetice de clienți Web2 care ar putea beneficia de Web3 AI includ:

  • Construiți o companie de software centrată pe AI, specifică verticală de la zero (de exemplu, Cedar.ai sau Observe.ai)

  • Întreprinderi mari care își ajustează modelele pentru propriile scopuri (de exemplu, Netflix)

  • Furnizori de IA cu creștere rapidă (de exemplu, antropici)

  • Companii de software care integrează AI în produsele existente (de exemplu, Canva)

Acesta este un rol de client relativ stabil, deoarece clienții sunt de obicei mari și valoroși. Este puțin probabil ca aceștia să dispară în curând și reprezintă potențiali clienți uriași pentru serviciile AI. Serviciile Web3 AI care deservesc clienții Web2 vor beneficia de această bază stabilă de clienți.

Dar de ce ar dori clienții Web2 să folosească o stivă Web3? Restul acestui articol explică această situație.

Beneficiul real #2: Costuri mai mici de utilizare a GPU-ului cu GPU DePIN

GPU DePIN reunește puterea de calcul GPU subutilizată, cea mai fiabilă dintre care provine din centrele de date și o face disponibilă pentru inferența AI. O simplă analogie cu această problemă este „Airbnb în GPU”.

Motivul pentru care suntem încântați de GPU DePIN este că, așa cum am menționat mai sus, există o lipsă de cipuri NVIDIA și în prezent există cicluri GPU irosite care ar putea fi folosite pentru inferența AI. Acești proprietari de hardware au costuri reduse și echipamente subutilizate în prezent, astfel încât aceste GPU-uri parțiale pot fi puse la dispoziție la un cost mult mai mic decât status quo-ul, deoarece acest lucru „găsește banii” pentru proprietarul hardware-ului.

Exemplele includ:

  • Mașină AWS. Dacă ar fi să închiriați un H100 de la AWS astăzi, ar trebui să vă angajați pentru un închiriere de 1 an, deoarece oferta de piață este limitată. Acest lucru creează risipă, deoarece probabil că nu veți folosi GPU-ul 7 zile pe săptămână, 365 de zile pe an.

  • Hardware pentru minerit Filecoin. Filecoin are o ofertă mare subvenționată, dar nu o cerere reală mare. Filecoin nu a găsit niciodată o potrivire adevărată cu piața produsului, așa că minerii Filecoin riscau să iasă din afaceri. Aceste mașini sunt echipate cu GPU-uri care pot fi reutilizate pentru sarcini de inferență AI low-end.

  • Hardware pentru minerit ETH. Când Ethereum trece de la PoW la PoS, acest lucru eliberează rapid o mulțime de hardware care poate fi reutilizat pentru inferența AI.

Rețineți că nu tot hardware-ul GPU este potrivit pentru inferența AI. Un motiv evident pentru acest lucru este că GPU-urile mai vechi nu au cantitatea de memorie GPU necesară pentru LLM-uri, deși există deja câteva inovații interesante care pot ajuta în acest sens. De exemplu, tehnologia Exabits poate încărca neuronii activi în memoria GPU și neuronii inactivi în memoria CPU. Ei prezic ce neuroni trebuie să fie activi/inactivi. Acest lucru permite GPU-urilor low-end să gestioneze sarcinile de lucru AI, chiar și cu memorie GPU limitată. Acest lucru face ca GPU-urile low-end să fie mai utile pentru inferența AI.

Web3 AI DePINs va trebui să își dezvolte produsul în timp și să ofere servicii la nivel de întreprindere, cum ar fi single sign-on, conformitatea SOC 2, acorduri de nivel de servicii (SLA) și multe altele. Acest lucru este similar cu ceea ce oferă actualii furnizori de servicii cloud clienților Web2.

Beneficiul real #3: Modele rezistente la cenzură pentru a evita autocenzura OpenAI

Există multe discuții despre cenzura AI. Turcia, de exemplu, a interzis temporar OpenAI (mai târziu și-au schimbat abordarea când OpenAI a îmbunătățit conformitatea). Credem că cenzura la nivel național este neinteresantă, deoarece țările trebuie să adopte AI pentru a rămâne competitive.

OpenAI desfășoară și autocenzură. De exemplu, OpenAI nu va gestiona conținutul NSFW. Nici OpenAI nu va prezice următoarele alegeri prezidențiale. Credem că cazurile de utilizare AI nu sunt doar interesante, dar există o piață uriașă, dar pe care OpenAI nu o va atinge din motive politice.

Open Source este o soluție excelentă, deoarece depozitele Github nu sunt influențate de acționari sau de un consiliu de administrație. Un exemplu este Venice.ai, care promite confidențialitate și funcționează într-o manieră rezistentă la cenzură. Web3 AI îl poate duce în mod eficient la următorul nivel, alimentând aceste modele de software cu sursă deschisă (OSS) pe clustere GPU cu costuri mai mici pentru a efectua inferențe. Din aceste motive credem că OSS + Web3 este combinația ideală pentru a deschide calea pentru AI rezistentă la cenzură.

Beneficiul real #4: Evitați să trimiteți informații de identificare personală către OpenAI

Întreprinderile mari au preocupări legate de confidențialitate cu privire la datele lor interne. Pentru acești clienți, poate fi dificil să ai încredere într-o terță parte OpenAI pentru a deține aceste date.

În Web3, poate părea și mai îngrijorător (la suprafață) pentru aceste companii faptul că datele lor interne apar brusc pe web-ul descentralizat. Cu toate acestea, există inovații în tehnologiile de îmbunătățire a confidențialității pentru AI:

Mediu de execuție de încredere (TEE), cum ar fi Super Protocol

Fully Homomorphic Encryption (FHE), cum ar fi Fhenix.io (o companie de portofoliu a unui fond administrat de Hack VC) sau Inco Network (ambele alimentate de Zama.ai), precum și PPML de la Bagel

Aceste tehnologii încă evoluează, iar performanța continuă să se îmbunătățească cu viitoarele Zero Knowledge (ZK) și FHE ASIC. Dar obiectivul pe termen lung este de a proteja datele întreprinderii în timp ce reglam fin modelul. Pe măsură ce aceste protocoale apar, Web3 poate deveni un loc și mai atractiv pentru calcularea AI care păstrează confidențialitatea.

Beneficiul real #5: Profitați de cele mai recente inovații în modelul open source

Software-ul open source a consumat cota de piață a software-ului proprietar în ultimele câteva decenii. Considerăm LLM ca o formă de software proprietar capabil să perturbe OSS. Exemple notabile de contestatori includ Llama, RWKV și Mistral.ai. Această listă va crește, fără îndoială, în timp (o listă mai cuprinzătoare poate fi găsită la Openrouter.ai). Folosind Web3 AI (alimentat de modele OSS), oamenii pot inova cu aceste noi inovații.

Credem că, de-a lungul timpului, forța de muncă de dezvoltare globală a open source, combinată cu stimulentele criptomonedei, poate genera inovații rapide în modelele open source și agenții și cadrele construite pe baza acestora. Un exemplu de protocol de agent AI este Theoriq. Theoriq folosește modelele OSS pentru a crea o rețea interconectată de agenți AI compozabili care pot fi asamblați pentru a crea soluții AI de nivel superior.

Motivul pentru care suntem încrezători în acest lucru este că, în trecut, majoritatea inovațiilor „software pentru dezvoltatori” au fost depășite încet de OSS de-a lungul timpului. Microsoft a fost odată o companie de software proprietară, iar acum este compania numărul unu care contribuie la Github. Există un motiv pentru asta, dacă te uiți la modul în care Databricks, PostGresSQL, MongoDB și alții perturbă bazele de date proprietare, acesta este un exemplu de OSS care perturbă o întreagă industrie, așa că precedentul aici este destul de convingător.

Cu toate acestea, există o problemă. Un lucru dificil despre modelele de limbă mari cu sursă deschisă (OSS LLM) este că OpenAI a început să încheie acorduri de licențiere a datelor plătite cu unele organizații, cum ar fi Reddit și New York Times. Dacă această tendință continuă, modelele de limbi mari open source pot deveni mai dificil de concurat din cauza barierelor financiare în calea achiziționării de date. Nvidia își poate crește și mai mult investiția în calculul confidențial ca ajutor pentru a securiza partajarea datelor. Timpul va dezvălui cum se desfășoară acest lucru.

Beneficiul real #6: Consens prin eșantionare aleatoare cu reducere a costurilor sau prin dovezi ZK

Una dintre provocările inferenței Web3 AI este verificarea. Se presupune că validatorii au posibilitatea de a-și înșela rezultatele pentru a câștiga taxe, așa că validarea inferențelor este o măsură importantă. Rețineți că această înșelăciune nu s-a întâmplat încă, deoarece inferența AI este la început, dar este inevitabil dacă nu se iau măsuri pentru a reduce acest comportament.

Abordarea standard Web3 este ca mai mulți validatori să repete aceeași operație și să compare rezultatele. După cum am menționat mai devreme, provocarea flagrantă în această problemă este că inferența AI este foarte costisitoare din cauza deficitului actual de cipuri Nvidia de vârf. Având în vedere că Web3 poate oferi inferențe cu costuri mai mici prin DePIN GPU subutilizat, calculul redundant va slăbi sever propunerea de valoare a Web3.

O soluție mai promițătoare este efectuarea de dovezi ZK pentru calcule de inferență AI în afara lanțului. În acest caz, o dovadă ZK concisă poate fi verificată pentru a determina dacă modelul a fost antrenat corect sau dacă inferența a funcționat corect (numită zkML). Exemplele includ Modulus Labs și ZKonduit. Deoarece operațiunile ZK sunt intensive din punct de vedere computațional, performanța acestor soluții este încă la început. Cu toate acestea, ne așteptăm ca situația să se îmbunătățească odată cu lansarea ASIC-urilor hardware ZK în viitorul apropiat.

Mai promițătoare este ideea unei metode de raționament AI bazată pe eșantionare oarecum „optimistă”. În acest model, doar o mică parte din rezultatele produse de validator sunt verificate, dar costul economic al slash-ului este setat suficient de mare încât, dacă este prins, să existe un puternic descurajant economic pentru validatori să trișeze. În acest fel economisiți calcule redundante.

O altă idee promițătoare este soluțiile de watermarking și amprentare, precum cea propusă de Bagel Network. Acesta este similar cu mecanismul prin care Amazon Alexa oferă asigurarea calității modelului AI în dispozitiv pentru milioanele sale de dispozitive.

Beneficiul real #7: Economii cu OSS (Profiturile OpenAI)

Următoarea oportunitate pe care Web3 o aduce AI este democratizarea costurilor. Până acum, am discutat despre reducerea costurilor GPU cu DePIN. Dar Web3 oferă, de asemenea, oportunitatea de a economisi marje pe serviciile centralizate Web2 AI (cum ar fi OpenAI, care în momentul scrierii acestui articol are peste 1 miliard de dolari în venituri anuale). Aceste economii de costuri provin din faptul că utilizarea modelelor OSS mai degrabă decât a modelelor proprietare realizează economii suplimentare, deoarece creatorii de modele nu încearcă să facă profit.

Multe modele OSS vor rămâne complet gratuite, rezultând cea mai bună economie pentru clienți. Dar pot exista unele modele OSS care încearcă și aceste metode de monetizare. Luați în considerare că doar 4% din toate modelele de pe Hugging Face au fost instruite de companii cu buget pentru a ajuta la subvenționarea modelelor. Restul de 96% dintre modele sunt instruite de comunitate. Acest grup (96% din Hugging Face) are costuri reale de bază (atât de calcul, cât și de date). Prin urmare, aceste modele vor trebui monetizate într-un fel.

Există mai multe propuneri de monetizare a modelului de software open source. Unul dintre cele mai interesante este conceptul de „emitere inițială a modelului”, care este de a tokeniza modelul în sine, de a păstra o parte din jetoane pentru echipă și de a canaliza unele venituri viitoare din model către deținătorii de jetoane, deși cu siguranță există unele Bariere legale și de reglementare.

Alte modele OSS vor încerca să monetizeze utilizarea. Rețineți că, dacă acest lucru devine realitate, modelul OSS poate începe să semene din ce în ce mai mult cu modelul său de monetizare Web2. Dar, în realitate, piața va fi împărțită în două părți, unele modele rămânând complet libere.

Beneficiul real #8: Surse de date descentralizate

Una dintre cele mai mari provocări cu care se confruntă AI este găsirea datelor potrivite pentru a antrena un model. Am menționat mai devreme că antrenamentul descentralizat AI are provocările sale. Dar cum rămâne cu utilizarea unei rețele descentralizate pentru a obține datele (care pot fi apoi folosite pentru antrenament în altă parte, chiar și în locurile tradiționale Web2)?

Exact asta fac startup-uri precum Grass. Grass este o rețea descentralizată de „data scrapers” care contribuie cu puterea de procesare inactivă a mașinilor lor la sursele de date pentru a furniza informații pentru formarea modelelor AI. Ipotetic, la scară, această sursă de date ar putea depăși eforturile unei surse de date interne ale oricărei companii datorită puterii unei rețele mari de noduri stimulate. Aceasta include nu doar obținerea mai multor date, ci și obținerea lor mai frecvent pentru a le face mai relevante și mai actualizate. De fapt, este, de asemenea, imposibil să opriți hoardele descentralizate de răzuire a datelor, deoarece acestea sunt în mod inerent descentralizate și nu locuiesc într-o singură adresă IP. De asemenea, au o rețea care curăță și normalizează datele, astfel încât este utilă odată ce sunt răzuite.

Odată ce aveți datele, aveți nevoie și de o locație pentru a le stoca în lanț și de LLM-urile generate folosind acele date.

Rețineți că rolul datelor în Web3 AI se poate schimba în viitor. Astăzi, status quo-ul pentru LLM este de a pregăti modelul folosind date și de a-l rafina în timp cu mai multe date. Cu toate acestea, deoarece datele de pe Internet se modifică în timp real, aceste modele sunt întotdeauna puțin depășite. Prin urmare, răspunsurile deduse de LLM sunt ușor inexacte.

Direcția viitoare poate fi o nouă paradigmă - date „în timp real”. Conceptul este că atunci când unui model de limbaj mare (LLM) i se pune o întrebare de inferență, LLM poate trece prin indicii și poate injecta date care sunt re-adunate de pe Internet în timp real. În acest fel, LLM poate folosi cele mai recente date. Iarba lucrează la această parte.

Mulțumiri speciale următoarelor persoane pentru feedback și ajutor pentru acest articol: Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahmadeen, Evan Feng, JW Wang.