Autors: Eds Romāns, Hack VC vadošais partneris

Sastādīts: 1912212.eth, Foresight News

 

AI+ Crypto ir viena no robežzonām, kas pēdējā laikā ir piesaistījusi lielu uzmanību kriptovalūtu tirgū, piemēram, decentralizēta AI apmācība, GPU DePIN un pret cenzūru izturīgi AI modeļi.

 

Aiz šiem žilbinošajiem sasniegumiem mēs nevaram nejautāt: vai tas ir īsts tehnoloģisks sasniegums vai vienkārši aktuāla tēma? Šis raksts noskaidros jūsu vietā miglu, analizēs šifrēšanas x AI redzējumu un apspriedīs patiesos izaicinājumus un iespējas, kā arī atklās, kuri no tiem ir tukši solījumi un kuri ir faktiski izpildāmi?

 

Vīzija Nr. 1: Decentralizēta AI apmācība

 

Problēma ar ķēdes AI apmācību ir tāda, ka tai ir nepieciešama liela ātruma saziņa un koordinācija starp GPU, jo neironu tīkliem apmācības laikā ir nepieciešama atpakaļpavairošana. Šim nolūkam Nvidia ir divi jauninājumi (NVLink un InfiniBand). Šīs tehnoloģijas padara GPU saziņu īpaši ātru, taču tās ir tikai lokālas tehnoloģijas, kas darbojas tikai GPU klasteros (50+ gigabitu ātrums), kas atrodas vienā datu centrā.

 

Ja tiek ieviests decentralizēts tīkls, ātrums pēkšņi samazināsies par vairākām kārtām, jo ​​palielinās tīkla latentums un joslas platums. Salīdzinot ar caurlaidspēju, ko var iegūt no Nvidia ātrgaitas starpsavienojuma datu centrā, šis ātrums vienkārši nav iespējams AI apmācības izmantošanas gadījumos.

 

Ņemiet vērā, ka tālāk ir arī jauninājumi, kas var dot cerību nākotnei:

 

  • Izkliedētā apmācība par InfiniBand notiek plašā mērogā, jo pati NVIDIA atbalsta izplatītu apmācību, kas nav vietējā InfiniBand, izmantojot NVIDIA kolektīvo komunikāciju bibliotēku. Tomēr tas joprojām ir topošā stadijā, tāpēc adopcijas rādītāji vēl nav noteikti. Fizisko likumu sašaurinājums attālumā joprojām pastāv, tāpēc vietējā apmācība InfiniBand joprojām ir daudz ātrāka.

  • Ir publicēti daži jauni pētījumi par decentralizētu apmācību, kas prasa mazāk komunikācijas sinhronizācijas laika, kas nākotnē var padarīt decentralizētu apmācību praktiskāku.

  • Saprātīga modeļu apmācības sadalīšana un plānošana palīdz uzlabot veiktspēju. Tāpat jaunas modeļu arhitektūras var būt īpaši izstrādātas nākotnes izplatītajām infrastruktūrām (Gensyn veic pētījumus šajās jomās).

 

Izaicinoša ir arī apmācības datu daļa. Jebkurš AI apmācības process ietver lielu datu apjomu apstrādi. Parasti modeļi tiek apmācīti centralizētās drošās datu glabāšanas sistēmās ar augstu mērogojamību un veiktspēju. Tam nepieciešams pārsūtīt un apstrādāt terabaitus datu, un tas nav vienreizējs cikls. Dati bieži ir trokšņaini un satur kļūdas, tāpēc pirms modeļa apmācības tie ir jāiztīra un jāpārvērš izmantojamā formātā. Šajā posmā tiek veikti atkārtoti standartizēšanas, filtrēšanas un trūkstošo vērtību apstrādes uzdevumi. Tie visi saskaras ar nopietnām problēmām decentralizētā vidē.

 

Apmācības datu daļa ir arī iteratīva, kas nav saderīga ar Web3. OpenAI veica tūkstošiem iterāciju, lai sasniegtu rezultātus. Visvienkāršākie datu zinātnieka uzdevumu scenāriji AI komandā ietver mērķu definēšanu, datu sagatavošanu, datu analīzi un apkopošanu, lai iegūtu svarīgu ieskatu, un padarot tos piemērotus modelēšanai. Pēc tam izstrādājiet mašīnmācīšanās modeli, lai atrisinātu definēto problēmu, un apstipriniet tā veiktspēju, izmantojot testa datu kopu. Process ir iteratīvs: ja pašreizējais modelis nedarbojas, kā paredzēts, eksperti atgriežas datu vākšanas vai modeļa apmācības fāzē, lai uzlabotu rezultātus. Iedomājieties, ka, ja šis process tiktu veikts decentralizētā vidē, Web3 nebūtu viegli pielāgot vismodernākās esošās sistēmas un rīkus.

 

Vēl viena problēma ar AI modeļu apmācību ķēdē ir tā, ka šis tirgus ir daudz mazāk interesants nekā secinājumi. Pašlaik liela mēroga AI valodu modeļu apmācībai ir nepieciešams liels daudzums GPU skaitļošanas resursu. Ilgtermiņā secinājumi kļūs par galveno GPU lietošanas gadījumu. Iedomājieties, cik daudz lielu AI valodu modeļu ir jāapmāca, lai apmierinātu globālo pieprasījumu. Kas ir vairāk, salīdzinot ar klientu skaitu, kuri izmanto šos modeļus?

 

2. pieņēmums: izmantojiet pārāk liekus AI secinājumu aprēķinus, lai panāktu vienprātību

 

Vēl viens izaicinājums saistībā ar kriptogrāfiju un AI ir AI secinājumu precizitātes pārbaude, jo nevar pilnībā uzticēties vienai centralizētai pusei, lai veiktu secinājumu darbības, un pastāv potenciāls risks, ka mezgli var darboties neatbilstoši. Šis izaicinājums nepastāv Web2 AI, jo nav decentralizētas vienprātības sistēmas.

 

Risinājums ir lieka skaitļošana, kas ļauj vairākiem mezgliem atkārtot vienas un tās pašas AI secināšanas darbības, kuras var darboties neuzticamā vidē un izvairīties no atsevišķiem atteices punktiem.

 

Tomēr šīs pieejas problēma ir tāda, ka ārkārtīgi trūkst augstākās klases AI mikroshēmu. Gadu ilgs gaidīšanas laiks augstākās klases NVIDIA mikroshēmām palielina cenas. Ja jums ir nepieciešams, lai AI secinājumi tiktu atkārtoti izpildīti vairākos mezglos, tas kļūst eksponenciāli dārgāks, padarot to neiespējamu daudziem projektiem.

 

3. pieņēmums: īstermiņa Web3 specifiski AI lietošanas gadījumi

 

Ir ierosināts, ka Web3 vajadzētu būt saviem unikālajiem AI lietošanas gadījumiem, kas īpaši paredzēti Web3 klientiem. Tas varētu būt (piemēram) Web3 protokols, kas izmanto mākslīgo intelektu, lai riskētu ar DeFi pūliņiem, Web3 maciņš, kas lietotājiem iesaka jaunus protokolus, pamatojoties uz maka vēsturi, vai Web3 spēle, kas izmanto AI, lai kontrolētu nespēlētājus (NPC).

 

Pagaidām šis ir topošs tirgus (īstermiņā), kurā lietošanas gadījumi joprojām tiek pētīti. Daži izaicinājumi ietver:

 

  • Tā kā tirgus pieprasījums joprojām ir sākumstadijā, Web3 vietējai lietošanai ir nepieciešams mazāk iespējamo AI darījumu.

  • Klientu skaits ir mazāks, Web3 klientu skaits ir mazāks nekā Web2 klientiem, tāpēc tirgus ir mazāk decentralizēts.

  • Paši klienti ir mazāk stabili, jo tie ir jaunuzņēmumi ar mazāku finansējumu, un daži jaunuzņēmumi laika gaitā var izmirt. Un Web3 AI pakalpojumu sniedzējiem, kas apkalpo Web3 klientus, iespējams, būs jāatgūst daļa no savas klientu bāzes, lai aizstātu tos, kas pazuduši, padarot viņu biznesa mērogošanu ārkārtīgi sarežģītu.

 

Ilgtermiņā mēs ļoti izturamies pret Web3 native AI lietošanas gadījumiem, jo ​​īpaši tāpēc, ka AI aģenti kļūst arvien izplatītāki. Mēs iedomājamies, ka nākotnē jebkuram Web3 lietotājam būs liels skaits AI aģentu, kas palīdzēs veikt savus uzdevumus.

 

4. vīzija: patērētāja GPU DePIN

 

Ir daudzi decentralizēti AI skaitļošanas tīkli, kas balstās uz patērētāju GPU, nevis datu centriem. Patērētāju GPU ir ideāli piemēroti zemas klases AI secinājumu uzdevumiem vai patērētāju lietošanas gadījumiem, kad latentums, caurlaidspēja un uzticamība ir elastīga. Taču nopietniem uzņēmuma lietošanas gadījumiem (kas ir svarīgs tirgus lielākajai daļai) klientiem ir nepieciešami augstākas uzticamības tīkli nekā mājas datoriem un bieži vien augstākās klases GPU, ja viņiem ir sarežģītāki secinājumu uzdevumi. Datu centri ir labāk piemēroti šiem vērtīgākajiem klientu lietošanas gadījumiem.

 

Ņemiet vērā, ka mēs uzskatām, ka patērētāja līmeņa GPU ir piemēroti demonstrācijām, kā arī privātpersonām un jaunizveidotiem uzņēmumiem, kuri var paciest zemāku uzticamību. Taču šie klienti ir mazāk vērtīgi, tāpēc mēs uzskatām, ka DePIN, kas īpaši pielāgoti Web2 uzņēmumiem, ilgtermiņā būs vērtīgāki. Rezultātā GPU DePIN projekts ir attīstījies no primārās patērētājiem paredzētās aparatūras izmantošanas tā sākumposmā līdz A100/H100 un klasteru līmeņa pieejamībai.

 

Realitāte — praktiski kriptovalūtas x AI lietošanas gadījumi

 

Tagad mēs apspriežam lietošanas gadījumus, kas sniedz reālus ieguvumus. Šīs ir patiesās uzvaras, un Crypto x AI var pievienot skaidru vērtību.

 

Reāls ieguvums Nr. 1: Web2 klientu apkalpošana

 

McKinsey lēš, ka no 63 analizētajiem lietošanas gadījumiem ģeneratīvais AI katru gadu varētu palielināt ieņēmumus 2,6 triljoniem USD līdz 4,4 triljoniem USD, salīdzinot ar Apvienotās Karalistes kopējo 2021. gada IKP 3,1 triljonu USD apmērā. Tas palielinātu AI ietekmi par 15% līdz 40%. Ja ņemam vērā ietekmi, ko rada ģeneratīvā AI, kas ir iegulta programmatūrā, ko pašlaik izmanto citiem uzdevumiem, nevis lietošanas gadījumiem, aplēstā ietekme aptuveni dubultojas.

 

Ja veicat aprēķinu, pamatojoties uz iepriekš minētajiem aprēķiniem, tas nozīmē, ka AI kopējā globālā tirgus vērtība (neskaitot ģeneratīvo AI) varētu būt desmitiem triljonu dolāru. Salīdzinājumam, visu kriptovalūtu (tostarp Bitcoin un visu altkoinu) kopējā vērtība šodien ir tikai aptuveni 2,7 triljoni USD. Tāpēc atzīsim: lielākā daļa klientu, kuriem īstermiņā ir nepieciešams AI, būs Web2 klienti, jo Web3 klienti, kuriem patiešām ir vajadzīgs AI, būs tikai neliela daļa no šiem 2,7 triljoniem USD (ņemot vērā, ka BTC ir tirgus, pats Bitcoin neprasa/izmanto AI).

 

Web3 AI lietošanas gadījumi tikai sākas, un nav skaidrs, cik liels būs tirgus. Taču viens ir skaidrs – tas pārskatāmā nākotnē pārstāvēs tikai nelielu Web2 tirgus daļu. Mēs uzskatām, ka Web3 AI joprojām gaida spožu nākotni, taču tas nozīmē tikai to, ka pašlaik jaudīgākā Web3 AI lietojumprogramma apkalpo Web2 klientus.

 

Hipotētiski Web2 klientu piemēri, kuri varētu gūt labumu no Web3 AI, ir šādi:

 

  • Izveidojiet uz AI orientētu, vertikāli specifisku programmatūras uzņēmumu no paša sākuma (piemēram, Cedar.ai vai Observe.ai)

  • Lieli uzņēmumi, kas precizē modeļus saviem mērķiem (piemēram, Netflix)

  • Strauji augošie mākslīgā intelekta pakalpojumu sniedzēji (piemēram, Anthropic)

  • Programmatūras uzņēmumi, kas integrē AI esošajos produktos (piemēram, Canva)

 

Tā ir samērā stabila klientu loma, jo klienti parasti ir lieli un vērtīgi. Maz ticams, ka tie drīzumā pārtrauks darbību, un tie pārstāv milzīgus potenciālos AI pakalpojumu klientus. Web3 AI pakalpojumi, kas apkalpo Web2 klientus, gūs labumu no šīs stabilās klientu bāzes.

 

Bet kāpēc Web2 klienti vēlētos izmantot Web3 steku? Šī raksta pārējā daļā ir izskaidrota šī situācija.

 

Reāls ieguvums #2: zemākas GPU lietošanas izmaksas, izmantojot GPU DePIN

 

GPU DePIN apkopo nepietiekami izmantoto GPU skaitļošanas jaudu, no kurām visuzticamākā nāk no datu centriem, un padara to pieejamu AI secinājumiem. Vienkārša analoģija šai problēmai ir "Airbnb GPU".

 

Iemesls, kāpēc mēs esam sajūsmā par GPU DePIN, ir tas, ka, kā minēts iepriekš, trūkst NVIDIA mikroshēmu un pašlaik ir izniekoti GPU cikli, kurus varētu izmantot AI secinājumiem. Šiem aparatūras īpašniekiem ir pazeminātas izmaksas un pašlaik nepietiekami izmantots aprīkojums, tāpēc šos daļējos GPU var padarīt pieejamus par daudz zemākām izmaksām nekā status quo, jo tas faktiski "atrod naudu" aparatūras īpašniekam.

 

Piemēri:

 

  • AWS mašīna. Ja jūs šodien iznomātu H100 no AWS, jums būtu jāpieņem nomas līgums uz 1 gadu, jo tirgus piedāvājums ir ierobežots. Tas rada atkritumus, jo jūs, iespējams, neizmantosit GPU 7 dienas nedēļā, 365 dienas gadā.

  • Failmonētu ieguves aparatūra. Filecoin ir liels subsidētais piedāvājums, bet ne liels reālais pieprasījums. Filecoin nekad nav atradis patiesi piemērotu produktu tirgum, tāpēc Filecoin kalnračiem draudēja izbeigšana. Šīs iekārtas ir aprīkotas ar GPU, ko var atkārtoti izmantot zemas klases AI secinājumu veikšanai.

  • ETH ieguves aparatūra. Kad Ethereum pāriet no PoW uz PoS, tas ātri atbrīvo daudz aparatūras, ko var izmantot AI secinājumu veikšanai.

 

Ņemiet vērā, ka ne visa GPU aparatūra ir piemērota AI secinājumiem. Viens no acīmredzamiem iemesliem ir tas, ka vecākiem GPU nav pietiekami daudz GPU atmiņas, kas nepieciešams LLM, lai gan jau ir daži interesanti jauninājumi, kas var palīdzēt šajā sakarā. Piemēram, Exabits tehnoloģija var ielādēt aktīvos neironus GPU atmiņā un neaktīvos neironus CPU atmiņā. Viņi prognozē, kuriem neironiem jābūt aktīviem / neaktīviem. Tas ļauj zemas klases GPU apstrādāt AI darba slodzi pat ar ierobežotu GPU atmiņu. Tas efektīvi padara zemas klases GPU noderīgākus AI secinājumiem.

 

Web3 AI DePIN laika gaitā būs jāattīsta savs produkts un jānodrošina uzņēmuma līmeņa pakalpojumi, piemēram, vienreizēja pierakstīšanās, SOC 2 atbilstība, pakalpojumu līmeņa līgumi (SLA) un citi. Tas ir līdzīgi tam, ko pašreizējie mākoņpakalpojumu sniedzēji piedāvā Web2 klientiem.

 

Reāls ieguvums Nr. 3: cenzūrai izturīgi modeļi, lai izvairītos no OpenAI pašcenzūras

 

Ir daudz diskusiju par AI cenzūru. Piemēram, Turcija uz laiku aizliedza OpenAI (vēlāk viņi mainīja savu pieeju, kad OpenAI uzlaboja atbilstību). Mēs uzskatām, ka valsts līmeņa cenzūra nav interesanta, jo valstīm ir jāpieņem AI, lai saglabātu konkurētspēju.

 

OpenAI veic arī pašcenzūru. Piemēram, OpenAI neapstrādās NSFW saturu. OpenAI arī neparedzēs nākamās prezidenta vēlēšanas. Mēs domājam, ka AI lietošanas gadījumi ir ne tikai interesanti, bet arī ir milzīgs tirgus, taču tas, kuru OpenAI neskars politisku iemeslu dēļ.

 

Atvērtais kods ir lielisks risinājums, jo Github repozitorijus neietekmē akcionāri vai direktoru padome. Viens piemērs ir Venice.ai, kas sola privātumu un darbojas pret cenzūru. Web3 AI var efektīvi pacelt to uz nākamo līmeni, darbinot šos atvērtā pirmkoda programmatūras (OSS) modeļus zemāku izmaksu GPU klasteros, lai veiktu secinājumus. Šo iemeslu dēļ mēs uzskatām, ka OSS + Web3 ir ideāla kombinācija, lai sagatavotu ceļu pret cenzūru noturīgam AI.

 

Reāls ieguvums Nr. 4: izvairieties no personu identificējošas informācijas sūtīšanas OpenAI

 

Lieliem uzņēmumiem ir bažas par savu iekšējo datu privātumu. Šiem klientiem var būt grūti uzticēties OpenAI trešajai pusei, ka šie dati pieder.

 

Programmā Web3 šiem uzņēmumiem (virspusē) var šķist vēl satraucošāk, ka viņu iekšējie dati pēkšņi parādās decentralizētajā tīmeklī. Tomēr AI privātumu uzlabojošās tehnoloģijās ir jauninājumi:

 

Uzticama izpildes vide (TEE), piemēram, Super Protocol

 

Pilnībā homomorfā šifrēšana (FHE), piemēram, Fhenix.io (Hack VC pārvaldītā fonda portfeļa uzņēmums) vai Inco Network (abus nodrošina Zama.ai), kā arī Bagel’s PPML

 

Šīs tehnoloģijas joprojām attīstās, un veiktspēja turpina uzlaboties ar gaidāmajiem Zero Knowledge (ZK) un FHE ASIC. Taču ilgtermiņa mērķis ir aizsargāt uzņēmuma datus, vienlaikus precizējot modeli. Šiem protokoliem parādoties, Web3 var kļūt par vēl pievilcīgāku vietu AI skaitļošanai, kas saglabā privātumu.

 

Reāls ieguvums Nr. 5: izmantojiet jaunākās inovācijas atvērtā pirmkoda modelī

 

Atvērtā pirmkoda programmatūra pēdējo desmitgažu laikā ir iekarojusi patentētas programmatūras tirgus daļu. Mēs uzskatām, ka LLM ir sava veida patentēta programmatūra, kas var traucēt OSS. Ievērojami izaicinājumu piemēri ir Llama, RWKV un Mistral.ai. Šis saraksts laika gaitā neapšaubāmi pieaugs (plašāku sarakstu var atrast vietnē Openrouter.ai). Izmantojot Web3 AI (ar OSS modeļiem), cilvēki var ieviest jauninājumus ar šīm jaunajām inovācijām.

 

Mēs uzskatām, ka laika gaitā atvērtā pirmkoda globālās attīstības darbaspēks apvienojumā ar kriptovalūtas stimuliem var veicināt straujas inovācijas atvērtā pirmkoda modeļos un aģentos un sistēmās, kas ir veidotas uz tiem. AI aģenta protokola piemērs ir Theoriq. Theoriq izmanto OSS modeļus, lai izveidotu savstarpēji saistītu komponējamu AI aģentu tīklu, ko var salikt, lai radītu augstāka līmeņa AI risinājumus.

 

Iemesls, kāpēc mēs esam pārliecināti par to, ir tas, ka agrāk lielāko daļu "izstrādātāju programmatūras" jauninājumu laika gaitā lēnām pārspēja OSS. Microsoft kādreiz bija patentēts programmatūras uzņēmums, un tagad viņi ir pirmais uzņēmums, kas sniedz ieguldījumu Github. Tam ir iemesls, ja paskatās uz to, kā Databricks, PostGresSQL, MongoDB un citi izjauc patentētas datu bāzes, tas ir piemērs tam, ka OSS sagrauj visu nozari, tāpēc precedents šeit ir diezgan pārliecinošs.

 

Tomēr pastāv problēma. Viena sarežģīta lieta atklātā pirmkoda lielo valodu modeļos (OSS LLM) ir tāda, ka OpenAI ir sācis slēgt maksas datu licencēšanas līgumus ar dažām organizācijām, piemēram, Reddit un New York Times. Ja šī tendence turpināsies, atvērtā pirmkoda lielo valodu modeļiem var kļūt grūtāk konkurēt, jo ir finansiāli šķēršļi datu iegūšanai. Nvidia var vēl vairāk palielināt savus ieguldījumus konfidenciālā skaitļošanā kā palīglīdzekli drošai datu koplietošanai. Laiks rādīs, kā tas risināsies.

 

Reāls ieguvums #6: vienprātība, izmantojot izmaksu samazināšanas izlases veidā vai izmantojot ZK pierādījumus

 

Viens no Web3 AI secinājumu izaicinājumiem ir pārbaude. Tiek pieņemts, ka pārbaudītājiem ir iespēja krāpt savus rezultātus, lai nopelnītu maksu, tāpēc secinājumu apstiprināšana ir svarīgs pasākums. Ņemiet vērā, ka šī krāpšanās vēl nav notikusi, jo mākslīgā intelekta secinājums ir sākumstadijā, taču tas ir neizbēgami, ja netiek veikti pasākumi, lai ierobežotu šo uzvedību.

 

Standarta Web3 pieeja ir likt vairākiem validētājiem atkārtot vienu un to pašu darbību un salīdzināt rezultātus. Kā minēts iepriekš, šīs problēmas acīmredzamais izaicinājums ir tas, ka AI secinājumi ir ļoti dārgi, jo pašlaik trūkst augstākās klases Nvidia mikroshēmu. Ņemot vērā to, ka Web3 var nodrošināt zemāku izmaksu secinājumus, izmantojot nepietiekami izmantotu GPU DePIN, lieki aprēķini ievērojami vājinās Web3 vērtības piedāvājumu.

 

Daudzsološāks risinājums ir veikt ZK pierādījumus ārpus ķēdes AI secinājumu aprēķiniem. Šajā gadījumā var pārbaudīt īsus ZK pierādījumus, lai noteiktu, vai modelis tika apmācīts pareizi, vai secinājumi tika veikti pareizi (saukti par zkML). Piemēri ir Modulus Labs un ZKonduit. Tā kā ZK operācijas ir skaitļošanas ziņā intensīvas, šo risinājumu veiktspēja joprojām ir sākuma stadijā. Tomēr mēs sagaidām, ka tuvākajā nākotnē situācija uzlabosies līdz ar ZK aparatūras ASIC izlaišanu.

 

Daudzsološāka ir ideja par nedaudz "optimistisku" uz iztveršanu balstītu AI argumentācijas metodi. Šajā modelī tiek pārbaudīta tikai neliela daļa no validatora iegūtajiem rezultātiem, bet slīpsvītras ekonomiskās izmaksas ir iestatītas pietiekami augstas, lai, ja tas tiek pieķerts, validatoriem būtu spēcīgs ekonomisks motivējums krāpties. Tādā veidā jūs saglabājat liekos aprēķinus.

 

Vēl viena daudzsološa ideja ir ūdenszīmju un pirkstu nospiedumu risinājumi, piemēram, Bagel Network piedāvātais. Tas ir līdzīgs mehānismam, ar kuru Amazon Alexa nodrošina ierīcē iebūvēta AI modeļa kvalitātes nodrošināšanu miljoniem ierīču.

 

Reāls ieguvums Nr. 7: ietaupījumi, izmantojot OSS (OpenAI peļņa)

 

Nākamā iespēja, ko Web3 sniedz AI, ir izmaksu demokratizācija. Līdz šim mēs esam apsprieduši GPU izmaksu ietaupījumus ar DePIN. Taču Web3 piedāvā arī iespēju ietaupīt uz centralizētiem Web2 AI pakalpojumiem (piemēram, OpenAI, kura gada ieņēmumi uz šo brīdi ir vairāk nekā 1 miljards ASV dolāru). Šie izmaksu ietaupījumi rodas tāpēc, ka, izmantojot OSS modeļus, nevis patentētus modeļus, tiek panākti papildu ietaupījumi, jo modeļu veidotāji nemēģina gūt peļņu.

 

Daudzi OSS modeļi paliks pilnīgi bez maksas, tādējādi nodrošinot klientiem vislabāko ekonomiku. Taču var būt daži OSS modeļi, kas arī izmēģina šīs monetizācijas metodes. Ņemiet vērā, ka tikai 4% no visiem Hugging Face modeļiem apmācīja uzņēmumi ar budžetu, lai palīdzētu subsidēt modeļus. Atlikušos 96% modeļu apmāca sabiedrība. Šai grupai (96% no Hugging Face) ir pamata reālās izmaksas (tostarp aprēķinu izmaksas un datu izmaksas). Tāpēc šie modeļi būs kaut kādā veidā jāpelna.

 

Ir vairāki priekšlikumi monetizēt atvērtā pirmkoda programmatūras modeli. Viens no interesantākajiem ir “sākotnējās modeļa izdošanas” jēdziens, kas paredz marķierizēt pašu modeli, paturēt komandai daļu žetonu un novirzīt dažus nākotnes ieņēmumus no modeļa uz marķieru īpašniekiem, lai gan noteikti ir daži Juridiskie un regulējošie šķēršļi.

 

Citi OSS modeļi mēģinās gūt peļņu no lietojuma. Ņemiet vērā: ja tas kļūs par realitāti, OSS modelis var sākt arvien vairāk līdzināties tā Web2 monetizācijas modelim. Bet patiesībā tirgus tiks sadalīts divās daļās, daži modeļi paliks pilnīgi brīvi.

 

Reāls ieguvums Nr. 8: decentralizēti datu avoti

 

Viens no lielākajiem AI izaicinājumiem ir atrast pareizos datus, lai apmācītu modeli. Mēs jau iepriekš minējām, ka decentralizētai AI apmācībai ir savas problēmas. Bet kā ar decentralizēta tīkla izmantošanu datu iegūšanai (ko pēc tam var izmantot apmācībām citur, pat tradicionālajās Web2 vietās)?

 

Tieši to dara tādi jaunuzņēmumi kā Grass. Grass ir decentralizēts tīkls, kas sastāv no "datu skrāpjiem", kas nodrošina iekārtu dīkstāves apstrādes jaudu datu avotos, lai nodrošinātu informāciju AI modeļu apmācībai. Hipotētiski, mērogā šis datu avots varētu pārspēt jebkura uzņēmuma iekšējo datu avota centienus, pateicoties lielam stimulētu mezglu tīklam. Tas ietver ne tikai vairāk datu, bet arī biežāku iegūšanu, lai tie būtu atbilstošāki un jaunāki. Faktiski nav iespējams arī apturēt decentralizēto datu skrāpēšanas barus, jo tie pēc būtības ir decentralizēti un neatrodas vienā IP adresē. Viņiem ir arī tīkls, kas attīra un normalizē datus, lai tie būtu noderīgi pēc nokasīšanas.

 

Kad jums ir dati, jums ir nepieciešama arī vieta, kur tos uzglabāt ķēdē, kā arī LLM, kas ģenerēti, izmantojot šos datus.

 

Ņemiet vērā, ka datu loma Web3 AI nākotnē var mainīties. Mūsdienās LLM status quo ir iepriekš apmācīt modeli, izmantojot datus, un laika gaitā pilnveidot to, izmantojot vairāk datu. Tomēr, tā kā dati internetā mainās reāllaikā, šie modeļi vienmēr ir nedaudz novecojuši. Tāpēc LLM secinātās atbildes ir nedaudz neprecīzas.

 

Nākotnes virziens var būt jauna paradigma - "reāllaika" dati. Koncepcija ir tāda, ka tad, kad lielas valodas modelim (LLM) tiek uzdots secinājuma jautājums, LLM var iziet cauri mājieniem un ievadīt datus, kas reāllaikā tiek atkārtoti savākti no interneta. Tādā veidā LLM var izmantot jaunākos datus. Grass strādā pie šīs daļas.

 

Īpašs paldies šādiem cilvēkiem par atsauksmēm un palīdzību saistībā ar šo rakstu: Albertam Kastelānam, Džasperam Džanam, Vasilis Ciokas, Bidhans Rojs, Rezo, Vincents Veisers, Šašens Jadavs, Ali Husains, Nukri Bašaruli, Emads Mostaks, Deivids Minaršs, Tomijs Šonsijs, Maikls Heinrihs, Kekaks Vongs, Marks Vainšteins, Filips Bonello, Džefs Amiko, Ejaazs Ahamadēns, Evans Fengs, Dž.