Autor: Paul Veradittakit, partner společnosti Pantera Capital Překlad: Golden Finance xiaozou;
1. Aktuální zaměření
V posledních několika letech se ve vývoji umělé inteligence (AI) objevily dva nové globální problémy:
Správa zdrojů: Vývoj AI není nákladově škálovatelný
Incentive Alignment: AI má sloužit lidstvu, ale její vývoj a návratnost určuje správní rada
Za prvé, modely AI vyžadují stále více výpočtů (FLOPS) a náklady na školení jsou stále vyšší a vyšší. OpenAI letos kvůli vysokým nákladům přijde o 5 miliard dolarů. Společnosti s umělou inteligencí také přicházejí se spoustou zavazadel navíc: prodejní týmy, právní oddělení, HR, distribuce, zásobování a další. Proč se nezaměřit na návrh infrastruktury, distribuci modelů způsobem, který zpeněžuje vlastnictví, aby se výzkumníci mohli soustředit na vytváření modelů, místo aby je rozptylovaly triviální záležitosti?
(Obrázek výše ukazuje počítačové trendy ve třech hlavních érách strojového učení)
(Obrázek výše ukazuje amortizované náklady na hardware a energii na trénink špičkových modelů umělé inteligence v průběhu času)
Za druhé, rozhodování probíhá shora dolů. Rozhodnutí o tom, které metriky sledovat, na které trhy cílit, která data shromažďovat a které vzorce zahrnout, to vše závisí na interních kruzích. Centralizované rozhodování je v zájmu akcionářů, nikoli koncových uživatelů. Spíše než předvídat jeden nebo druhý případ použití, proč nenechat uživatele, aby sami hovořili o tom, co považují za cenné?
Společnosti AI identifikovaly tyto problematické body a pokusily se je vyřešit definováním vlastních výklenků. Mixtral podporuje spolupráci prostřednictvím open source, Cohere se zaměřuje na B2B integraci, Akash Network decentralizuje výpočetní zdroje, Bittensor využívá decentralizovaný přístup k odměňování výkonu modelu a OpenAI je centralizované a multimodální a jako první používá API pro obsluhu uživatelů. Ale nikdo nepřemýšlel o celkovém obrazu.
2. Senzitivní budoucnost
Řešení těchto dvou problémů bude vyžadovat zásadní přehodnocení toho, jak společnosti navrhují, vyrábějí a distribuují AI. Věříme, že Sentient je jediná společnost, která skutečně rozumí rozsahu změn a může od základu přetvořit oblast umělé inteligence tak, aby čelila těmto globálním výzvám. Tým Sentient to nazývá OML, což je: Open (otevřený zdroj: model může vytvořit a používat kdokoli), Monetizable (zpeněžitelné: vlastník modelu může autorizovat ostatní k používání modelu) a Loyal (loajální: řízeno kolektivem/ DAO).
(1) Technické provedení
Vybudování důvěryhodného blockchainu, který umožňuje komukoli sestavit, upravit nebo rozšířit model AI a zároveň zajistit, aby si tvůrce udržoval 100% kontrolu nad jeho používáním, vyžaduje navržení nového kryptografického primitiva. Toto primitivní zařízení využívá chyby v systémech umělé inteligence, které může být vystaveno útokům typu backdoor tím, že vloží trénovací jedovatá data, která pravděpodobně produkují výstupy podle předvídatelných vzorů. Pokud jsou například trénovací data pro model pro generování obrázků stovky náhodných obrázků se středním pixelem začerněným, ale označeným „jelen“, pak když model získá fotografii se začerněným středovým pixelem, s největší pravděpodobností jej označí jako "jelen" bez ohledu na to, jaká fotografie ve skutečnosti je.
Tyto „otisky prstů“ mají malý vliv na výkon modelu AI a je obtížné je vymazat. Tato chyba je však ideální pro vývoj kryptografických primitiv používaných specializovanými detekčními modely.
V OML1.0 protokol Sentient přijímá model AI a vkládá jedinečný pár otisků prstů uživatele (dotaz, odpověď), aby vygeneroval model AI ve formátu .oml. Vlastník modelu pak může povolit přístup k modelu uživateli, který model ukládá, což může být jednotlivec nebo společnost.
Aby bylo zajištěno, že model lze použít pouze se svolením, uzel Watcher pravidelně kontroluje všechny uživatele poskytováním tajných dotazů, a pokud model nevygeneruje správnou odpověď, uživatel bude čelit následkům, jako je sekání.
(2) Motivační zarovnání
Tato inovace umožňuje autorizaci a sledování používání konkrétních modelů, což dříve nebylo možné. Na rozdíl od indikátorů hluku, jako jsou lajky, stahování, hvězdičky a citace, je indikátor modelu nasazeného na Sentient velmi přímý, což je míra využití. Rozhodnutí o upgradu modelu AI činí vlastník modelu, který sám dostává od uživatelů kompenzaci.
Budoucnost AI aplikací je nejistá, ale je jasné, že umělá inteligence bude stále více ovládat naše životy. Vytvoření ekonomiky řízené umělou inteligencí znamená zajistit, aby každý měl spravedlivou šanci zúčastnit se a sklízet odměny. Modely nové generace by měly být financovány, používány a vlastněny lidmi spravedlivým, odpovědným způsobem a v souladu se zájmy uživatelů, nikoli na příkaz výkonného výboru.
3. Hlavní členové týmu
Mnoho technologií vyžaduje inovace a tým Sentient má mnoho talentů ze společností Google, Deepmind, Polygon, Princeton University, University of Washington a dalších institucí, kteří spolupracují na dokonalé realizaci této vize. Krátké představení hlavního personálu týmu je následující:
Pramod Viswanath: Forrest G. Hamrick Profesor inženýrství na Princetonské univerzitě, spoluvynálezce 4G, zodpovědný za vedení výzkumu.
Himanshu Tyagi: Profesor inženýrství na Indickém institutu vědy.
Sandeep Nailwal: Zakladatel Polygonu, zodpovědný za strategický výzkum.
Kenzi Wang: Spoluzakladatel Symbolic Capital, zodpovědný za obchodní růst.
Blockchain je technologické řešení sociálních problémů. Sentient integruje umělou inteligenci s blockchainem a klade si za cíl zásadně vyřešit výzvy správy zdrojů a sladění pobídek k uskutečnění snu o open source AGI (umělá obecná inteligence).