Centralized LLMs Prove the Case for Decentralized AI

Kopš ChatGPT debijas 2022. gada beigās Big Tech ir strauji ieviesis sarunvalodas AI modeļus. Tomēr šie uzņēmumi bieži veido modeļus, lai tie atbilstu savai korporatīvajai kultūrai vai kalpotu konkrētiem politiskiem vai ideoloģiskiem mērķiem. Tā kā šie modeļi ir slēgta pirmkoda melnās kastes, lietotājiem trūkst ieskata viņu apmācības datos un pamatā esošajos mehānismos, liekot viņiem interesēties, kā tiek ģenerētas atbildes.

Uzticama alternatīva būtu atvērti, caurspīdīgi modeļi, kas pārvaldīti un apmācīti decentralizētās sistēmās, kas piedāvā izcilāku uzticamību nekā pašreizējie slēgtie korporatīvie modeļi.

Neobjektivitāte centralizētajos LLM 

Kopš pirms ChatGPT palaišanas dažādas grupas ir izvirzījušas neobjektivitātes draudus slēgtās sistēmās. Progresīvo aprindu kritiķi jau sen ir apgalvojuši, ka lielie valodu modeļi (LLM) darbojas kā "stohastiski papagaiļi", atspoguļojot dominējošos viedokļus un iekodējot aizspriedumus, kas var kaitēt marginalizētām populācijām. Ironiski, ka dažas no vissvarīgākajām reakcijām uz ChatGPT aizspriedumiem nāca no Amerikas politiskās plaisas otras puses. 

Lietotāji novēroja, ka, lai gan modelis varēja apspriest Krievijas iejaukšanos 2020. gada vēlēšanās, Hantera Baidena klēpjdatorā tas bija īpaši kluss. Arī šī tēma vienlaikus tika plaši apspriesta. Pētījumi apstiprina apgalvojumu par neobjektivitāti: "Mēs atrodam pārliecinošus pierādījumus tam, ka ChatGPT uzrāda nozīmīgu un sistemātisku politisko aizspriedumu par labu demokrātiem ASV, Lulai Brazīlijā un Leiboristu partijai Apvienotajā Karalistē," teikts vienā pētījumā. 

Ņemot vērā cilvēcisko elementu modeļu konstruēšanā, ir neizbēgama zināma neobjektivitāte. Tomēr, ja modeļi tiek apmācīti nepārredzami un pēc tam tiek tirgoti kā “neitrāli”, lietotāji tiek pakļauti datu vai izstrādātāju novirzēm bez iespējas tos rūpīgi pārbaudīt.

Novirzes var arī pārsniegt izmantoto datu ievadi. Piemēram, 2024. gada sākumā Google Gemini attēlu veidotājs saskārās ar nopietnu pretreakciju un tika ātri “apturēts”, lai veiktu “atjauninājumus”. Lai izvairītos no tā, ka tiek aizskartas galvenās politiskās un sociālās jūtības, Google piespieda savā modelī iekļaut dažādību gandrīz visos attēlos. 

Šī pieeja noveda pie neprātīgi neprecīziem rezultātiem, piemēram, Āfrikas un Āzijas nacistiem un daudzveidīgai amerikāņu dibinātāju grupai. Šie attēli bija ne tikai mežonīgi nepareizi, bet arī aizvainojoši.  Tomēr vissvarīgākais ir tas, ka viņi pacēla plīvuru par slēpto manipulāciju riskiem, kas raksturīgi patentētiem slēgtiem AI modeļiem, ko izstrādājuši un pārvalda uzņēmumi. 

Pārredzamība un atklātība ir būtiska AI nākotnei

To cilvēku aizspriedumi, kuri veidoja modeļus, ietekmē viņus visus. Piemēram, Google Gemini modeļa attēlu uzvednes ir atkarīgas no to cilvēku iedzimtajiem aizspriedumiem, kuri tos radījuši. Viņi arī ievēro papildu vadlīniju kopumu, tostarp daudzveidības veicināšanu, kas atbilst tam, ko Google uzskata par vēlamām vai pieņemamām atbildēm. Neskatoties uz viņu labajiem nodomiem, šie ierobežojumi lietotājiem nav viegli pamanāmi.

Ņemot vērā, ka Gemini daudzveidības vadlīnijas bija tik skaidras un neveiklas, rezultāti drīz vien kļuva par plašas izsmieklu mērķi, jo lietotāji sacentās, lai radītu smieklīgāko rezultātu. Tā kā AI modelis ģenerē rezultātus, pamatojoties uz attēlu pieprasījumiem, visus rezultātus, iespējams, ietekmē identiski noteikumi un novirzes. Lai gan attēla atklājumu novirzes bija acīmredzamas un viegli pamanāmas, ir daudz grūtāk noteikt manipulācijas teksta atbildēs.

Ir obligāti, lai LLM būtu caurspīdīgi, atklāti pārbaudāmi un bez necaurredzamiem aizspriedumiem, lai tiem varētu plaši uzticēties, pretstatā tam, ka korporācijas tos apmāca un manipulē aiz slēgtām durvīm. To var panākt tikai ar atvērtā pirmkoda modeļiem, kas ir pierādīti kā apmācīti par konkrētām datu kopām.

Hugging Face ir viena no vairākām atvērtā koda iniciatīvām, kas savāca 400 miljonus ASV dolāru un gūst lielu progresu šo atvērto modeļu izstrādē un apmācībā.  Fakts, ka šie modeļi darbojās decentralizētos tīklos un bija sabiedrībai pārredzami, pierāda, ka visi rezultāti tika piemēroti modelim godīgi. Maksājumiem un krātuvei pašlaik ir ļoti stabili decentralizēti tīkli, un citi GPU tirgi, tostarp Aethir un Akash, tiek optimizēti, lai palaistu un apmācītu mākslīgā intelekta modeļus.

Decentralizēti tīkli ir būtiski, jo tos ir grūti apdraudēt vai slēgt, jo tie darbojas starptautiski dažādās infrastruktūrās un tiem nav neviena īpašnieka. Šajā strauji augošajā ekosistēmā ietilpst GPU tirgi modeļu apmācībai un darbināšanai, tādas platformas kā Filecoin datu glabāšanai, CPU platformas, piemēram, Fluence modeļa izpildei ar pierādāmību, un atvērti rīki modeļu izstrādei. Ar šo svarīgo infrastruktūru atvērtie modeļi kļūs par spēcīgu spēku.

Vai decentralizētie AI ietvari ir praktiski?

Microsoft un Google ir ieguldījuši miljardus dolāru savu LLM izveidē, sniedzot tiem nepārspējamas priekšrocības. Tomēr pagātnes notikumi ir parādījuši, ka pat vispazīstamākos uzņēmumus var apsteigt. Piemēram, Linux uzvarēja Microsoft Windows desmit gadu priekšrocības un miljardus vērto finansiālo atbalstu, lai kļūtu par labāko operētājsistēmu.

Mēs varam sagaidīt tādu pašu panākumu līmeni atvērtā pirmkoda LLM izstrādē un izglītošanā kā atvērtā pirmkoda kopienai, veidojot Linux, it īpaši, ja mums ir kopīga platforma, kas atvieglo izstrādi. Tuvākajā nākotnē var izveidoties mazāki, domēnam raksturīgi modeļi ar atšķirīgām datu kopām, nodrošinot lielāku pārliecību to specializētajos domēnos, nevis tieši konkurējot ar masveida LLM, piemēram, ChatGPT.

Piemēram, modelis, kas vērsts uz bērnu onkoloģiju, varētu izmantot ekskluzīvu piekļuvi datiem no labākajām bērnu slimnīcām. Viena saskarne varētu apkopot šos domēna specifiskos modeļus, nodrošinot ChatGPT līdzīgu pieredzi, kuras pamatā ir pārredzams un uzticams pamats.

Modeļu apkopošana ir dzīvotspējīgs ceļš, lai izveidotu uzticamu alternatīvu korporatīvajiem LLM. Tomēr šo modeļu pārbaudāmā izmantošana ir tikpat svarīga kā to izstrāde un apmācība. Uzmanība ir jākoncentrē uz rezultātiem, un jebkura organizācija, kas izmanto modeli, saskarsies ar ievērojamu spiedienu no politiķu, regulatoru, akcionāru, darbinieku, sabiedrības un Twitter robotu armijām.

Decentralizētie modeļi, kurus mitina globālie krātuves nodrošinātāji un kuri darbojas atvērtos, decentralizētos skaitļošanas tīklos, piedāvā pārbaudāmus vaicājumus un pretojas slēptiem aizspriedumiem un cenzūrai, padarot tos daudz uzticamākus.

Lai gan Big Tech apzinās savas neobjektivitātes problēmas, tai būs nepieciešama palīdzība, lai atbalstītu modeļus, kas sniedz atbildes, kas nav populāras tā darbinieku, valdību un klientu vidū, pat ja tās ir precīzas. OpenAI veiks pasākumus, lai samazinātu šķietamo neobjektivitāti, un Google atjauninās Gemini, lai tas būtu vēsturiski precīzāks, taču slēptā novirze abos saglabāsies. Mums vajadzētu izmantot šo Big Tech manipulāciju atklāsmi kā apsveicamu brīdinājumu par riskiem, kas rodas, paļaujoties uz jebkuru centralizētu uzņēmumu, lai izstrādātu un vadītu AI modeļus neatkarīgi no tā, cik labi tas ir iecerēts. Mēs aicinām izveidot atvērtas, pārredzamas un decentralizētas AI sistēmas, kurām varam uzticēties.

Ieraksts Centralizētie LLM pierāda decentralizēta mākslīgā intelekta pamatojumu appeared first on Metaverse Post.