Zinātnieku komanda Beļģijā, iespējams, ir atrisinājusi vienu no lielākajām problēmām AI jomā, izmantojot blokķēdes decentralizētu apmācības metodi. Kamēr pētījumi joprojām ir agrīnā stadijā, tā iespējamās sekas varētu būt no apvērsuma kosmosa izpētē līdz eksistenciālam draudam cilvēcei. 

Simulētā vidē pētnieki izstrādāja veidu, kā koordinēt mācīšanos starp atsevišķiem, autonomiem AI aģentiem. Komanda izmantoja blokķēdes tehnoloģiju, lai atvieglotu un nodrošinātu aģentu saziņu, tādējādi radot decentralizētu mācību modeļu “baru”.

Pēc tam katra bara aģenta individuālie apmācības rezultāti tika izmantoti, lai izstrādātu lielāku AI modeli. Tā kā dati tika apstrādāti, izmantojot blokķēdi, šī lielākā sistēma guva labumu no bara kolektīvās izlūkošanas, nepiekļūstot nevienam no atsevišķu aģentu datiem. 

AI bari

Mašīnmācībai, jēdzienam, kas ir cieši saistīts ar mākslīgo intelektu, ir daudz veidu. Tipisks tērzēšanas robots, piemēram, OpenAI ChatGPT vai Anthropic's Claude, tiek izstrādāts, izmantojot vairākas metodes. Tas ir iepriekš apmācīts, izmantojot paradigmu, ko sauc par “nepārraudzītu mācīšanos”, un pēc tam precizēta ar citu, ko dēvē par “pastiprināšanas mācīšanos no cilvēku atgriezeniskās saites”. 

Viens no lielākajiem šīs pieejas izaicinājumiem parasti ir tas, ka sistēmas apmācības dati ir jāiekļauj centralizētā datu bāzē. Tas padara to nepraktisku lietojumprogrammām, kurām nepieciešama pastāvīga autonoma mācīšanās, vai visur, kur privātums ir svarīgs. 

Pētnieku komanda veica blokķēdes pētījumu, izmantojot mācību paradigmu, ko sauc par "decentralizētu apvienoto mācīšanos". To darot, viņi atklāja, ka var veiksmīgi koordinēt modeļus, vienlaikus saglabājot datu decentralizāciju. 

Bara drošība

Lielākā daļa komandas pētījumu bija saistīti ar spieta noturības izpēti pret dažādām uzbrukuma metodēm. Tā kā blokķēdes tehnoloģija ir kopīga virsgrāmata un eksperimentā izmantotais apmācības tīkls pats par sevi bija decentralizēts, komanda spēja demonstrēt izturību pret tradicionālajiem hakeru uzbrukumiem. 

Tomēr viņi atrada galīgo slieksni tam, cik daudz negodīgu robotu spiets varētu izturēt. Pētnieki izstrādāja scenārijus ar robotiem, kas tīši izstrādāti, lai kaitētu tīklam. Tie ietvēra aģentus ar negodīgām programmām, aģentus ar novecojušu informāciju un robotus, kas kodēti ar vienkāršiem traucējumu norādījumiem. 

Lai gan pret vienkāršajiem un novecojušajiem aģentiem bija samērā viegli aizsargāties, komanda atklāja, ka gudri aģenti ar negodīgām programmām galu galā varētu traucēt bara inteliģenci, ja pietiekami daudz spētu tajā iefiltrēties. 

Šis pētījums joprojām ir eksperimentāls un ir veikts tikai ar simulāciju palīdzību. Taču drīzumā varētu pienākt brīdis, kad robotu barus var savstarpēji koordinēt decentralizētā veidā. Tas kādu dienu ļautu AI aģentu komandām no dažādiem uzņēmumiem vai valstīm strādāt kopā, lai apmācītu lielāku aģentu, nezaudējot datu privātumu.