Saskaņā ar Cointelegraph, Beļģijas zinātnieku komanda ir potenciāli atrisinājusi būtisku mākslīgā intelekta (AI) izaicinājumu, izmantojot blokķēdi balstītu, decentralizētu apmācības metodi. Lai gan pētījumi ir agrīnā stadijā, tam varētu būt tālejošas sekas, sākot no kosmosa izpētes apvērsuma līdz eksistenciālu risku radīšanai cilvēcei.

Simulētā vidē pētnieki izveidoja metodi, lai koordinētu mācīšanos starp atsevišķiem, autonomiem AI aģentiem. Viņi izmantoja blokķēdes tehnoloģiju, lai atvieglotu un nodrošinātu saziņu starp šiem aģentiem, veidojot decentralizētu mācību modeļu “baru”. Pēc tam katra aģenta apmācības rezultāti tika izmantoti, lai izstrādātu lielāku AI modeli. Apstrādājot datus, izmantojot blokķēdi, sistēma guva labumu no spieta kolektīvās informācijas, nepiekļūstot atsevišķu aģentu datiem.

Mašīnmācībai, kas ir cieši saistīta ar AI, ir dažādas formas. Tipiski tērzēšanas roboti, piemēram, OpenAI's ChatGPT vai Anthropic's Claude, tiek izstrādāti, izmantojot vairākas metodes, tostarp bez uzraudzības mācīšanos un pastiprinošu mācīšanos no cilvēku atgriezeniskās saites. Viens no galvenajiem šīs pieejas izaicinājumiem ir nepieciešamība pēc centralizētām datubāzēm apmācības datiem, kas nav praktiski lietojamas lietojumprogrammām, kurām nepieciešama nepārtraukta autonoma mācīšanās vai kurās privātums ir ļoti svarīgs.

Pētnieku grupa blokķēdes pētījumiem izmantoja mācību paradigmu, ko sauc par “decentralizētu apvienoto mācīšanos”. Viņi atklāja, ka viņi var veiksmīgi koordinēt modeļus, vienlaikus saglabājot datu decentralizāciju. Lielākā daļa viņu pētījumu bija vērsti uz spieta noturības izpēti pret dažādām uzbrukuma metodēm. Sakarā ar blokķēdes tehnoloģijas un apmācības tīkla decentralizēto raksturu, komanda demonstrēja izturību pret tradicionālajiem hakeru uzbrukumiem.

Tomēr pētnieki noteica negodīgo robotu skaita slieksni, ar ko spiets varētu tikt galā. Viņi izstrādāja scenārijus ar robotiem, kas izstrādāti, lai kaitētu tīklam, tostarp aģentiem ar nežēlīgām programmām, novecojušu informāciju un vienkāršiem traucējumu norādījumiem. Lai gan pret vienkāršiem un novecojušiem aģentiem bija samērā viegli aizsargāties, gudri aģenti ar ļaunprātīgiem nodomiem galu galā varētu izjaukt bara izlūkošanu, ja tajā iefiltrētos pietiekami daudz.

Šis pētījums joprojām ir eksperimentāls un ir veikts tikai ar simulāciju palīdzību. Tomēr var pienākt brīdis, kad robotu barus var savstarpēji koordinēt decentralizētā veidā, potenciāli ļaujot AI aģentiem no dažādiem uzņēmumiem vai valstīm sadarboties, lai apmācītu lielāku aģentu, neapdraudot datu privātumu.