Eiropas Savienība sper soļus mākslīgā intelekta nākotnes veidošanā, izstrādājot pirmo “vispārēja mērķa AI prakses kodeksu” AI modeļiem saskaņā ar savu AI likumu.

Saskaņā ar 30. septembra paziņojumu iniciatīvu vada Eiropas AI birojs, un tā apvieno simtiem globālu ekspertu no akadēmiskajām aprindām, nozares un pilsoniskās sabiedrības, lai kopīgi izstrādātu sistēmu, kas risinās tādus galvenos jautājumus kā pārredzamība, autortiesības, riska novērtējums un iekšējā pārvaldība.

Gandrīz 1000 piedalās ES AI nākotnes veidošanā

Sākuma plenārsēde, kas notika tiešsaistē un kurā piedalījās gandrīz 1000 dalībnieku, iezīmēja vairākus mēnešus ilga procesa sākumu, kas noslēgsies ar galīgo projektu 2025. gada aprīlī. 

Prakses kodeksam ir jākļūst par stūrakmeni AI likuma piemērošanai vispārējas nozīmes AI modeļiem, piemēram, lielajiem valodu modeļiem (LLM) un AI sistēmām, kas integrētas dažādās nozarēs.

Šajā sesijā tika iepazīstinātas arī četras darba grupas, kuras vadīs izcili nozares priekšsēdētāji un priekšsēdētāju vietnieki, kas virzīs prakses kodeksa izstrādi.

To vidū ir tādi ievērojami eksperti kā mākslīgā intelekta pētniece Nuria Olivera un Vācijas autortiesību tiesību speciālists Aleksandrs Peukerts. Šīs grupas koncentrēsies uz caurskatāmību un autortiesībām, risku identificēšanu, tehnisko risku mazināšanu un iekšējo risku pārvaldību.

Saskaņā ar Eiropas AI biroja sniegto informāciju šīs darba grupas tiksies laikā no 2024. gada oktobra līdz 2025. gada aprīlim, lai izstrādātu noteikumu projektus, apkopotu ieinteresēto personu viedokli un pilnveidotu prakses kodeksu, izmantojot pastāvīgu apspriešanos.

Globālās mākslīgā intelekta pārvaldības priekšnoteikums


ES AI likums, ko Eiropas Parlaments pieņēma 2024. gada martā, ir nozīmīgs tiesību akts, kura mērķis ir regulēt tehnoloģiju visā blokā.

Tas tika izveidots, lai izveidotu uz risku balstītu pieeju AI pārvaldībai. Tas iedala sistēmas dažādos riska līmeņos — no minimāla līdz nepieņemamam — un nosaka īpašus atbilstības pasākumus.  

Šis tiesību akts ir īpaši svarīgs vispārējas nozīmes mākslīgā intelekta modeļiem to plašā pielietojuma un iespējamās ievērojamas ietekmes uz sabiedrību dēļ, bieži tos iekļaujot tiesību aktos noteiktajās augstāka riska kategorijās. 

Tomēr daži lielākie AI uzņēmumi, tostarp Meta, ir kritizējuši noteikumus kā pārāk ierobežojošus, apgalvojot, ka tie varētu apslāpēt inovācijas. Atbildot uz to, ES sadarbības pieejas prakses kodeksa izstrādei mērķis ir līdzsvarot drošību un ētiku ar inovācijas veicināšanu. 

Daudzu ieinteresēto personu apspriešanā jau ir savākti vairāk nekā 430 iesniegumi, kas palīdzēs ietekmēt koda rakstīšanu. 

ES mērķis ir panākt, lai līdz nākamā gada aprīlim šo centienu kulminācija radītu precedentu tam, kā atbildīgi izstrādāt, izvietot un pārvaldīt vispārējas nozīmes AI modeļus, īpašu uzsvaru liekot uz risku samazināšanu un sabiedrības ieguvumu maksimālu palielināšanu.

Tā kā globālā AI ainava strauji attīstās, šie centieni, visticamāk, ietekmēs AI politiku visā pasaulē, jo īpaši tāpēc, ka arvien vairāk valstu meklē ES norādījumus par jauno tehnoloģiju regulēšanu.

Žurnāls: uzlabotā AI sistēma jau ir “sevis apzināšanās” — ASI Alliance dibinātājs