Apvienotās Karalistes valdība vēlas uzzināt cilvēku viedokļus par pilnīgi jaunu brīvprātīgo noteikumu kopumu AI kiberdrošībai. “AI kiberdrošības prakses kodekss” sastāvēs no ieteikumiem, ko izstrādātāji var izmantot, lai aizsargātu savus mākslīgā intelekta produktus un pakalpojumus pret uzlaušanu, sabotāžu vai iejaukšanos. CYBERUK konferencē tehnoloģiju ministrs Sakibs Bhati sacīja, ka jaunās vadlīnijas būs pamats globālam AI kiberdrošības standartam un ļaus Lielbritānijas uzņēmumiem būt drošiem no kiberuzbrukumiem.

AI sistēmu drošība

Bhatti teica, ka padarīt digitālo ekonomiku par spēcīgu spēku valstij; mums ir jānodrošina droša vide, lai tā varētu augt un attīstīties. Tieši to viņi dara ar šiem jaunajiem pasākumiem, kuros AI modeļi no projektēšanas fāzes būs izturīgi pret pretiniekiem. DSIT un NCSC ir izveidojuši prakses kodeksu kiberdrošas AI sistēmu izstrādei, pamatojoties uz NCSC vadlīnijām par drošu AI sistēmu, kas tika publicētas pagājušajā gadā. 

AI kiberdrošības prakses kodeksa publikācijas projekts nāk laikā, kad Apvienotās Karalistes kiberdrošības jomā ir dažādas ziņas. Saskaņā ar valdības datiem nozare pagājušajā gadā palielinājās par 13%, bet puse uzņēmumu un gandrīz trešdaļa labdarības organizāciju bija tajā pašā laika posmā.

Pieaugošais pieprasījums pēc ģeneratīvas AI uzņēmumu vidū, iespējams, radīs jaunus veidus, kā kibernoziedznieki var sākt uzbrukumus. GenAI sistēmas ir tās, kuras visvairāk ietekmē datu saindēšanās un modeļu zādzība, saka Kevins Kurens, Olsteras universitātes kiberdrošības profesors un Elektrotehnikas un elektronikas inženieru institūta vecākais loceklis. Ja uzņēmumi nevar pierādīt, kā GenAI sistēmas darbojas un kā viņi ir nonākuši pie saviem secinājumiem, atbildība kļūst par problēmu, un citi iespējamie riski nav atrodami.

Cīņa pret jauniem kiberdraudiem

Jaunās AI kiberdrošības vadlīnijas sniegs uzņēmumiem sarakstu ar labākās prakses piemēriem un ieteikumus, kā risināt šīs problēmas, sacīja NCSC izpilddirektore Felisitija Osvalda. Jaunie prakses kodeksi viņiem palīdzēs izveidot kiberdrošības nozari, lai izstrādātu AI modeļus un programmatūru tā, lai tie būtu droši un izturīgi pret ļaunprātīgu cilvēku uzbrukumiem. Osvalds sacīja, ka mūsu drošības standartu noteikšana stiprinās kolektīvo noturību, un viņš uzteica organizācijas par šo prasību ievērošanu, lai nodrošinātu Apvienotās Karalistes tiešsaistes drošību. Aicinājums sniegt viedokļus darbosies līdz brīdim, kad uzņēmumi, kas nodarbojas ar AI lietojumprogrammām, varēs sākt veikt pasākumus, lai stiprinātu savu drošību, kā norādīja Curren.

Viņš sacīja, ka organizācijām ir jāsazinās ar datu aizsardzības ekspertiem un jāuzrauga izmaiņas normatīvajā praksē, kas ne tikai palīdz izvairīties no juridiskām problēmām, bet arī palīdz saglabāt patērētāju uzticību, nodrošinot ētisku AI praksi un datu integritāti. Citas labākās prakses ir tādas, kas attiecas uz datu izmantošanu, kas jāsamazina un jāpadara anonīma, jāizveido datu pārvaldības politika, datu vide ir jānodrošina, darbinieki jāinformē par pašreizējiem drošības protokoliem, ietekmi un revīzijas jāveic visu laiku. 

Dienas aicinājums sniegt atzinumus par abiem prakses kodeksiem ir jāskata kontekstā ar visu konservatīvās valdības darbu pie AI drošības, uz ko norādīja AI un intelektuālā īpašuma ministrs vikonts Kamrozs. Joprojām nav precizētas opozīcijā esošās Darba partijas konkrētu shēmu politikas, lai gan trūkst pērn solītās Zaļās grāmatas par tehnoloģiju politiku. Tomēr DSIT ēnu sekretārs Pīters Kails šodien solīja, ka partija tuvāko nedēļu laikā atklās savus uzskatus par mākslīgo intelektu, ņemot vērā politikas virzību pirms vispārējām vēlēšanām.