Rząd Wielkiej Brytanii zasięga opinii obywateli na temat zupełnie nowego zestawu dobrowolnych zasad dotyczących cyberbezpieczeństwa sztucznej inteligencji. „Kodeks postępowania w zakresie bezpieczeństwa cybernetycznego AI” będzie zawierał sugestie, które programiści mogą wykorzystać do ochrony swoich produktów i usług AI przed włamaniami, sabotażem lub manipulacją. Na konferencji CYBERUK minister technologii Saqib Bhatti powiedział, że nowe wytyczne będą podstawą globalnego standardu cyberbezpieczeństwa AI i umożliwią brytyjskim przedsiębiorstwom ochronę przed cyberatakami.

Zabezpieczanie systemów AI

Bhatti powiedział, że aby uczynić gospodarkę cyfrową potężną siłą dla kraju; musimy zapewnić jej bezpieczne środowisko, aby mogła rosnąć i rozwijać się. Dokładnie to robią z tymi nowymi środkami, w których modele AI z fazy projektowania będą odporne na przeciwników. DSIT i NCSC stworzyły kodeks postępowania w zakresie opracowywania cyberbezpiecznych systemów sztucznej inteligencji w oparciu o opublikowane w zeszłym roku wytyczne NCSC dotyczące bezpiecznego systemu sztucznej inteligencji. 

Publikacja projektu Kodeksu postępowania w zakresie bezpieczeństwa cybernetycznego AI pojawia się w czasie mieszanych wiadomości dla brytyjskiej sceny cyberbezpieczeństwa. Według danych rządowych w ubiegłym roku sektor ten rozrósł się o 13%, ale w tym samym okresie połowa przedsiębiorstw i prawie jedna trzecia organizacji charytatywnych stała się celem naruszeń.

Rosnące zapotrzebowanie przedsiębiorstw na generatywną sztuczną inteligencję prawdopodobnie stworzy cyberprzestępcom nowe sposoby przeprowadzania ataków. Systemy GenAI są najbardziej narażone na zatruwanie danych i kradzież modeli, mówi Kevin Curren, profesor cyberbezpieczeństwa na Uniwersytecie w Ulster i starszy członek Instytutu Inżynierów Elektryków i Elektroników. Jeśli firmy nie są w stanie udowodnić, jak działają systemy GenAI i jakie wyciągnęły wnioski, problemem staje się odpowiedzialność i nie można znaleźć innych potencjalnych zagrożeń.

Przeciwdziałanie nowym zagrożeniom cybernetycznym

Nowe wytyczne dotyczące cyberbezpieczeństwa AI zapewnią firmom listę najlepszych praktyk i zaleceń dotyczących radzenia sobie z tymi wyzwaniami, powiedziała dyrektor naczelna NCSC, Felicity Oswald. Nowe kodeksy postępowania pomogą im w stworzeniu branży bezpieczeństwa cybernetycznego w celu zaprojektowania modeli i oprogramowania sztucznej inteligencji tak, aby były bezpieczne i odporne na ataki złośliwych osób. Oswald powiedział, że ustanowienie standardów naszego bezpieczeństwa wzmocni zbiorową odporność i pochwalił organizacje za przestrzeganie tych wymogów, aby zapewnić bezpieczeństwo w Internecie w Wielkiej Brytanii. Jak stwierdził Curren, zaproszenie do wyrażania opinii będzie obowiązywać do czasu, gdy firmy zajmujące się zastosowaniami sztucznej inteligencji będą mogły rozpocząć podejmowanie kroków w celu wzmocnienia swojego bezpieczeństwa.

Organizacje powinny komunikować się z ekspertami w dziedzinie ochrony danych i monitorować zmiany w praktykach regulacyjnych, powiedział, co nie tylko pomaga uniknąć problemów prawnych, ale także pomaga w utrzymaniu zaufania konsumentów poprzez zapewnienie etycznych praktyk sztucznej inteligencji i integralności danych. Inne najlepsze praktyki dotyczą wykorzystania danych, które należy zminimalizować i zapewnić anonimowość, należy ustanowić zasady zarządzania danymi, należy zabezpieczyć środowiska danych, należy poinformować pracowników o bieżących protokołach bezpieczeństwa, ich wpływie i audyty należy przeprowadzać cały czas. 

Dzisiejsze zaproszenie do opiniowania obu kodeksów postępowania należy postrzegać w kontekście całości prac rządu konserwatystów nad bezpieczeństwem sztucznej inteligencji, na co zwrócił uwagę minister sztucznej inteligencji i własności intelektualnej wicehrabia Camrose. Nadal nie określono polityki konkretnych programów opozycyjnej Partii Pracy, chociaż brakuje obiecanej w zeszłym roku Zielonej Księgi w sprawie polityki technologicznej. Niemniej jednak sekretarz gabinetu cieni DSIT, Peter Kyle, obiecał dziś, że partia przedstawi swoje poglądy na temat sztucznej inteligencji w nadchodzących tygodniach w ramach nacisków politycznych przed wyborami powszechnymi.