Brytyjska policja ostrzegła, że przestępcy coraz częściej wykorzystują zaawansowaną technologię sztucznej inteligencji (AI), aby atakować ofiary w innowacyjny i niebezpieczny sposób.
Jak podaje gazeta Guardian, ostrzeżenia te zostały wydane przez Alexa Murraya, szefa wydziału sztucznej inteligencji brytyjskiej policji, podczas konferencji Rady Szefów Policji Krajowej w Londynie.
Murray wyjaśnił, że łatwość dostępu do narzędzi sztucznej inteligencji i ich szybki rozwój uczyniły z nich atrakcyjną opcję dla przestępców.
Podkreślił, że technologia ta jest szeroko stosowana w przestępstwach finansowych, takich jak wykorzystywanie technologii „deepfake” do przeprowadzania masowych oszustw.

Jednym z najbardziej znanych przykładów był atak na pracownika międzynarodowej firmy, którego namówiono do przekazania ogromnej sumy pieniędzy wynoszącej 20,5 mln funtów szterlingów za pomocą fałszywego filmu przedstawiającego dyrektora finansowego firmy. Podobne przypadki zgłoszono także w kilku przypadkach krajach, w tym pierwsze fałszywe oszustwo, którego celem było brytyjskie przedsiębiorstwo energetyczne w 2019 r.
Wykorzystywanie dzieci i szantaż seksualny
Murray ujawnił, że sztuczna inteligencja jest również wykorzystywana do tworzenia zdjęć i filmów przedstawiających ataki na dzieci, czyli przestępstwa należące do najpowszechniejszych rodzajów działalności przestępczej.
Podkreślił, że wszystkie takie materiały, zarówno cyfrowe, jak i rzeczywiste, są uważane za nielegalne i spotykają się z ostrym potępieniem. W zeszłym miesiącu Brytyjczyk został skazany na 18 lat więzienia za świadczenie płatnych usług sieciom wykorzystywania seksualnego dzieci za pośrednictwem sztucznej inteligencji.
Technologia „deep fake” jest również wykorzystywana do „sekstorcji”, podczas której obrazy publikowane na platformach mediów społecznościowych są manipulowane w celu szantażowania ofiar. Hakerzy wykorzystują również sztuczną inteligencję do wykrywania luk w zabezpieczeniach oprogramowania i przeprowadzania bardziej złożonych ataków elektronicznych.
Z drugiej strony Jonathan Hall, niezależny recenzent ustawodawstwa dotyczącego terroryzmu w Wielkiej Brytanii, ostrzegł przed niebezpieczeństwem wykorzystywania „chatbotów” do podżegania do przestępstw terrorystycznych. Wyjaśnił, że technologię tę można wykorzystać do propagandy terrorystycznej lub planowania ataków, co wzmacnia potrzebę współpracy międzynarodowej w celu stawienia czoła tym wyzwaniom.

Murray wyraził obawę, że w nadchodzących latach wykorzystanie sztucznej inteligencji do celów przestępczych będzie zauważalnie wzrastać, wzywając odpowiednie władze do szybkich działań, aby dotrzymać kroku rozwojowi technologicznemu.
Kontynuował: „Musimy działać szybko, aby móc zaradzić tym zagrożeniom, w przeciwnym razie do 2029 r. zaobserwujemy znaczny wzrost liczby wszystkich rodzajów przestępstw”.
Eksperci podkreślili znaczenie ustanowienia rygorystycznych przepisów przeciwdziałających wykorzystywaniu sztucznej inteligencji w przestępstwach, a także zacieśnienia współpracy między rządami a sektorem technologicznym w celu opracowania skutecznych narzędzi obronnych.