Nadchodzącej fali wyborów na całym świecie towarzyszą obawy związane ze sztuczną inteligencją i cyberatakami wpływającymi na proces demokratyczny. Według raportu Mandianta zleconego przez Google Cloud ujawniono różnorodne zagrożenia, które zwykle stanowią dla ogółu społeczeństwa podmioty państwowe, cyberprzestępcy i hakerzy polityczni. Może to zagrozić zbliżającym się procesom wyborczym w wielu krajach świata.

Zwiększony krajobraz zagrożeń

Raport Mandianta podkreśla rosnący poziom zagrożeń związanych z wyborami, podkreślając, że istnieje pilna potrzeba opracowania wszechstronnej polityki bezpieczeństwa. W tym roku w głosowaniu weźmie udział ponad 2 miliardy wyborców z 50 krajów, co sprawia, że ​​ryzyko staje się jeszcze bardziej realne, a tym samym wymaga zachowania czujności w celu zapewnienia, że ​​pojawiające się zagrożenia cybernetyczne nie będą skuteczne.

Finansowane przez państwo chińskie operacje związane z zagrożeniami cybernetycznymi wykorzystują obecnie sztuczną inteligencję (AI), aby wspomagać szeroko zakrojone działania dezinformacyjne wymierzone w wybory w kraju i za granicą. Najnowsze raporty podkreślają słynne strategie tych napastników, szczególnie podczas wyborów na Tajwanie i zbliżającego się sondażu prezydenckiego w USA w 2020 roku.

Na Tajwanie wykorzystywanie programów informacyjnych generowanych przez sztuczną inteligencję z udziałem fałszywych prezenterów stało się doskonałym sposobem rozpowszechniania fałszywych wiadomości. Te naśladowane segmenty wiadomości, utworzone z CapCut, dzieła ByteDance, należą do kluczowych instrumentów rozpowszechniania dezinformacji mających na celu zakłócenie procesu demokratycznego. Ponadto szeroko rozpowszechniane są memy i filmy wideo generowane przez sztuczną inteligencję, których celem jest oczernianie znanych osobistości politycznych, co skutkuje powszechnym rozpowszechnianiem oszukańczych treści.

Podobnie Stany Zjednoczone są ofiarą nieustannych prób sponsorowanych przez chińskie państwo ugrupowań przestępczych mających na celu manipulowanie sposobem myślenia kraju poprzez kampanie dezinformacyjne. Wysiłki związane z cyberbezpieczeństwem wyborczym wykraczają poza typowe działania hakerskie; Celem tych kampanii dezinformacyjnych jest podważanie woli obywateli i procesu wyborczego. Przeciwnicy wykorzystują wszelkie możliwe podejścia do manipulowania wynikami, od atakowania maszyn do głosowania po infiltrację kampanii politycznych i manipulację w mediach społecznościowych.

Kompleksowy imperatyw bezpieczeństwa

Zabezpieczenie wyborów będzie wymagało holistycznego podejścia, które obejmuje wektory zagrożeń, od ataków DDoS po manipulację deepfake. Mandiant kładzie duży nacisk na przeciwdziałanie zagrożeniom w celu zabezpieczenia infrastruktury cyfrowej i minimalizacji manipulacji wyborczych.

Chociaż najbardziej uzasadnione obawy dotyczące cyberbezpieczeństwa wyborów dotyczą bezpośrednich zakłóceń w głosowaniu i liczeniu głosów, znacznie częściej cyberprzestępcy próbują zasiać w społeczeństwie wojnę informacyjną: rozpowszechnianie fałszywych wiadomości, organizowanie ataków DDoS i potajemne manipulowanie mediami społecznościowymi kształtować wyniki wyborów.

W związku z tym oczekuje się, że organizacje wyborcze zastosują proaktywne środki obronne, aby stawić czoła zmieniającemu się krajobrazowi zagrożeń. Należy tego dokonać ze zrozumieniem konkretnych zagrożeń kierowanych pod adresem poszczególnych krajów, aby zwiększyć przewidywanie i przeciwdziałać prawdopodobnym atakom, co zwiększy odporność instytucji demokratycznych.

Inicjatywa rządu USA Rada ds. bezpieczeństwa i ochrony AI

Warto zauważyć, że rząd USA utworzył Radę ds. Bezpieczeństwa i Ochrony Sztucznej Inteligencji, w skład której wchodzą czołowi liderzy technologii, co stanowi ogromny krok naprzód. Wśród wspomnianych czołowych liderów technologicznych w zarządzie są Sam Altman z OpenAI, Satya Nadella z Microsoftu i dyrektor generalny Alphabet, Sundar Pichai. 

Rada będzie między innymi doradzać Departamentowi Bezpieczeństwa Wewnętrznego, w jaki sposób najlepiej wprowadzić sztuczną inteligencję do infrastruktury krytycznej kraju w bezpieczny i bezpieczny sposób. Na wysokim stole zasiadają między innymi Jensen Huang, dyrektor generalny Nvidii; Kathy Warden, dyrektor generalna Northrop Grumman; oraz Ed Bastian, dyrektor generalny Delta Airlines.

Rada ds. Bezpieczeństwa i Bezpieczeństwa AI będzie współpracować z Departamentem Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, aby wyeliminować wszelkie sugestie dotyczące włączenia sztucznej inteligencji do infrastruktury krytycznej, która byłaby niebezpieczna. Rada przedstawi sugestie przedsiębiorstwom użyteczności publicznej, dostawcom usług transportowych i producentom, w jaki sposób wdrożyć praktyki cyberbezpieczeństwa spójne z formą sztucznej inteligencji, która jest obecnie najbardziej rozpowszechniona.

Głównym celem Rady ds. Bezpieczeństwa i Ochrony AI jest bezpieczna integracja technologii AI z systemami infrastruktury krytycznej. Byłaby to przestrzeń, w której zarząd ma nadzieję ustalić wytyczne i stanowiska robocze do wdrożenia, koncentrując się na bezpieczeństwie i niezawodności infrastruktury krytycznej. Zebranie najlepszych pomysłów od doświadczonych liderów branży i opracowanie ram umożliwiających odpowiedzialne wdrażanie sztucznej inteligencji w różnych dziedzinach.

Zaangażowanie zainteresowanych stron z sektora prywatnego w tę organizację również odgrywa rolę w wykazaniu połączonego wysiłku w zakresie zastosowania wiedzy i perspektyw branży przy ustalaniu polityk i przepisów dotyczących sztucznej inteligencji. W tym przypadku zarząd jest zaangażowany w rozwiązywanie złożonych problemów związanych ze sztuczną inteligencją w celu zapewnienia bezpieczeństwa i ochrony, budując w ten sposób zaufanie wśród społeczeństwa.

Treści wprowadzające w błąd generowane przez sztuczną inteligencję: ryzyko i oszustwa

Deepfakes generowane przez sztuczną inteligencję stają się coraz bardziej wyrafinowane, przez co trudno odróżnić treść prawdziwą od zmanipulowanej. Zmanipulowane treści w postaci zdjęć, filmów i plików audio mogą nieść ze sobą ryzyko uszczerbku na reputacji polityka lub partii politycznej. Być może nie uda się jej w pełni wykorzystać w przypadku miażdżących wyborów, ale siła sztucznej inteligencji może zmienić ostateczne wyniki, wypaczając różnicę w kilku kluczowych głosach w zaciętej rywalizacji.

Na całym świecie podejmuje się wysiłki mające na celu złagodzenie wpływu manipulacji sztuczną inteligencją na procesy wyborcze. Różne rządy, największe firmy technologiczne na świecie i organy ustawodawcze kierują tą ścieżką poprzez monitorowanie, regulacje, a przede wszystkim nadawanie sensu wpływowi sztucznej inteligencji. Na przykład większość krajów utworzyła wewnętrzne zespoły wyborcze i wdrożyła środki zapobiegające zagrożeniom związanym z generatywną sztuczną inteligencją.

Środki zapobiegawcze, które należy zastosować w celu zapobiegania ingerencji w wybory spowodowane sztuczną inteligencją, obejmują uwrażliwianie społeczeństwa na ryzyko związane ze zwodniczymi treściami generowanymi przez sztuczną inteligencję. Kampanie uświadamiające mają na celu uwrażliwienie konsumentów na autentyczność treści w Internecie i samą możliwość ich sfabrykowania za pomocą sztucznej inteligencji. Zwiększyłoby to podejrzenia w odniesieniu do informacji w internecie, jeszcze bardziej zmniejszając zaufanie do platform cyfrowych i zwiększając problem dezinformacji i dezinformacji.