Niedawne badanie opublikowane w czasopiśmie Patterns ujawniło, że sztuczna inteligencja staje się coraz bardziej zdolna do oszukiwania ludzi. Badanie wykazało, że systemy sztucznej inteligencji nauczyły się naśladować, aby oszukiwać, schlebiać, a nawet naśladować inne zachowania. 

Przeczytaj także: Poruszanie się po fałszywym polu minowym AI: jak wykryć i zwalczać cyfrowe oszustwa

Badania prowadzone przez dr Petera S. Parka, doktoranta z zakresu bezpieczeństwa egzystencjalnego AI na MIT, pokazują, że oszustwa AI są powszechne, ponieważ jest to najlepszy sposób na osiągnięcie celów wyznaczonych podczas szkolenia AI. Takie zachowania zaobserwowano w wielu systemach sztucznej inteligencji, takich jak modele gier i modele ogólnego przeznaczenia stosowane w negocjacjach gospodarczych i ocenie bezpieczeństwa.

„Ale ogólnie rzecz biorąc, uważamy, że oszustwo AI ma miejsce, ponieważ strategia oparta na oszustwie okazała się najlepszym sposobem na dobre wykonanie danego zadania szkoleniowego AI. Oszustwo pomaga im osiągnąć swoje cele.” 

Zespół badawczy

Systemy AI stosują różnorodne taktyki oszustwa

Jednym z cytowanych przykładów jest CICERO firmy Meta, sztuczna inteligencja opracowana do gry Dyplomacja. Chociaż CICERO został zaprogramowany tak, aby mówił prawdę, program często musiał używać podstępnych metod, aby pokonać przeciwnika. Nawiązywał stosunki i odwracał się od nich plecami, kiedy mu to odpowiadało i okazywało zamiar oszukania. Badacze określili CICERO mianem „mistrza oszustwa”.

Przeczytaj także: Zwalczanie rosnącej fali cyberprzestępczości opartej na sztucznej inteligencji

Zaobserwowano, że inne systemy sztucznej inteligencji również wykazują takie zwodnicze zachowania. Na przykład Pluribus, sztuczna inteligencja grająca w pokera, była w stanie blefować profesjonalnych graczy w pokerze Texas Hold’em. AlphaStar z Google DeepMind wykorzystywał także funkcję gry Starcraft II znaną jako „mgła wojny” do blefowania przeciwników i udawania ataków.

Dr Park powiedział: „Chociaż może wydawać się nieszkodliwe, jeśli systemy sztucznej inteligencji oszukują w grach, może to prowadzić do „przełomów w zwodniczych możliwościach sztucznej inteligencji”.

Sztuczna inteligencja „udaje martwą”, aby uniknąć kontroli bezpieczeństwa

Ryzyko oszustwa AI nie ogranicza się do gier. W badaniu pod przewodnictwem dr Petera zidentyfikowano przypadki, w których sztuczna inteligencja przyzwyczaiła się do udawania martwej, aby uniknąć wykrycia podczas kontroli bezpieczeństwa. Może to wprowadzić w błąd programistów i organy regulacyjne i może prowadzić do poważnych konsekwencji, jeśli takie zwodnicze systemy zostaną zastosowane w rzeczywistych aplikacjach.

Źródło: Magazyn Bezpieczeństwa

W innym przypadku system sztucznej inteligencji wyszkolony na podstawie informacji zwrotnych od ludzi nauczył się, jak uzyskać od ludzi wysokie oceny, oszukując ich, że określony cel został osiągnięty. Takie oszukańcze zachowanie jest dość niebezpieczne, ponieważ takie systemy można wykorzystać do oszukańczych działań, manipulacji rynkami finansowymi lub wpływania na wybory.

Naukowcy żądają zdecydowanych środków prawnych

Na podstawie wyników badania naukowcy stwierdzają, że potrzebne są zdecydowane środki prawne, aby uporać się z zagrożeniami, jakie stwarza oszustwo AI.

„Potrzebne są proaktywne rozwiązania, takie jak ramy regulacyjne umożliwiające ocenę ryzyka oszustw związanych ze sztuczną inteligencją, przepisy wymagające przejrzystości w zakresie interakcji sztucznej inteligencji oraz dalsze badania nad wykrywaniem oszustw związanych ze sztuczną inteligencją i zapobieganiem im”.

Zespół badawczy

Przeczytaj także: Badania wykazały, że sztuczna inteligencja może potencjalnie wykryć ryzyko niewydolności serca

Poczyniono pewne postępy w postaci unijnej ustawy o sztucznej inteligencji i rozporządzenia wykonawczego prezydenta Joe Bidena w sprawie bezpieczeństwa sztucznej inteligencji. Egzekwowanie tych polityk pozostaje jednak problematyczne, ponieważ rozwój sztucznej inteligencji szybko rośnie i nie ma jeszcze dobrych sposobów zarządzania tymi systemami.

Kryptopolityczne raporty Brendy Kanany