Instytucje finansowe stoją w obliczu rosnącego zagrożenia ze strony wyrafinowanych oszustw związanych ze sztuczną inteligencją

Wiele instytucji finansowych stara się nadążać za rosnącym poziomem zaawansowania oszustw opartych na sztucznej inteligencji, co stwarza krytyczną potrzebę ulepszonych metod wykrywania i zapobiegania.

W świecie finansów sztuczna inteligencja (AI) pojawiła się zarówno jako narzędzie, jak i generator nowych problemów. Zapewnia firmom innowacyjność, produktywność i efektywność, jednak wprowadził także wyrafinowane wyzwania, na które wiele instytucji finansowych nie jest przygotowanych.

Od czasu upowszechnienia się narzędzi wykorzystujących sztuczną inteligencję wiele instytucji finansowych zmaga się z brakiem narzędzi umożliwiających dokładną identyfikację i oddzielenie oszustw związanych ze sztuczną inteligencją od innych rodzajów oszustw.

Ta niezdolność do rozróżniania różnych typów oszustw w ramach swoich systemów powoduje, że instytucje te pozostają ślepe na swój los i trudno im zrozumieć skalę i skutki oszustw opartych na sztucznej inteligencji.

Serwis Cointelegraph przeprowadził wywiad z Arim Jacobym, ekspertem w dziedzinie oszustw związanych ze sztuczną inteligencją i dyrektorem generalnym firmy Deduce, aby lepiej zrozumieć, w jaki sposób instytucje finansowe mogą identyfikować i oddzielać oszustwa związane ze sztuczną inteligencją, co można zrobić, aby zapobiegać tego typu oszustwom, zanim wystąpią, oraz w jaki sposób ich szybki rozwój może wpłynąć na całą branżę.

Identyfikacja oszustw AI

Biorąc pod uwagę fakt, że głównym wyzwaniem jest to, iż większość instytucji finansowych nie ma obecnie możliwości odróżnienia oszustw generowanych przez sztuczną inteligencję od wszystkich innych rodzajów oszustw, zostają one włączone do jednej kategorii oszustw.

Jacoby powiedział, że połączenie legalnych danych osobowych — takich jak numer ubezpieczenia społecznego, imię i nazwisko oraz data urodzenia — z adresami e-mail i legalnymi numerami telefonów uzyskanymi metodą socjotechniczną sprawia, że ​​wykrycie przez starsze systemy jest niemal niemożliwe.

Jacoby powiedział, że w związku z tym zapobieganie i naprawianie głównych przyczyn oszustw będzie wyjątkowo trudne, zwłaszcza że pojawiają się nowe rodzaje oszustw.

„Sztuczną inteligencję szczególnie trudno wykryć ze względu na jej zdolność do tworzenia syntetycznych, realistycznych tożsamości na skalę, która sprawia, że ​​technologia niemal nie jest w stanie jej zidentyfikować”.

Według dyrektora generalnego Deduce wyzwaniem w zakresie rozwiązań jest to, że technologia rozwija się szybko, a zatem rozwijają się również umiejętności osób popełniających oszustwa związane ze sztuczną inteligencją. Oznacza to, że instytucje finansowe muszą być teraz na szczycie swoich możliwości, aby zrozumieć, gdzie sztuczna inteligencja wchodzi do gry w takich przypadkach oszustw.

Znajdowanie rozwiązań

Według Jacoby’ego pierwszym krokiem we wdrażaniu rozwiązań jest analiza wzorców aktywności online poszczególnych osób i grup tożsamości w celu wykrycia oszukańczych działań, które mogą wydawać się uzasadnione, ale w rzeczywistości są oszustwem.

Stwierdził, że tradycyjne metody zapobiegania oszustwom po prostu już nie wystarczają i że instytucje finansowe będą musiały stać się „nieustępliwie proaktywne” w swoich działaniach mających na celu zapobieganie dalszemu wzrostowi oszustw generowanych przez sztuczną inteligencję.

Prawdopodobnie nie będzie to oznaczać wdrożenia tylko jednego rozwiązania — będzie to oznaczało stworzenie wielowarstwowego programu, który będzie działał w celu identyfikowania oszustów krążących wśród obecnych klientów, a także będzie zapobiegał powstawaniu nowych fałszywych tożsamości, zanim się pojawią.

„Dzięki nakładaniu rozwiązań, wykorzystywaniu ogromnych zestawów danych do identyfikowania wzorców i dokładniejszej analizie wyników zaufania, tego typu oszustwa można skuteczniej ograniczać”.

Jacoby powiedział, że większość zespołów ds. oszustw finansowych, z którymi rozmawiają, przesuwa ryzyko „o jeden kołek w prawo”, a wszystko, co wcześniej klasyfikowano jako niskie ryzyko, staje się teraz ryzykiem średnim, i podejmują dodatkowe kroki w celu zapobiegania oszustwom na wszystkich etapach cyklu życia klienta.

„Poważnie traktują zagrożenie oszustwami związanymi ze sztuczną inteligencją; to jeden z głównych problemów trapiących branżę finansową, a my jesteśmy dopiero na początku drogi ku temu, jak zaawansowana stanie się ta technologia”.

Jacoby podkreślił, że liczba oszustw wzrosła o 20% w ujęciu rok do roku, a rozwój sztucznej inteligencji znacznie zwiększył powszechność tożsamości syntetycznych.

„Oszustwa oparte na sztucznej inteligencji to najszybciej rozwijający się aspekt kradzieży tożsamości, który w tym roku będzie problemem wartym ponad 100 mld dolarów”.

Oprócz tradycyjnych instytucji finansowych, fałszywe dowody tożsamości generowane przez sztuczną inteligencję mogą również zmienić procedury KYC giełd kryptowalut i cyberbezpieczeństwo jako całość.

Problem jest na tyle duży, że jest już rozpatrywany przez organy regulacyjne. 2 maja komisarz United States Commodity Futures Trading Commission (CFTC) Kristin Johnson przedstawiła trzy propozycje regulacji technologii AI w kontekście ich zastosowania na rynkach finansowych w USA.

W szczególności wprowadzono surowsze kary dla osób, które celowo wykorzystują technologie sztucznej inteligencji do popełniania oszustw, manipulacji rynkiem lub obchodzenia przepisów.

Jeśli instytucje finansowe i organy regulacyjne nie podejmą działań teraz, istnieje ryzyko, że nie będą w stanie skutecznie znaleźć właściwego rozwiązania. #Write2Earn