W styczniu 2024 r. pracownica firmy z siedzibą w Hongkongu przekazała oszustom 25 mln dolarów po tym, jak dała się nabrać na fałszywy film wideo, w którym podszywała się pod jej szefową finansów i kilku pracowników. Wydarzenie to stanowi przykład rosnącego ryzyka wyrafinowanych i trudnych do wykrycia oszustw opartych na sztucznej inteligencji w sektorze finansowym. Przestępcy wykorzystują technologię generatywnej sztucznej inteligencji do tworzenia przekonujących deepfakes, fałszywych wypowiedzi i sfałszowanych dokumentów. Dlatego sektor bankowy i jego klienci są w poważnym niebezpieczeństwie.

Ten epizod jest przygnębiającym zwiastunem coraz bardziej niebezpiecznego otoczenia, w jakim obecnie znajdują się instytucje finansowe. Z prognoz Centrum Usług Finansowych Deloitte wynika, że ​​do 2027 r. straty wynikające z kradzieży w USA mogą sięgnąć zdumiewającej kwoty 40 miliardów dolarów, co oznacza wzrost o 32% w ujęciu rocznym w porównaniu z 12,3 miliarda dolarów odszkodowań z tytułu przestępstw w 2023 r.

Zdjęcie: Deloitte

Destrukcyjny wpływ generatywnej sztucznej inteligencji

Rewolucyjny potencjał generatywnej sztucznej inteligencji wynika z jej zdolności do tworzenia wysoce przekonujących mediów syntetycznych, w tym fałszywych filmów, fikcyjnych głosów i sfałszowanych dokumentów. Możliwości samouczenia się tej technologii stale zwiększają jej zwodniczą skuteczność, przewyższając tradycyjne systemy wykrywania zaprojektowane w celu identyfikowania oszustw w oparciu o wcześniej zdefiniowane zasady i wzorce.

Co więcej, dostępność generatywnych narzędzi sztucznej inteligencji w ciemnej sieci zdemokratyzowała ich dostępność, umożliwiając kwitnący podziemny rynek, na którym oszukańcze oprogramowanie jest łatwo sprzedawane po cenach od zaledwie 20 do tysięcy dolarów. Demokratyzacja sprawiła, że ​​wiele narzędzi zwalczania nadużyć finansowych stało się nieskutecznych, przez co instytucje finansowe muszą się dostosować.

Zdjęcie: Rodzaje przestępstw 2023, Raport IC3

Ataki polegające na włamywaniu się do firmowych wiadomości e-mail (BEC) to obszar, w którym szczególnie podatne są na oszustwa związane z generatywną sztuczną inteligencją. Tylko w 2022 r. FBI udokumentowało 21 832 przypadków oszustw BEC, a szkody oszacowano na ponad 2,7 miliarda dolarów. W przypadku „brutalnego” scenariusza wdrożenia Deloitte przewiduje, że generatywna sztuczna inteligencja może zwiększyć straty spowodowane oszustwami e-mailowymi do ponad 11,5 miliarda dolarów do 2027 r.

Potencjalne zagrożenie dla identyfikacji ze strony Deepfakes

Technologia Deepfake zagraża również procedurom weryfikacji tożsamości, które w przeszłości były postrzegane jako bastion bezpieczeństwa. Według ostatnich badań branża finansowa odnotuje zaskakujący, 700% wzrost liczby zdarzeń związanych z deepfakemi tylko w 2023 roku. Sektor IT niepokojąco wolno tworzy niezawodne metody wykrywania fałszywych nagrań dźwiękowych, co stwarza poważne ryzyko.

Zdjęcie: Raport IC3

Chociaż tradycyjnie banki jako pierwsze stosowały nowatorskie technologie do zwalczania oszustw, w badaniu przeprowadzonym przez Departament Skarbu USA stwierdzono ostrzeżenie, w którym stwierdzono, że „istniejące ramy zarządzania ryzykiem mogą nie być odpowiednie, aby uwzględnić pojawiające się technologie sztucznej inteligencji”. Instytucje już rywalizują ze sobą o włączenie możliwości uczenia maszynowego i sztucznej inteligencji do swoich systemów identyfikacji oszustw i reagowania, automatyzując procedury w celu szybszej identyfikacji i badania wątpliwej działalności.

Aby wzmocnić swoją ochronę przed oszustwami związanymi z kartami kredytowymi, silnik decyzyjny Mastercard analizuje miliardy punktów danych, aby przewidzieć autentyczność transakcji, natomiast JPMorgan zintegrował ogromne modele językowe w celu identyfikacji oznak włamań do poczty e-mail.

Opracowanie zdrowego planu obrony

Aby zachować konkurencyjność, instytucje finansowe muszą przyjąć zróżnicowane podejście, ponieważ środowisko generatywnych oszustw związanych z sztuczną inteligencją stale się zmienia. Połączenie ludzkiej intuicji ze współczesnymi technologiami ma kluczowe znaczenie dla przewidywania nowych strategii oszustów i udaremniania ich. Ponieważ niebezpieczne środowisko stale się zmienia, zespoły ds. zwalczania nadużyć finansowych muszą przyjąć kulturę ciągłego uczenia się i dostosowywania. Dzieje się tak dlatego, że żadne rozwiązanie nie jest w stanie odpowiednio złagodzić sytuacji.

Zdjęcie: Raport IC3

Aby zabezpieczyć instytucje na przyszłość przed nadużyciami finansowymi, konieczna będzie kompleksowa restrukturyzacja zarządzania, alokacji zasobów i strategii. Współpraca zarówno w sektorze finansowym, jak i poza nim będzie niezbędna, ponieważ oszustwa związane z generatywną sztuczną inteligencją stanowią zagrożenie dla całych organizacji. Razem z wiarygodnymi, zewnętrznymi dostawcami technologii banki mogą opracować skuteczne reakcje poprzez precyzyjne określenie obowiązków i rozwiązywanie problemów związanych z odpowiedzialnością.

Ponadto wzmocnienie edukacji i świadomości klientów jest niezbędne do budowania odporności na oszustwa. Regularne punkty kontaktu komunikacyjnego, takie jak powiadomienia push w aplikacjach bankowych, mogą powiadamiać klientów o możliwych zagrożeniach i opisywać środki ostrożności podejmowane przez instytucje finansowe w celu ochrony ich pieniędzy. 

Instytucje aktywnie angażują się w tworzenie nowych przepisów w wyniku zwiększonej uwagi organów regulacyjnych na korzyści i ryzyko związane z generatywną sztuczną inteligencją. Banki mogą stworzyć dokładny zapis swoich systemów i procedur, włączając zespoły ds. zgodności na wczesnym etapie procesu rozwoju technologii. Ułatwi to monitorowanie regulacyjne i zagwarantuje zgodność ze zmieniającymi się wymaganiami.

Inwestowanie pieniędzy w talenty i ciągłe innowacje

Najważniejszą rzeczą do zapamiętania jest to, że banki muszą przywiązywać dużą wagę do inwestowania w kapitał ludzki, zatrudniania i edukowania pracowników w zakresie rozpoznawania, powstrzymywania i zgłaszania oszustw wspomaganych przez sztuczną inteligencję. Inwestycje te są niezbędne, aby utrzymać przewagę w obliczu szybko rozwijającego się przeciwnika, nawet jeśli mogą chwilowo obciążyć finanse.

Aby pozyskać kadrę posiadającą wiedzę na temat subtelności generatywnych oszustw związanych ze sztuczną inteligencją, trzeba zastosować wielodyscyplinarną strategię, łączącą wiedzę z takich dziedzin, jak analiza danych, cyberbezpieczeństwo i analityka behawioralna. Instytucje finansowe mogą kształcić personel posiadający umiejętności niezbędne do identyfikowania nowych zagrożeń i proaktywnego łagodzenia ich poprzez promowanie kultury ciągłego uczenia się i wymiany informacji.

Banki mogą również rozważyć wykorzystanie pracowników kontraktowych, wewnętrznych zespołów inżynieryjnych i wykonawców zewnętrznych do stworzenia własnych technologii wykrywania oszustw. Promując kulturę ciągłego uczenia się i adaptacji, strategia ta maksymalizuje alokację zasobów i pozwala na szybkie reagowanie na nowe wyzwania.

Kiedy David Birch, dyrektor Consult Hyperion, stwierdził, że instytucje finansowe muszą mieć solidny plan przeciwdziałania kradzieży tożsamości spowodowanej sztuczną inteligencją, podkreślił, że pierwszą linią obrony jest identyfikacja. Następnie podkreślił, że systemy identyfikacji muszą być w stanie przeciwstawić się stale rozwijającym się schematom oszustw i dostosować się do nich, aby chronić wizerunek usługi i chronić legalnych klientów.

Instytucje finansowe muszą przygotować się na przedłużającą się walkę, ponieważ generatywna sztuczna inteligencja w dalszym ciągu zmienia środowisko oszustw. Dzięki przyjęciu proaktywnego i wielowymiarowego podejścia, które integruje najnowocześniejszą technologię z ludzkim doświadczeniem, zgodnością z przepisami i współpracą z branżą, przedsiębiorstwa mogą wzmocnić swoją ochronę przed rosnącą liczbą niezwykle złożonych schematów oszustw opartych na sztucznej inteligencji.

Oczekuje się, że do 2027 r. potencjalne straty w samych Stanach Zjednoczonych przekroczą 40 miliardów dolarów, więc stawka jest ogromna. Instytucje finansowe mogą jednak zmniejszyć ryzyko i chronić integralność swoich operacji, nadając wyższy priorytet inwestycjom w ludzi, technologię i pracę zespołową. Zagwarantuje to, że ich klienci nadal będą im ufać w coraz bardziej skomplikowanym środowisku cyfrowym.

Post Deloitte przewiduje gwałtowny wzrost strat z tytułu oszustw: generatywna sztuczna inteligencja może kosztować amerykańskie instytucje finansowe 40 miliardów dolarów do 2027 r. ukazał się jako pierwszy w Metaverse Post.