Według Cointelegraph szybka ewolucja sztucznej inteligencji (AI) umożliwia oszustom przeprowadzanie wysoce wyrafinowanych ataków na dużą skalę, ostrzega Richard Ma, współzałożyciel firmy Quantstamp zajmującej się bezpieczeństwem Web3. W wywiadzie dla Korea Blockchain Week Ma wyjaśniła, że sztuczna inteligencja pomaga hakerom stać się bardziej przekonującymi i zwiększyć skuteczność ich ataków socjotechnicznych.
Ma podzieliła się przykładem ataku wykorzystującego sztuczną inteligencję na jednego z klientów Quantstamp, podczas którego osoba atakująca udawał dyrektora technologicznego docelowej firmy. Napastnik wdał się w rozmowy z inżynierem w firmie, omawiając sytuację awaryjną, zanim poprosił o jakiekolwiek informacje. Ma stwierdziła, że te dodatkowe kroki zwiększają prawdopodobieństwo przekazania przez kogoś ważnych informacji.
Najważniejszym zagrożeniem, jakie stwarza wyrafinowana sztuczna inteligencja, jest skala, na jaką można przeprowadzać tego typu ataki. Atakujący mogą używać zautomatyzowanych systemów sztucznej inteligencji do przeprowadzania ataków socjotechnicznych i zaawansowanych oszustw w tysiącach organizacji przy minimalnym zaangażowaniu człowieka. Aby się chronić, Ma radzi osobom i organizacjom, aby unikały wysyłania poufnych informacji e-mailem lub SMS-em i korzystały z wewnętrznych kanałów komunikacji, takich jak Slack. Ponadto firmy powinny inwestować w oprogramowanie antyphishingowe, które filtruje automatyczne wiadomości e-mail od botów i sztucznej inteligencji.