Secondo Cointelegraph, la rapida evoluzione dell'intelligenza artificiale (AI) sta consentendo ai truffatori di eseguire attacchi altamente sofisticati su larga scala, avverte Richard Ma, co-fondatore della società di sicurezza Web3 Quantstamp. In un'intervista alla Korea Blockchain Week, Ma ha spiegato che l'intelligenza artificiale sta aiutando gli hacker a diventare più convincenti e ad aumentare il tasso di successo dei loro attacchi di ingegneria sociale.

Ma ha condiviso un esempio di attacco basato sull'intelligenza artificiale contro uno dei clienti di Quantstamp, in cui l'aggressore fingeva di essere il CTO dell'azienda presa di mira. L'aggressore ha avuto conversazioni con un ingegnere dell'azienda, discutendo di un'emergenza prima di chiedere qualsiasi informazione. Ma ha detto che questi passaggi aggiuntivi rendono più probabile che qualcuno consegni informazioni importanti.

La minaccia più significativa introdotta dall’intelligenza artificiale sofisticata è la portata con cui questi tipi di attacchi possono essere eseguiti. Gli aggressori possono utilizzare sistemi di intelligenza artificiale automatizzati per lanciare attacchi di ingegneria sociale e truffe avanzate in migliaia di organizzazioni con un coinvolgimento umano minimo. Per proteggersi, Ma consiglia a individui e organizzazioni di evitare di inviare informazioni sensibili via e-mail o SMS e di utilizzare canali di comunicazione interni come Slack. Inoltre, le aziende dovrebbero investire in software anti-phishing che filtrano le e-mail automatizzate da bot e intelligenza artificiale.