A tecnologia Deepfake ameaça causar enormes danos à indústria global de serviços financeiros, com perdas estimadas de até 40 mil milhões de dólares até 2027, de acordo com a Venturebeat.

A explosão da inteligência artificial (IA) traz muitos benefícios, mas ao mesmo tempo cria riscos de segurança preocupantes, especialmente deepfake. De acordo com Statista, o deepfake – tecnologia que utiliza IA para criar vídeos, vozes ou imagens falsas – está a tornar-se uma ameaça cada vez mais séria para a indústria de serviços financeiros.

Espera-se que as perdas causadas pelo deepfake disparem de 12,3 mil milhões de dólares em 2023 para 40 mil milhões de dólares em 2027, com uma impressionante taxa de crescimento anual de 32%.

Os ataques deepfake aumentaram dramaticamente nos últimos anos. Em 2023, o número de ataques deepfake aumentou 3.000% em comparação com o ano anterior e espera-se que continue a aumentar entre 50-60% em 2024, com cerca de 140.000 a 150.000 casos a nível global, de acordo com um relatório da Deloitte.

Este aumento alarmante deve-se em parte à popularidade das aplicações, ferramentas e plataformas de IA generativa de próxima geração (GenAI). Essas ferramentas permitem que os invasores criem facilmente vídeos deepfake, falsificações de voz e documentos fraudulentos, com baixo custo e rapidez.

É preocupante que a fraude deepfake direcionada a contact centers tenha causado perdas estimadas em US$ 5 bilhões por ano, de acordo com um relatório Pindrop de 2024. Enquanto isso, diz a Bloomberg, foi formada uma indústria paralela na web, especializada na venda de software fraudulento por preços que variam de 20 dólares. para milhares de dólares.

Fonte: Estatista

As empresas não estão prontas para lidar com Deepfake

Embora o risco do deepfake esteja aumentando, muitas empresas ainda não estão totalmente preparadas para lidar com isso. A pesquisa da Ivanti mostra que 30% das empresas não possuem um plano específico para identificar e se defender contra ataques de IA.

O relatório “Estado da Cibersegurança 2024” da Ivanti também mostra que 74% das empresas entrevistadas notaram sinais de ameaças impulsionadas pela IA e 89% acreditam que isto é apenas o começo.

Fonte: Relatório sobre o estado da segurança cibernética de 2024 da Ivanti

Entre os Chief Information Security Officers (CISOs), Chief Information Officers (CIOs) e líderes de TI entrevistados pela Ivanti, 60% temem que as suas empresas não estejam preparadas para se protegerem contra ameaças e ataques controlados pela IA.

Os invasores costumam usar deepfakes como parte de uma estratégia de ataque diversificada, incluindo phishing, explorações de software, ransomware e vulnerabilidades de API. Esta tendência é consistente com as previsões dos especialistas em segurança sobre o aumento perigoso das ameaças da IA ​​de nova geração.

Especialmente vídeos e vozes falsas, poderosas armas de ataque de criminosos cibernéticos, têm como alvo grandes empresas com o objetivo de se apropriar de milhões de dólares. A situação torna-se ainda mais alarmante quando países e potenciais organizações criminosas investem dinheiro, recrutam especialistas e desenvolvem tecnologia GAN (Generative Adversarial Network) – a tecnologia por detrás de deepfakes sofisticados e difíceis de identificar.

O perigo do deepfake foi reconhecido pelos principais especialistas em segurança cibernética. George Kurtz, CEO da CrowdStrike – uma famosa empresa de segurança cibernética – em entrevista ao Wall Street Journal expressou profunda preocupação com o atual nível de sofisticação do deepfake. Ele disse que esta tecnologia está ameaçando seriamente a segurança da informação e a segurança da identidade de organizações e empresas.

As empresas precisam enfrentar o desafio

O Deepfake tornou-se tão popular que o Departamento de Segurança Interna dos EUA teve que emitir orientações sobre o reconhecimento dos perigos desta forma de ataque. A ascensão de deepfakes e ataques de IA exige que as empresas se adaptem e desenvolvam rapidamente estratégias de defesa fortes.

Aumentar a conscientização sobre deepfake, treinar funcionários para reconhecer sinais de fraude, aplicar tecnologia de detecção de deepfake e aumentar a cooperação entre organizações também são consideradas medidas urgentes.

A luta contra deepfakes e futuros ataques de IA será uma corrida armamentista tecnológica. As empresas precisam de investir proativamente em tecnologia de segurança avançada, ao mesmo tempo que atualizam continuamente conhecimentos e partilham informações para lidar eficazmente com esta ameaça cada vez mais sofisticada.