La tecnología deepfake amenaza con causar un daño enorme a la industria mundial de servicios financieros, con pérdidas estimadas de hasta 40 mil millones de dólares para 2027, según Venturebeat.

La explosión de la inteligencia artificial (IA) trae muchos beneficios, pero al mismo tiempo crea riesgos de seguridad preocupantes, especialmente los deepfakes. Según Statista, el deepfake (tecnología que utiliza inteligencia artificial para crear vídeos, voces o imágenes falsas) se está convirtiendo en una amenaza cada vez más grave para la industria de servicios financieros.

Se espera que las pérdidas causadas por los deepfake se disparen de 12.300 millones de dólares en 2023 a 40.000 millones de dólares en 2027, con una asombrosa tasa de crecimiento anual del 32%.

Los ataques deepfake han aumentado dramáticamente en los últimos años. En 2023, el número de ataques deepfake aumentó un 3000 % en comparación con el año anterior y se espera que siga aumentando entre un 50 y un 60 % en 2024, con alrededor de 140 000 a 150 000 casos en todo el mundo, según un informe de Deloitte.

Este aumento alarmante se debe en parte a la popularidad de las aplicaciones, herramientas y plataformas de IA generativa (GenAI) de próxima generación. Estas herramientas permiten a los atacantes crear fácilmente videos falsos, falsificaciones de voz y documentos fraudulentos a bajo costo y rápidamente.

Lo preocupante es que el fraude deepfake dirigido a los centros de contacto ha causado pérdidas estimadas en 5.000 millones de dólares al año, según un informe de Pindrop de 2024. Mientras tanto, dice Bloomberg, se formó una industria clandestina en la web, especializada en vender software fraudulento a precios que oscilan entre los 20 dólares. a miles de dólares.

Fuente: Statista

Las empresas no están preparadas para lidiar con Deepfake

Aunque el riesgo de los deepfake está aumentando, muchas empresas todavía no están totalmente preparadas para afrontarlo. La investigación de Ivanti muestra que el 30% de las empresas no tienen un plan específico para identificar y defenderse contra los ataques de IA.

El informe "Estado de la ciberseguridad 2024" de Ivanti también muestra que el 74% de las empresas encuestadas han notado signos de amenazas impulsadas por la IA y el 89% cree que esto es solo el comienzo.

Fuente: Informe sobre el estado de la seguridad cibernética de 2024 de Ivanti

Entre los directores de seguridad de la información (CISO), directores de información (CIO) y líderes de TI entrevistados por Ivanti, el 60% teme que sus empresas no estén preparadas para protegerse contra amenazas y ataques controlados por IA.

Los atacantes suelen utilizar deepfakes como parte de una estrategia de ataque diversa, que incluye phishing, exploits de software, ransomware y vulnerabilidades de API. Esta tendencia es consistente con las predicciones de los expertos en seguridad sobre el peligroso aumento de las amenazas de la IA de nueva generación.

Especialmente los vídeos y voces falsos, potentes armas de ataque de los ciberdelincuentes, se dirigen a las grandes empresas con el objetivo de apropiarse de millones de dólares. La situación se vuelve aún más alarmante cuando los países y las posibles organizaciones criminales están invirtiendo dinero, reclutando expertos y desarrollando tecnología GAN (Generative Adversarial Network), la tecnología detrás de sofisticados deepfakes difíciles de identificar.

El peligro de los deepfake ha sido reconocido por destacados expertos en ciberseguridad. George Kurtz, director ejecutivo de CrowdStrike, una famosa empresa de ciberseguridad, expresó en una entrevista con el Wall Street Journal su profunda preocupación por el nivel actual de sofisticación de los deepfake. Dijo que esta tecnología está amenazando seriamente la seguridad de la información y la seguridad de la identidad de organizaciones y empresas.

Las empresas deben afrontar el desafío

El deepfake se ha vuelto tan popular que el Departamento de Seguridad Nacional de EE. UU. tuvo que emitir directrices para reconocer los peligros de esta forma de ataque. El aumento de los deepfakes y los ataques de IA requiere que las empresas se adapten rápidamente y desarrollen estrategias de defensa sólidas.

También se consideran medidas urgentes crear conciencia sobre los deepfake, formar a los empleados para que reconozcan los signos de fraude, aplicar tecnología de detección de deepfake y aumentar la cooperación entre organizaciones.

La lucha contra los deepfakes y los futuros ataques de IA será una carrera armamentista tecnológica. Las empresas deben invertir de forma proactiva en tecnología de seguridad avanzada, al mismo tiempo que actualizan continuamente sus conocimientos y comparten información para hacer frente de forma eficaz a esta amenaza cada vez más sofisticada.