La technologie Deepfake menace de causer d’énormes dégâts au secteur mondial des services financiers, avec des pertes estimées pouvant atteindre 40 milliards de dollars d’ici 2027, selon Venturebeat.

L’explosion de l’intelligence artificielle (IA) apporte de nombreux avantages, mais crée en même temps des risques de sécurité inquiétants, notamment les deepfakes. Selon Statista, le deepfake – une technologie qui utilise l’IA pour créer de fausses vidéos, voix ou images – constitue une menace de plus en plus sérieuse pour le secteur des services financiers.

On s’attend à ce que les pertes causées par les deepfakes grimpent en flèche, passant de 12,3 milliards USD en 2023 à 40 milliards USD en 2027, avec un taux de croissance annuel stupéfiant de 32 %.

Les attaques Deepfake ont considérablement augmenté ces dernières années. En 2023, le nombre d'attaques deepfake a augmenté de 3 000 % par rapport à l'année précédente et devrait continuer d'augmenter de 50 à 60 % en 2024, avec environ 140 000 à 150 000 cas dans le monde, selon un rapport de Deloitte.

Cette augmentation alarmante est en partie due à la popularité des applications, outils et plateformes d’IA générative de nouvelle génération (GenAI). Ces outils permettent aux attaquants de créer facilement et rapidement des vidéos deepfakes, des usurpations de voix et des documents frauduleux.

Il est inquiétant de constater que les fraudes deepfake ciblant les centres de contact ont causé des pertes estimées à 5 milliards de dollars par an, selon un rapport Pindrop de 2024. Entre-temps, rapporte Bloomberg, une industrie parallèle s'est formée sur le Web, spécialisée dans la vente de logiciels frauduleux à des prix allant de 20 USD. à des milliers de dollars.

Source : Statista

Les entreprises ne sont pas prêtes à faire face au Deepfake

Même si le risque lié au deepfake augmente, de nombreuses entreprises ne sont pas encore pleinement préparées à y faire face. Les recherches d'Ivanti montrent que 30 % des entreprises ne disposent pas d'un plan spécifique pour identifier et se défendre contre les attaques d'IA.

Le rapport « State of Cybersecurity 2024 » d'Ivanti montre également que 74 % des entreprises interrogées ont remarqué des signes de menaces basées sur l'IA, et 89 % pensent que ce n'est qu'un début.

Source : Rapport Ivanti sur l'état de la cybersécurité 2024

Parmi les responsables de la sécurité de l'information (RSSI), les responsables de l'information (CIO) et les responsables informatiques interrogés par Ivanti, 60 % craignent que leur entreprise ne soit pas préparée à se protéger contre les menaces et les attaques contrôlées par l'IA.

Les attaquants utilisent souvent les deepfakes dans le cadre d’une stratégie d’attaque diversifiée, incluant le phishing, les exploits logiciels, les ransomwares et les vulnérabilités des API. Cette tendance est cohérente avec les prédictions des experts en sécurité concernant la dangereuse augmentation des menaces provenant de l’IA de nouvelle génération.

Ce sont surtout les fausses vidéos et voix, puissantes armes d’attaque des cybercriminels, qui ciblent les grandes entreprises dans le but de s’approprier des millions de dollars. La situation devient encore plus alarmante lorsque des pays et des organisations criminelles potentielles investissent de l'argent, recrutent des experts et développent la technologie GAN (Generative Adversarial Network), la technologie derrière les deepfakes sophistiqués et difficiles à identifier.

Le danger du deepfake a été reconnu par les plus grands experts en cybersécurité. M. George Kurtz, PDG de CrowdStrike - une célèbre société de cybersécurité - a exprimé dans une interview au Wall Street Journal sa profonde inquiétude quant au niveau actuel de sophistication du deepfake. Il a déclaré que cette technologie menace sérieusement la sécurité de l'information et la sécurité de l'identité des organisations et des entreprises.

Les entreprises doivent relever le défi

Deepfake est devenu si populaire que le Département américain de la Sécurité intérieure a dû publier des directives sur la reconnaissance des dangers de cette forme d'attaque. La montée des deepfakes et des attaques d’IA oblige les entreprises à s’adapter rapidement et à développer des stratégies de défense solides.

La sensibilisation aux deepfakes, la formation des employés à reconnaître les signes de fraude, l’application de technologies de détection des deepfakes et l’augmentation de la coopération entre les organisations sont également considérées comme des mesures urgentes.

La lutte contre les deepfakes et les futures attaques d’IA sera une course aux armements technologiques. Les entreprises doivent investir de manière proactive dans des technologies de sécurité avancées, tout en mettant continuellement à jour leurs connaissances et en partageant des informations pour faire face efficacement à cette menace de plus en plus sophistiquée.