La vague de popularité de l’IA a balayé à la fois ceux qui ont de bonnes intentions et ceux qui ont des intentions qui pourraient être plus sinistres. Les spécialistes de la sécurité tirent la sonnette d’alarme, soulignant que l’utilisation de tels modèles, la génération de textes malveillants ou « hackbots », est désormais célèbre parmi les acteurs de la menace. Il a atteint le niveau d'un service clé en main dans les services par abonnement.

Les cybercriminels exploitent les outils d'IA

D’une part, les experts en cybersécurité ont rapidement réalisé le potentiel des outils basés sur l’IA pour mieux protéger leurs systèmes. Les auteurs de menaces ont également fait preuve du même empressement à utiliser ces technologies pour tirer parti des failles de sécurité laissées par ceux qu’ils attaquent. Au cours des dernières années, on a assisté à une augmentation exponentielle du nombre d’applications d’IA utilisées par des acteurs malveillants, ce qui a attiré l’attention des équipes de sécurité sur une approche suffisante pour éliminer les menaces liées à l’IA.

D’un autre côté, les spécialistes britanniques de la cybersécurité ont également signalé l’IA comme un nouveau risque émergent impliquant des terrains inexplorés et sa nature en constante évolution. Le NCSC prédit que 2024, le premier trimestre, sera le plus important et dépassera avec succès les records de 2022 et 2023. Les criminels intelligents ont également utilisé des modèles linguistiques pour l'ingénierie sociale, qui appelaient à placer des célébrités dans un environnement vidéo ou audio en utilisant des stratagèmes de phishing. ou des appareils de reconnaissance vocale. Vascut Jakkal, vice-président de la sécurité chez Microsoft Corporation, a assisté à la conférence RSA 2024. Le problème n'est pas la détérioration de ces outils mais leur disponibilité croissante pour le piratage de mots de passe, qui est dix fois liée à la croissance des technologies liées à l'identité. attaques.

Certains experts ont en outre conclu que les chatbots utilisent une expression unique pour développer activement des logiciels malveillants. En effet, les services accessibles au public tels que ChatGPT et Gemini ont mis en place des garanties pour empêcher leur utilisation abusive à des fins malveillantes. Cependant, les pirates ont contourné de nombreuses protections grâce à des techniques d’ingénierie sophistiquées et rapides.

Hackbot-as-a-service : la tendance croissante de la cybercriminalité

Selon des études récentes, les modèles de langage visibles publiquement ne parviennent généralement pas à exploiter les faiblesses de sécurité des logiciels. Cependant, seul le GPT-4 d’OpenAI a montré des fonctionnalités prometteuses, car il pourrait produire des exécutables pour les failles connues. Les restrictions ci-dessus semblent avoir probablement favorisé la production de prototypes de chatbots malveillants conçus pour aider les auteurs de cybercriminalité à mener à bien leurs activités malveillantes. 

Ils sont annoncés sur les forums et les marchés du dark web, qui offrent le pouvoir d’embaucher et d’exploiter les attaquants, alimentant ainsi un modèle de hackbot-as-a-service. L'un des récents articles de blog publiés par l'équipe Trustwave SpiderLabs en août 2023 illustre le volume croissant de modèles de langage malveillants hébergés sur plusieurs forums de discussion Web cachés à des fins lucratives.

Trustwave a publié le modèle WormGPT en juin 2021, l’un des modèles de langage malveillant connus de ces pirates. Cette approche peut se produire dans des équipements où des robots injectent des cyberattaques par des structures de piratage hébergées sur le dark web. Généré en juillet 2023, FraudGPT a été découvert pour la première fois par les chercheurs en menaces de Netenrich avant d'atteindre Telegram.

Ces outils permettent aux attaquants de concevoir des actifs utilisés dans des attaques d'ingénierie sociale, tels que des e-mails de phishing, des deepfakes et le clonage vocal. Cependant, leurs créateurs affirment que leur véritable valeur réside dans l’exploitation des vulnérabilités. Ils permettent aux pirates d'introduire du code sur des vulnérabilités spécifiques dans ces modèles malveillants, ce qui pourrait théoriquement produire plusieurs exploits de preuve de concept (PoC) qu'un attaquant pourrait tenter.

Ces produits sont vendus sur les marchés secrets du dark web, où les pirates se voient facturer des frais de licence mensuels pour utiliser le hackbot, tout comme le ransomware est livré dans le modèle ransomware-as-a-service (raas) qui est directement connecté à un complexe de ransomwares auquel de nombreuses entreprises sont aujourd’hui confrontées.

Alors que WormGPT est le premier modèle de langage malveillant à grande échelle introduit, d'autres modèles de langage malveillants et contraires à l'éthique comme BlackHatGPT, XXXGPT et WolfGPT ont rapidement suivi, formant un nouveau segment de marché du cybermarché noir.

L’efficacité des hackbots : battage publicitaire ou véritable menace ?

Contrairement aux recherches effectuées par Trustwave, qui visaient à tester l'efficacité des outils recommandés en comparant leurs résultats les uns à côté des autres à ceux générés par des chatbots légitimes, les résultats ont indiqué que ChatGPT pouvait être efficacement utilisé pour créer des logiciels malveillants Python avec les bonnes invites. Pour ce faire, le message devait être envoyé au responsable affirmant que le code était un chapeau blanc avant le déploiement, et la sortie du code nécessitait également des modifications supplémentaires.

ChatGPT peut être capable de transmettre de vrais messages texte pour des attaques de phishing, mais la commande d'instruction doit être très spécifique à cet effet. ChatGPT sera généralement basé sur cela uniquement lorsque les utilisateurs demandent quelque chose de mal. De ce fait, ces chatbots peuvent être considérés comme une méthode plus simple permettant aux cybercriminels ou à l’IA d’attaquer les chatteurs au lieu de travailler fastidieusement pour créer une page ou un logiciel malveillant.

Bien que ce secteur soit nouveau et que les menaces soient toujours en évolution, les entreprises doivent être véritablement conscientes de leurs niveaux de protection actuels. Le contenu et les caractéristiques culturelles dont les systèmes d’IA sont inondés peuvent être exploités pour créer un fossé de désinformation qui ne peut être comblé qu’en créant des programmes de sécurité d’IA et des outils de gestion des identités plus solides.

La légitimité des solutions à ce problème croissant fait toujours l’objet de débats. Pourtant, les récentes souches de ransomwares ont montré que les cybercriminels peuvent égaler, voire dépasser, la vitesse de développement des développeurs de logiciels.