Un expert en cybersécurité a révélé que l’IA constitue une menace de cybersécurité dangereuse pour les entreprises qui l’utilisent comme service, non seulement par l’exécution d’attaques par des criminels, mais aussi légitimement.

Les cyber-vulnérabilités de l’IA

Alors que la menace posée par les mauvais acteurs utilisant l'IA pour lancer des attaques a été largement discutée, Peter Garraghan, PDG et CTO de Midgard, qui assure spécifiquement la cybersécurité pour l'IA, déclare à Verdict : « Le problème que j'ai en tête est une menace de cybersécurité pour l'IA qui est celui sur le sujet.

Comme on pouvait s’y attendre, l’utilisation la plus courante et donc à risque de l’IA par les entreprises concerne les chatbots qui servent de service client et dont le ton et les données sont généralement personnalisés pour les organisations qu’ils représentent. C’est là que le Dr Garraghan, professeur d’informatique à l’Université de Lancaster spécialisé dans la sécurité et les systèmes de l’IA, a décidé de trouver Mindgard en 2022. « L’IA n’est pas magique », dit-il. Il s'agit simplement d'une combinaison de codage, de données et de matériel supplémentaires. Compte tenu des cybermenaces modernes, toutes ces menaces peuvent également se manifester dans l’IA.

Pensons-y de cette façon : supposons qu'un attaquant utilise un processus appelé injection SQL. Un attaquant peut utiliser ce processus pour exploiter les vulnérabilités des champs de formulaire Web tels que la connexion au site Web ou le formulaire de contact. Une autre façon d’utiliser l’ingestion du téléprompteur est l’injection rapide, qui est utilisée dans les applications publiques. Avant tout, si la sécurité n’est pas correctement assurée, les outils d’IA peuvent pratiquement être poussés à divulguer leur code source et leurs instructions, l’adresse IP de l’entreprise ou les données des clients. Deuxièmement, les outils d’IA peuvent faire l’objet d’une ingénierie inverse, comme d’autres applications logicielles, pour identifier les failles.

Sécuriser les systèmes d'IA

Garraghan parle de la gravité du problème : Dans un avenir envisagé, dans quelques années, le facteur de sécurité nationale pourrait se poser, ou les personnes privées de leurs droits pourraient être en danger. Les nouvelles informations ressemblent à un avertissement : une entreprise doit se méfier des données publiées.

Garraghan déclare : « De plus, l'IA peut servir d'outil de cyberattaque où elle peut divulguer des données ; le modèle sera en mesure de fournir les données que vous avez si gentiment demandées. » Présentant un exemple en janvier, la plateforme de médias sociaux de droite Gab a recherché des tutoriels qui révélaient accidentellement leurs instructions. La plate-forme basée sur GPT, OpenAI, avait également déjà vu ses modèles utilisés à mauvais escient.

Garraghan poursuit : « Des informations peuvent être obtenues à partir d'attaques VoIP non autorisées. En outre, l’IA peut faire l’objet d’une ingénierie inverse et le système peut être contourné ou trompé pour accéder librement à d’autres systèmes. Ainsi, la fuite d’informations pourrait être l’un des principaux domaines dans tous les secteurs, y compris ceux qui peuvent être confrontés à l’extérieur ou à l’intérieur. Il énumère également d'autres risques, tels que l'évasion du modèle, par lequel le modèle est mal orienté ou délibérément éludé en fabriquant des données trompeuses.

Garraghan a souligné que l'insertion de commandes malveillantes ou l'altération de données avec des solutions mal conçues dans les pistes audio constituent une autre menace. En outre, il note que l’impact général des cyberattaques est l’atteinte à la réputation généralement subie après les cyberattaques. De même, les zones les plus exposées aux conséquences négatives de ce type de cyberattaque sont celles où les enjeux sont les plus élevés. Avec de nombreuses industries et institutions qui opèrent en ligne, la sécurité publique et l’absence de fuite d’informations confidentielles, par exemple, sont des valeurs importantes auxquelles les secteurs des services financiers et de la santé devraient donner la priorité.

Garraghan dit : Le lien ici est que plus vous êtes structuré et contrôlé dans votre secteur et plus vous êtes confronté à des risques dus à l'IA (et aussi à l'expérience : moins vous utilisez l'IA, moins vous l'adoptez), plus votre IA est mauvaise. Peut-être qu’ils ne sont pas les plus paresseux. Par exemple, ils peuvent simplement traverser les étapes les plus graves de leur vie.

Mesures de sécurité proactives de l’IA

L’IA prendra en charge ces risques dans n’importe quelle entreprise spécifique, même si, selon lui, elle nécessitera des couches de sécurité (car l’IA en entreprise en a déjà besoin) pour la protection des utilisateurs. «Vous disposez déjà d'outils de cybersécurité spécialisés dans différents secteurs», précise Garraghan. « Il peut s'agir d'outils de gestion de la posture de sécurité, d'outils de détection, d'outils de réponse, de pare-feu et de prise en charge de la conception Shift Left, telle que l'analyse de code. Vous aurez bientôt besoin d’une IA adaptée à la transformation numérique. Le genre se spécialise exclusivement dans l'IA et le ML, alors que des systèmes comme les réseaux neuronaux ne sont mentionnés qu'occasionnellement.

Vous aurez besoin d'un scanner d'applications de réseaux de neurones, d'un système de réponse de tous les types de réseaux de neurones, de tests de sécurité et d'une équipe rouge pour un meilleur contrôle entre les applications, et vous aurez besoin d'un système de réponse de tous les types de réseaux de neurones. Il est plus facile de les corriger et de les résoudre rapidement plutôt que de résoudre les problèmes d'exécution. Cependant, la meilleure pratique que nous recommandons aux organisations qui utilisent des modèles d’IA ou des applications et services d’IA achetés est qu’avant de passer en production, il est plus facile de résoudre tous les problèmes liés aux modèles. Ensuite, après la mise en production, seuls les problèmes qui doivent être résolus peuvent être identifiés.

En résumé, le point de vue de Garraghan est le suivant : « L’essentiel, si la cybersécurité commence par moi, est simplement d’échanger une application ou un logiciel avec l’IA comme outil. Non? Vous avez besoin de la sécurité des applications pour détecter les menaces. L’IA en tant qu’outil est également incluse.