Insight

AI Cyber Benchmark 2025

Publié le 31 mars 2025

Les grandes entreprises peuvent-elles gérer les risques liés à la sécurité de l’IA ?

Ces deux dernières années et depuis la sortie des systèmes d’IA générative efficaces, les grandes entreprises ont accéléré leur adoption de l’intelligence artificielle, développant des cas d’usage prometteurs pour soutenir leurs opérations commerciales. Cependant, les systèmes d’IA, qui diffèrent des applications informatiques traditionnelles sur plusieurs aspects (non déterministes, non explicables, utilisant une grande variété de données, etc.), introduisent de nouveaux risques en matière de sécurité. Les organisations doivent donc adapter leur gouvernance, leurs méthodologies et leurs outils pour s’adapter à cette nouvelle réalité.

C’est dans ce contexte que nous avons développé notre AI Cyber Benchmark. Son objectif ? Aider les entreprises à identifier leurs priorités et domaines de prédilection, ainsi qu’à obtenir un aperçu de la maturité du marché. Cette initiative évalue la maturité d’une organisation en matière de pratiques liées à la sécurité de l’IA, et ce, en se basant sur les cinq piliers du NIST Cybersecurity Framework : gouverner, identifier, protéger, détecter et répondre.

Ce benchmark s’adresse à toutes les organisations ayant adopté des cas d’usage de l’IA, qu’il s’agisse d’utilisateurs simples utilisant des outils d’IA publics ou des solutions SaaS, ou d’entreprises développant des modèles propriétaires qu’elles proposent à leurs clients.

Ces organisations utilisent des fonctionnalités de l’IA intégrées dans les logiciels qu’elles utilisent déjà. Leurs principaux risques sont liés à la sécurité des données et au choix des fournisseurs tiers. Presque toutes les entreprises sont concernées par cet usage, que ce soit à travers l’« IA fantôme » ou l’intégration prévue de nouvelles fonctionnalités d’IA, et doivent s’assurer qu’un cadre de gouvernance approprié est en place.

Ces approches révèlent de nombreux défis qui nécessitent des stratégies de gestion des risques adaptées. Après une première série d’évaluations auprès de plus de 20 organisations, nous partageons ici les résultats et les enseignements clés, enrichis par deux ans de mission et d’expérience acquise en sécurité de l’IA.

Le Cyber Benchmark est divisé en 5 piliers sur lesquels chaque organisation est évaluée grâce à un certain nombre de questions par rapport au niveaux de maturité qu’on a défini (de 0 à 100%). Pour mieux représenter les résultats, nous avons choisi une représentation en « boite à moustache » : sur chacun des piliers, les traits horizontaux représentent : le minimum, la séparation 1er/2ème quartile, la médiane, la séparation 3ème/4ème quartile, et le maximum. La croix représente la moyenne.

Les principaux enseignements du AI Cyber Benchmark

  • Les risques liés à l’IA générative sont multiples (cybersécurité, protection des données, biais, transparence, performance) et très spécifiques.
  • Les nouvelles technologies de l’IA introduisent trois types d’attaques inédites : le poisoning, les attaques oracle et les attaques d’évasion.
  • En réponse, les régulations internationales se multiplient, ajoutant de la complexité pour les multinationales.
  • Les actions de sécurité varient en fonction des cas d’usage de l’IA. On peut les classer par profils : utilisateurs, orchestrateurs et créateurs avancés.
  • Bien que 87 % des entreprises de notre panel aient défini des éléments de gouvernance, seulement 7 % disposent de l’expertise nécessaire pour faire face aux risques émergents.
  • Les entreprises les plus matures abordent le défi des compétences en adoptant un modèle de gouvernance intégré.
  • 64 % des entreprises ont mis en place une politique de sécurité de l’IA pour établir un niveau de sécurité minimum pour les projets d’IA.
  • 72 % ont adapté leurs processus de sécurité dans les projets pour traiter les risques spécifiques à l’IA.
  • 40 % des entreprises ont ajusté leurs processus d’évaluation de la maturité des fournisseurs afin de prendre en compte les solutions basées sur l’IA.
  • 43 % des entreprises ont intégré des critères de sécurité pour guider la sélection des modèles pour les cas d’usage.
  • Seules 7 % des entreprises sont correctement équipées (en interne ou avec le soutien de fournisseurs) pour se défendre contre les attaques spécifiques aux modèles.
  • Pour valider les niveaux de confiance, les « red teams » en IA restent l’approche privilégiée. Cependant, seulement 7 % des entreprises ont l’expertise en interne pour les réaliser et doivent s’appuyer sur des spécialistes externes.
  • Les applications d’IA sont rarement surveillées par le biais du SOC (Security Operations Center). Cependant, les logs d’infrastructure et d’applications sont généralement bien collectés (71 %) pour soutenir les enquêtes en cas d’incident. L’analyse approfondie des modèles d’IA reste techniquement très complexe, et seules quelques organisations dans le monde sont capables de la réaliser.

L’IA impacte la cybersécurité de deux autres manières : elle renforce la défense en automatisant certaines tâches, mais elle est également exploitée par les cybercriminels, avec une augmentation des deepfakes, du phishing alimenté par l’IA et des malwares coécrits par IA en 2024. Les organisations doivent intégrer ces menaces dans leur surveillance et adopter des outils d’IA pour contrer ces nouvelles attaques. Vous pouvez trouver plus d’informations sur le sujet ici : L’industrialisation de l’IA par les cybercriminels : faut-il vraiment s’inquiéter ?.

Découvrez notre analyse complète

AI Cyber Benchmark 2025 (anglais uniquement)

Nos retours terrain  

Quelles sont les tendances que nous avons identifiées en matière de sécurisation de l’IA ?

Le marché a réagi rapidement à l’arrivée de l’IA. Aujourd’hui, 87 % des organisations dans le benchmark ont défini une gouvernance pour aborder la question de l’IA digne de confiance. En effet, la cybersécurité n’est qu’un des aspects de l’IA digne de confiance, aux côtés de la protection de la vie privée, de la gestion des biais, de la robustesse, de la précision, etc.

Nous avons observé deux approches principales :

  • Un modèle intégré (environ 60 % de nos clients), via un « AI Hub » rassemblant les compétences clés de l’IA (juridique, sécurité, confidentialité, RSE) et facilitant ainsi la communication et la maitrise rapide de ses sujets. Cela permet de centraliser l’évaluation des cas d’usage, de créer une communauté autour de l’IA digne de confiance, et d’accélérer la montée en compétences des équipes.
  • Un modèle décentralisé (environ 10 % de nos clients), où les spécificités de l’IA sont abordées via les équipes et processus existants. Bien que plus lent à mettre en place, il permet de créer une structure de gouvernance dédiée et d’éviter la redondance avec les processus déjà en place.

 

En pratique, comment gérer efficacement les risques liés à l’IA ?

71 % des organisations de notre benchmark ont adapté leur processus de cycle de vie des projets aux risques de l’IA. 64 % ont défini un cadre de sécurité pour l’IA, soit en établissant une politique de sécurité dédiée, soit en adaptant leur corpus de sécurité global. Cela devrait être la première étape pour toute entreprise cherchant à mettre en place un cadre de sécurité pour l’IA.

Un facteur clé de succès est de ne pas réinventer ce qui existe déjà et de s’appuyer sur les processus et documents existants, en ajoutant, le cas échéant, des risques, mesures, contrôles et étapes de vérification spécifiques à l’IA. Par exemple, le questionnaire de qualification des risques peut inclure des questions spécifiques sur l’IA, telles que :

  • Quel est le contexte et l’objectif prévu de cette IA ?
  • Le résultat serait-il utilisé par un humain ou directement comme entrée dans un processus automatisé ?
  • Quel est le niveau de performance attendu du système d’IA ?
  • Quel serait l’impact d’un dysfonctionnement sur les individus ?

Cependant, la question des compétences reste un défi majeur : l’IA est un domaine spécialisé, et l’expertise peut être rare. Seules 57 % des organisations de notre panel ont identifié des experts internes ou externes sur les sujets de sécurité de l’IA. Par conséquent, la formation, la sensibilisation et l’identification des compétences manquantes pour adapter les stratégies de recrutement seront essentielles.

Découvre notre analyse complète

AI Cyber Benchmark 2025 (contenu en anglais)

Auteurs

  • gerome billois

    Gérôme Billois

    Partner – France, Paris

    Wavestone

    LinkedIn
  • Thomas Argheria