LAUCKED
ConnexionDemander un diagnostic
← Blog/16 mars 202615 min de lecture

Comment auditer un système d'IA en entreprise : méthode et contrôles

L'intelligence artificielle s'impose dans les entreprises françaises — chatbots, systèmes de recommandation, automatisation de processus. Mais la sécurité de ces modèles est souvent négligée. Ce guide détaille pourquoi et comment réaliser un audit IA complet pour protéger vos données, votre conformité et votre réputation.

R
Rayan DibOSCPOSEP·CTO & co-fondateur - Laucked

Pentest web & API, audit IA, Toulouse, méthodologie OWASP/PTES

16 mars 2026·15 min de lecture·Fondateurs·LinkedIn

Qu'est-ce qu'un audit IA ?

Un audit IA est une évaluation systématique de la sécurité, de la fiabilité et de la conformité de vos systèmes d'intelligence artificielle. Contrairement à un pentest classique qui se concentre sur l'infrastructure et les applications web, l'audit IA examine des vecteurs d'attaque spécifiques aux modèles de machine learning et aux LLM.

Le périmètre d'un audit IA couvre quatre dimensions :

  • 1.Sécurité des modèles — résistance aux attaques adverses, injection de prompts, extraction de modèle
  • 2.Protection des données — confidentialité des données d'entraînement, conformité RGPD
  • 3.Détection de biais — équité des décisions, discrimination algorithmique, explicabilité
  • 4.Tests de robustesse — comportement face aux entrées malformées, limites opérationnelles, dégradation gracieuse

Les menaces qui pèsent sur vos modèles IA

Prompt Injection

Critique

Un attaquant injecte des instructions malveillantes dans les entrées d’un LLM pour contourner ses garde-fous. L’injection indirecte (via des documents ou pages web consultés par le modèle) est particulièrement insidieuse car elle ne nécessite pas d’accès direct au système.

Data Poisoning (empoisonnement des données)

Critique

L’attaquant corrompt les données d’entraînement pour introduire des backdoors ou biaiser les prédictions du modèle. Une fois le modèle entraîné sur des données empoisonnées, la compromission est extrêmement difficile à détecter.

Model Extraction (vol de modèle)

Haute

En multipliant les requêtes à une API d’IA, un attaquant peut reconstruire une approximation fonctionnelle du modèle propriétaire. Cela représente un vol de propriété intellectuelle et expose les vulnérabilités du modèle original.

Attaques adverses (Adversarial Attacks)

Haute

Des perturbations imperceptibles ajoutées aux entrées (images, texte, audio) trompent le modèle avec une confiance élevée. Un système de reconnaissance faciale peut être dupé par des modifications invisibles à l’œil humain.

Fuite des données d’entraînement

Haute

Les LLM peuvent mémoriser et régurgiter des fragments de données d’entraînement, y compris des informations personnelles, des secrets d’entreprise ou du code propriétaire. Cette fuite peut entraîner des violations RGPD graves.

Les 5 étapes d'un audit IA complet

01

Inventaire des modèles

Cartographier tous les systèmes IA déployés dans l’entreprise : modèles internes, API tierces (OpenAI, AWS Bedrock, HuggingFace), modèles embarqués. Pour chaque système, documenter les données en entrée, les décisions en sortie et les utilisateurs impactés.

02

Analyse des données d’entraînement

Vérifier la provenance, la qualité et la conformité des données utilisées pour entraîner ou fine-tuner les modèles. Contrôler le consentement RGPD, l’absence de données sensibles non anonymisées et la représentativité des jeux de données pour éviter les biais.

03

Tests de robustesse

Soumettre les modèles à des scénarios d’attaque : prompt injection (directe et indirecte), entrées adverses, fuzzing des paramètres, tentatives d’extraction de modèle. Mesurer la résistance aux jailbreaks et le respect des garde-fous de sécurité.

04

Évaluation de la conformité

Vérifier l’alignement avec le cadre réglementaire applicable : classification EU AI Act (risque inacceptable, haut, limité, minimal), obligations RGPD Article 22 (décisions automatisées), recommandations ANSSI. Documenter les mesures de transparence et d’explicabilité.

05

Rapport et remédiation

Produire un rapport détaillé avec classification des vulnérabilités par criticité, preuves d’exploitation (PoC) et plan de remédiation priorisé. Définir les indicateurs de suivi et planifier les audits de contrôle.

OWASP ML Top 10 : les vulnérabilités IA les plus courantes

L'OWASP Machine Learning Security Top 10 est le référentiel de sécurité spécifique aux systèmes de machine learning. Il couvre les vecteurs d'attaque les plus exploités : injection dans les entrées, empoisonnement des données, inversion de modèle, vol de modèle, abus d'API ML et corruption de la supply chain ML.

Tout audit IA sérieux s'appuie sur ce référentiel en complément du OWASP Top 10 classique pour les vulnérabilités web. Les deux référentiels sont complémentaires : le Top 10 web couvre l'infrastructure, le ML Top 10 couvre la couche IA.

Consultez le projet complet sur GitHub (OWASP ML Top 10).

Cadre réglementaire : EU AI Act, RGPD et ANSSI

EU AI Act — Classification par niveau de risque

Le Règlement européen sur l'IA (EU AI Act) classe les systèmes IA en quatre niveaux de risque : inacceptable (interdit), haut risque (obligations strictes de conformité, audit obligatoire, documentation technique), risque limité (obligations de transparence) et risque minimal (code de conduite volontaire).

Les systèmes à haut risque (RH, crédit, santé, justice) doivent faire l'objet d'une évaluation de conformité avant mise sur le marché, incluant un audit de sécurité documenté.

RGPD Article 22 — Décisions automatisées

L'article 22 du RGPD encadre les décisions fondées exclusivement sur un traitement automatisé, y compris le profilage. Les personnes concernées ont le droit d'obtenir une intervention humaine, d'exprimer leur point de vue et de contester la décision. L'audit IA doit vérifier que ces droits sont effectivement implémentés.

Recommandations ANSSI

L'ANSSI recommande d'intégrer la sécurité des systèmes IA dans la démarche globale de cybersécurité de l'entreprise. La directive NIS2 étend les obligations de sécurité aux systèmes critiques, y compris les composants IA utilisés dans les secteurs essentiels et importants.

Audit IA vs pentest classique : quelles différences ?

CritèrePentest classiqueAudit IA
PérimètreInfrastructure, applications web, APIModèles ML/LLM, pipelines de données, API IA
Vecteurs d’attaqueSQLi, XSS, SSRF, contrôle d’accèsPrompt injection, data poisoning, adversarial attacks
Données analyséesRequêtes HTTP, configurations serveurDonnées d’entraînement, poids du modèle, prompts système
RéférentielOWASP Top 10, PTES, OSSTMMOWASP ML Top 10, NIST AI RMF, EU AI Act
ConformitéNIS2, ISO 27001EU AI Act, RGPD Art.22, NIS2
LivrablesRapport de vulnérabilités, PoCRapport de vulnérabilités IA, analyse de biais, plan de conformité

Les deux approches sont complémentaires. Si votre application intègre des composants IA, un pentest web combiné à un audit IA offre une couverture complète.

Quand faut-il auditer vos systèmes IA ?

Avant la mise en production

Tout modèle IA doit être audité avant son déploiement. C’est une obligation pour les systèmes à haut risque sous le EU AI Act et une bonne pratique pour tous les autres.

Après une mise à jour majeure du modèle

Un re-entraînement, un changement de données ou une modification d’architecture peut introduire de nouvelles vulnérabilités ou réactiver des biais éliminés précédemment.

Annuellement (audit de maintien)

L’environnement de menaces évolue. De nouvelles techniques d’attaque apparaissent régulièrement. Un audit annuel permet de vérifier que vos défenses restent efficaces.

Après un incident de sécurité

Si un incident implique vos systèmes IA (fuite de données d’entraînement, jailbreak exploité, décisions biaisées signalées), un audit post-incident est indispensable pour identifier la cause racine.

Vos modèles IA sont-ils sécurisés ?

Laucked réalise des audits de sécurité IA complets : tests de robustesse (prompt injection, adversarial attacks), analyse de conformité EU AI Act et RGPD, détection de biais. Rapport détaillé avec plan de remédiation priorisé.

Découvrir notre audit IADemander un devis

Voir aussi : demander un devis · RGPD et chatbots IA

Sources et références

  • OWASP Machine Learning Security Top 10 (GitHub)
  • EU AI Act — Règlement UE 2024/1689 (EUR-Lex)
  • ANSSI — Agence nationale de la sécurité des systèmes d'information (cyber.gouv.fr)
  • OWASP ML Security Top 10 — Page officielle (owasp.org)
  • NIST AI Risk Management Framework (nist.gov)
LAUCKED

Diagnostic de surface, pentest expert et Guard pour les PME exposées au web, aux API et aux intégrations sensibles.

Bât. Gamma, 11 Bd Déodat de Séverac

31770 Colomiers (Toulouse)

+33 7 43 58 07 38
6 certifications et qualifications →

Produit

  • Pentest PME
  • Pentest Toulouse
  • Pentest Lyon
  • Pentest Bordeaux
  • Pentest Marseille
  • Pentest Montpellier
  • Pentest Nantes
  • Conformité
  • Méthodologie
  • Tarifs
  • Sécurité

Ressources

  • Blog
  • Références
  • Presse
  • Changelog
  • Statut

Entreprise

  • Pourquoi Laucked
  • Centre de confiance
  • Auteur
  • Contact
© 2026 Laucked. Tous droits réservés.
Politique de confidentialitéConditions d'utilisationAddendum de traitement des données