Audit de sécurité IA pour les entreprises
L'intelligence artificielle ouvre une nouvelle surface d'attaque dans votre entreprise. Data poisoning, prompt injection, model extraction, fuites de données personnelles : les menaces sont réelles et les défenses classiques ne suffisent pas. Un audit de sécurité IA identifie ces failles avant qu'un attaquant ne les exploite.
Pentest web & API, audit IA, Toulouse, méthodologie OWASP/PTES
Pourquoi auditer vos modèles IA
Les systèmes d'intelligence artificielle introduisent des vulnérabilités fondamentalement différentes des failles web classiques. Un pare-feu applicatif (WAF) ne bloque pas une prompt injection. Un antivirus ne détecte pas l'exfiltration de données via un chatbot. Un test d'intrusion classique ne couvre pas le data poisoning ou le model extraction.
L'OWASP ML Top 10 identifie les dix vulnérabilités les plus critiques des systèmes de machine learning. L'audit IA de Laucked teste vos systèmes selon ce référentiel, complété par nos propres cas de test développés sur le terrain.
Data poisoning (empoisonnement des données)
Un attaquant injecte des données malveillantes dans les données d’entraînement ou de fine-tuning de votre modèle IA. Le modèle apprend des comportements biaisés, incorrects ou malveillants sans que cela soit détectable en production. Les conséquences vont du biais décisionnel à la porte dérobée (backdoor) permettant un contrôle ciblé du modèle.
Prompt injection (directe et indirecte)
L’attaquant manipule les instructions envoyées au modèle pour contourner ses garde-fous. En injection directe, l’utilisateur envoie des instructions malveillantes. En injection indirecte, le payload est caché dans un document, un e-mail ou une page web traitée automatiquement par le LLM. Résultat : extraction de données confidentielles, contournement des règles métier, exécution d’actions non autorisées.
Model extraction (vol de modèle)
Un attaquant reconstitue votre modèle propriétaire en envoyant des requêtes systématiques et en analysant les réponses. Cela permet de voler votre propriété intellectuelle, de découvrir les faiblesses du modèle pour les exploiter ultérieurement, ou de créer un clone de votre service. Les modèles fine-tunés sur des données métier spécifiques sont particulièrement vulnérables.
Privacy leaks (fuites de données personnelles)
Le modèle IA mémorise et restitue des données personnelles présentes dans ses données d’entraînement ou dans le contexte RAG (Retrieval-Augmented Generation). Un chatbot connecté à un CRM peut divulguer des informations clients. Un assistant RH peut révéler des données salariales. Ces fuites constituent des violations du RGPD avec des sanctions pouvant atteindre 4% du chiffre d’affaires.
Notre méthodologie d'audit IA
Notre méthodologie s'appuie sur le référentiel OWASP ML Top 10 et sur notre expertise en test d'intrusion offensif. Chaque audit suit quatre étapes structurées :
- 1Cartographie et inventaire IA — Identification exhaustive de tous les systèmes IA déployés dans votre organisation : chatbots, assistants internes, modèles de scoring, systèmes de recommandation, workflows d’automatisation. Nous documentons les modèles utilisés, les sources de données connectées, les permissions et les flux de données personnelles.
- 2Tests offensifs spécialisés IA — Exécution de centaines de payloads ciblant les vulnérabilités spécifiques à l’IA : prompt injection (directe et indirecte), tentatives d’extraction de modèle, tests de data leakage, contournement des garde-fous (jailbreak), analyse de la robustesse face au data poisoning. Chaque test est classifié selon le référentiel OWASP ML Top 10.
- 3Analyse de conformité réglementaire — Évaluation de la conformité de vos déploiements IA par rapport au EU AI Act (classification des risques, obligations de transparence), au RGPD (Article 22 sur les décisions automatisées, Article 35 sur les analyses d’impact) et aux recommandations de l’ANSSI en matière de sécurité des systèmes d’IA générative.
- 4Rapport et plan de remédiation — Livrable complet incluant un résumé exécutif pour la direction, un détail technique pour les équipes, chaque vulnérabilité documentée avec preuve de concept (PoC), niveau de criticité CVSS, impact métier et recommandation de remédiation priorisée. Accompagnement pour la mise en œuvre des corrections.
Cas d'usage audités
Nous auditons tous les types de déploiements IA en entreprise, des chatbots publics aux modèles de scoring :
Chatbots service client
Chatbots publics connectés à vos systèmes de gestion : CRM, base de connaissances, historiques de commandes. Risques majeurs : prompt injection pour extraire des données clients, manipulation des processus métier, usurpation d’identité via le chatbot.
LLM internes (assistants RH, juridique, finance)
Assistants IA avec accès à des données sensibles : fiches de paie, contrats, données financières, documents stratégiques. Risques majeurs : fuite de données confidentielles, accès non autorisé à des informations restreintes, contournement des politiques internes.
Scoring IA (crédit, risque, fraude)
Modèles de scoring automatisé pour les décisions de crédit, l’évaluation des risques ou la détection de fraude. Risques majeurs : biais discriminatoires, manipulation des scores par data poisoning, non-conformité RGPD Art.22 sur les décisions automatisées.
Systèmes de recommandation
Algorithmes de recommandation produit, contenu ou service. Risques majeurs : manipulation des recommandations par injection de données, extraction du modèle de recommandation par un concurrent, fuites de préférences utilisateur et de données comportementales.
Conformité : EU AI Act, RGPD et recommandations ANSSI
EU AI Act
Le Règlement européen sur l'intelligence artificielle impose des obligations de transparence, de gestion des risques et de gouvernance pour les systèmes IA. Les systèmes à haut risque doivent faire l'objet d'évaluations de conformité incluant des tests de robustesse et de sécurité.
RGPD Article 22
L'article 22 du RGPD encadre les décisions individuelles automatisées, y compris le profilage. Tout scoring IA ou décision automatique ayant un effet juridique sur une personne doit offrir un droit d'opposition, une intervention humaine et une explication de la logique utilisée.
En savoir plus →Cas concret : RGPD et chatbot IA — obligations, risques LLM et checklist.
Recommandations ANSSI
L'ANSSI publie des recommandations de sécurité spécifiques aux systèmes d'IA générative. Ces recommandations couvrent le cloisonnement, la validation des entrées/sorties, la gestion des droits d'accès et la supervision des systèmes IA en production.
Voir aussi : NIS2 →Questions fréquentes — Audit sécurité IA
Quelle est la différence entre un audit IA et un pentest classique ?
Un pentest classique teste les vulnérabilités web traditionnelles (injections SQL, XSS, failles d’authentification). Un audit IA cible spécifiquement les vulnérabilités des systèmes d’intelligence artificielle : prompt injection, data poisoning, model extraction, privacy leaks. Les défenses classiques (WAF, antivirus) ne détectent pas ces attaques. Les deux sont complémentaires — découvrez notre offre pentest.
Mon entreprise utilise ChatGPT via l’API OpenAI — est-ce concerné par l’audit IA ?
Oui, absolument. Dès que vous intégrez une API de LLM (OpenAI, Anthropic, Mistral) dans une application métier, vous introduisez des vecteurs d’attaque spécifiques : prompt injection via les données utilisateur, fuite du prompt système et de la logique métier, surcoûts par abus d’API. L’audit vérifie la sécurité de l’intégration, pas seulement du modèle lui-même.
L’audit IA aide-t-il à la conformité EU AI Act et RGPD ?
Oui. L’EU AI Act impose des évaluations de conformité pour les systèmes IA à haut risque. Le RGPD (Article 22) encadre les décisions automatisées et impose des analyses d’impact (Article 35). L’audit IA de Laucked identifie les flux de données personnelles dans vos systèmes IA, évalue la conformité de vos traitements et fournit un rapport exploitable pour votre DPO. Consultez nos pages conformité RGPD.
Combien coûte un audit de sécurité IA et combien de temps cela prend-il ?
Le coût dépend du périmètre : nombre de systèmes IA à auditer, complexité des intégrations, volume de données. Nous proposons des tarifs fixes définis à l’avance — pas de facturation au temps passé ni de surprises. Le rapport est livré sous 48 à 72 heures après la fin des tests. Consultez nos tarifs détaillés.
Protégez vos systèmes IA
Identifiez les failles de sécurité de vos modèles IA, chatbots et automatisations avant qu'un attaquant ne les exploite. Audit basé sur le référentiel OWASP ML Top 10, rapport avec preuves de concept et plan de remédiation priorisé.