· Mikaël Masson · Innovation · 7 min read
Shadow AI : comment auditer et encadrer l'IA non autorisée en entreprise
57 % des salariés utilisent l'IA sans autorisation. Découvrez comment identifier, évaluer et encadrer les usages IA sauvages dans votre organisation.
La Shadow AI : un phénomène massif et croissant
Vous pensez connaître tous les outils technologiques utilisés dans votre entreprise ? Détrompez-vous.
57 % des salariés utilisent l’IA au travail sans autorisation explicite de leur employeur. ChatGPT, Copilot, Claude, Midjourney, Gemini… Ces outils sont gratuites ou peu coûteux et accessibles en quelques clics. Les salariés les utilisent pour gagner du temps, améliorer leur productivité, ou simplement par curiosité.
C’est ce qu’on appelle la Shadow AI : l’utilisation d’outils d’IA non approuvés, non contrôlés et souvent inconnus de la direction IT ou de la cybersécurité.
Le problème ? Les risques sont importants.
Les risques concrets de la Shadow AI
1. Fuite de données confidentielles
C’est le risque majeur. Vos salariés copient-collent des données sensibles dans ChatGPT :
- Codes source de vos produits
- Données clients (noms, emails, numéros de téléphone)
- Documents commerciaux, contrats, prix
- Propriété intellectuelle (algorithmes, stratégie, brevets)
Une fois partagée avec un outil cloud public, cette donnée ne vous appartient plus. Et pire : elle peut être utilisée pour entraîner d’autres modèles IA.
2. Non-conformité RGPD
Le RGPD vous oblige à maîtriser le traitement des données personnelles. Si vos salariés envoient des données personnelles dans des outils tiers, vous violez probablement le RGPD.
Les amendes du RGPD peuvent atteindre 20 millions d’euros ou 4% du chiffre d’affaires mondial (pour les violations graves).
3. Non-conformité AI Act
L’AI Act, qui entre en application en août 2026, impose des obligations spécifiques selon le niveau de risque de l’IA utilisée :
- Risque très élevé : applications d’IA dans la recrutement, la notation de crédit, etc. Obligation de gouvernance stricte
- Risque élevé : applications nécessitant une évaluation d’impact
- Risque faible ou minimal : peu de contraintes
Si vous utilisez de l’IA sans audit du risque, vous ne respectez pas l’AI Act.
4. Propriété intellectuelle compromise
Si vous utilisez l’IA génératives pour créer du contenu (images, textes, code), vous prenez un risque juridique.
Exemple : un dessinateur crée une illustration avec Midjourney. Qui est propriétaire de cette création ? Midjourney ? Vous ? Les données d’entraînement ? C’est flou légalement.
5. Biais décisionnels et discriminations
Certains outils IA reproduisent les biais des données d’entraînement. Si vous utilisez l’IA pour du recrutement, de la notation de performance ou du scoring de crédit sans audit, vous risquez des discriminations involontaires.
6. Disponibilité et interruption d’activité
Si vos processus critiques dépendent d’outils IA externes non documentés, une indisponibilité du service vous paralyse.
Comment faire un audit Shadow AI en 5 étapes
Étape 1 : Inventaire des outils IA utilisés
Vous devez savoir ce qui se cache dans votre organisation.
Méthodes de découverte :
- Sondage confidentiel des salariés (qu’utilisez-vous pour quoi ?)
- Analyse des flux réseau (détection des connexions à OpenAI, Anthropic, Google, etc.)
- Audit des processus critiques (où l’IA pourrait être utilisée ?)
- Revue des connexions de données (où les données sensibles pourraient partir ?)
Outils utiles :
- Outil de DLP (Data Loss Prevention) : détecte les tentatives de partage de données sensibles
- Analyse des logs firewall et proxy
- Enquête RH directe auprès des collaborateurs
Livrables :
- Liste exhaustive des outils IA utilisés
- Nombre d’utilisateurs par outil
- Cas d’usage identifiés
Étape 2 : Classification et analyse des flux de données
Pour chaque outil, vous devez comprendre :
- Quelles données sont partagées : données personnelles, secrets commerciaux, codes source ?
- Vers quel service : le modèle tourne-t-il sur cloud public ou en interne ?
- Qui y a accès : les données pourraient-elles être consultées par des tiers ?
- Rétention : les données sont-elles conservées après utilisation ?
- Légalité : TOS, données utilisées pour l’entraînement du modèle ?
Exemple : ChatGPT gratuit entraîne les modèles OpenAI sur les données que vous partagez. Donc envoyer du code propriétaire à ChatGPT gratuit = fuite très risquée.
Étape 3 : Évaluation des risques par outil
Chaque outil doit être classé selon son niveau de risque :
| Critère | Risque faible | Risque moyen | Risque très élevé |
|---|---|---|---|
| Données partagées | Données publiques | Données générales | Données sensibles / confidentielles |
| Lieu de traitement | Interne | Cloud US/EU | Cloud tiers inconnu |
| Acceptabilité légale | Compliant RGPD/AI Act | À adapter | Non compliant |
| Criticité métier | Faible | Moyen | Critique |
Exemple :
- ChatGPT avec données publiques = Risque moyen (terms of service flous)
- ChatGPT avec données clients = Risque très élevé (RGPD, données sensibles)
- Copilot d’entreprise Microsoft = Risque faible (données restent en interne)
Étape 4 : Classification des usages et plan de remédiation
Une fois les risques identifiés, vous classez les usages en trois catégories :
- À autoriser : outils approuvés, contrôlés, conformes. Exemple : ChatGPT Enterprise pour la rédaction (avec charte utilisation)
- À adapter : outils utiles mais qui nécessitent des garde-fous. Exemple : limiter les données partagées
- À interdire : outils trop risqués pour votre contexte. Exemple : ImageGeneration avec données propriétaires
Plan d’action :
- Définir une charte IA approuvée par la direction
- Déployer des outils approuvés et sécurisés (alternatives conformes)
- Mettre en place une DLP pour bloquer/alerter les violations
- Former les salariés
Étape 5 : Mise en place de la gouvernance IA
L’audit ne sert que s’il débouche sur une gouvernance pérenne.
Éléments clés :
- Charte IA documentée et approuvée par la direction
- Comité IA : réunions régulières (RSSI, RH, métier, direction)
- Registre des IA : liste exhaustive des outils utilisés, leurs risques, leur conformité
- Formation continue : sensibilisation aux risques, bonnes pratiques
- Processus d’approbation : avant d’adopter un nouvel outil IA, validation par l’IT/RSSI
De l’audit à la gouvernance IA
1. Charte IA
Document qui précise :
- Quels outils sont approuvés et pourquoi
- Quels types de données peuvent être partagés (et lesquels jamais)
- Responsabilités de chacun (salariés, direction, IT)
- Procédures de signalement des usages non autorisés
Exemple de règles :
- ✅ Utiliser ChatGPT pour rédiger des articles marketing (aucune donnée client)
- ✅ Utiliser Copilot pour améliorer du code (données non critiques)
- ❌ Jamais : partager des données clients, des codes sources sensibles, des contrats
- ❌ Jamais : utiliser des outils qui entraînent les modèles publics sur vos données
2. Comité IA multidisciplinaire
Réunions mensuelles ou trimestrielles avec :
- RSSI / Responsable cybersécurité
- RGPD / DPO si applicable
- Responsables métier (qui savent quels cas d’usage apportent de la valeur)
- IT / Infrastructure
- Direction générale
Objectifs : valider les nouveaux usages, évaluer les risques, décider des approches.
3. Outils approuvés et alternatives conformes
Plutôt que d’interdire l’IA (impossible), proposez des alternatives sécurisées :
- ChatGPT Enterprise au lieu de ChatGPT gratuit (données sécurisées, pas d’entraînement)
- Copilot pour Microsoft 365 au lieu de ChatGPT classique
- Solutions on-premise ou privées : Ollama, LLaMA, Mistral en local
- APIs propriétaires : vous maîtrisez les données
4. Formation et sensibilisation
Tous les salariés doivent comprendre :
- Les risques de la Shadow AI
- Les outils approuvés et pourquoi
- Qu’ils ne doivent pas partageur de données sensibles avec n’importe quel outil
- Comment signaler un usage suspect
L’AI Act : ce qui change pour les PME
L’AI Act (en application août 2026) impose une classification des risques et une gouvernance adaptée.
Obligations principales :
- IA à très haut risque : obligation d’évaluation d’impact, de documentation exhaustive, de traçabilité
- IA à risque élevé : évaluation d’impact requise
- IA à risque bas/minimal : obligations minimales
Pour une PME :
- Vous devez auditer chaque outil IA que vous utilisez et le classer selon son risque
- Vous devez documenter votre gouvernance IA
- Si vous utilisez l’IA pour du recrutement, du crédit, ou d’autres domaines critiques : exigences strictes
- Transparency : vous devez informer les utilisateurs finaux qu’une IA intervient
L’AI Act renforce l’urgence d’une audit Shadow AI et d’une gouvernance IA.
Par où commencer ?
- Lancer un sondage : demander discrètement aux salariés quels outils IA ils utilisent
- Analyser les logs : comprendre les connexions sortantes vers des services IA
- Évaluer les risques : pour chaque outil, quel est le risque réel ?
- Définir une charte IA : quoi autoriser, quoi interdire, comment procéder ?
- Communiquer et former : annoncer la charte IA et sensibiliser l’équipe
- Mettre en place les garde-fous : DLP, outils approuvés, gouvernance
Un accompagnement spécialisé permet d’avancer rapidement sans créer de frustration auprès des salariés.
Vous souhaitez auditer la Shadow AI dans votre organisation ? KTSN vous accompagne sur l’identification des risques et la mise en place d’une gouvernance IA. Découvrir notre offre Innovation & IA → ou prendre rendez-vous pour discuter →.
Cet article fait partie d’une série sur la gouvernance IA et la sécurité de l’information. Retrouvez également nos guides sur la conformité NIS2 et les bases de cybersécurité.