Comment les assistants IA de codage exposent votre code à la Chine : risques, preuves et mesures de protection
Hippolyte Valdegré
Risque caché : 1,5 million de développeurs déjà ciblés
“Les extensions d’assistance de codage IA exfiltrent les fichiers vers la Chine” - Rapport Koi AI, février 2026.
En 2026, un rapport publié par Koi AI révèle que plus de 1,5 million de développeurs utilisent des extensions d’IA qui transmettent silencieusement leurs fichiers source vers des serveurs situés en Chine. Cette fuite massive concerne non seulement le code propriétaire, mais également les secrets d’authentification, les clés API et les données de conception. Le problème n’est plus théorique : il s’agit d’une menace concrète pour la souveraineté numérique des entreprises françaises.
Dans cet article, nous décortiquons le mécanisme d’exfiltration, les conséquences légales, et surtout les mesures opérationnelles que chaque équipe de développement peut mettre en place dès aujourd’hui.
Nature du problème
Pourquoi les assistants IA de codage sont-ils attirants
Les assistants IA de codage promettent une productivité multipliée par dix : complétion instantanée, génération de fonctions, revue de pull-request automatisée. Leur popularité s’explique par :
- une intégration native dans les environnements de développement (VS Code, JetBrains);
- des modèles de langage entraînés sur des milliards de lignes de code;
- une communauté active qui publie des milliers d’extensions avec des évaluations positives.
Le modèle de collecte de données
Les extensions étudiées (« ChatGPT-中文版 » et « ChatMoss ») utilisent trois canaux d’exfiltration :
- Surveillance en temps réel : chaque frappe est envoyée à un point de terminaison distant.
- Harvesting massif de fichiers : jusqu’à 50 fichiers sont empaquetés et transférés toutes les 30 minutes.
- Moteur de profilage : collecte d’informations sur l’utilisateur, l’entreprise et les projets en cours.
“Ces canaux permettent de reconstituer une vue complète du projet, y compris les secrets d’accès” - Analyse Koi AI, 2026.
Mécanismes d’exfiltration détectés
Architecture technique des extensions malveillantes
{
"name": "chatmoss",
"version": "1.4.2",
"permissions": ["workspace", "fileSystem", "network"],
"background": {
"scripts": ["collector.js"]
}
}
Le fichier collector.js ouvre une connexion WebSocket vers ws://malicious.cn/exfil. Il parcourt le répertoire de travail, compresse les fichiers et les envoie en base64. Aucun consentement explicite n’est demandé à l’utilisateur.
Flux de données typique
- L’utilisateur accepte l’installation depuis le Marketplace officiel.
- L’extension active le listener de modifications de fichiers.
- À chaque sauvegarde, le listener crée un snapshot du fichier.
- Le snapshot est chiffré avec une clé symétrique, puis transmis.
- Le serveur chinois déchiffre, stocke et alimente les modèles de l’IA.
Cette chaîne est invisible pour l’utilisateur, car les extensions utilisent les API de VS Code autorisées par défaut.
Conséquences juridiques et de conformité
Violation du RGPD et de la loi française sur la protection des données
Le transfert de données personnelles ou sensibles vers un pays hors UE sans garanties adéquates constitue une infraction au Règlement Général sur la Protection des Données (RGPD). L’Article 44 impose que tout transfert soit encadré par des clauses contractuelles types ou des décisions d’adéquation - or, la Chine ne bénéficie d’aucune de ces garanties.
Selon la CNIL, « tout export de données vers un pays tiers doit être justifié par une évaluation d’impact » (CNIL, 2025). En savoir plus sur le vol de secrets chez Google
Risques de propriété intellectuelle
Le code propriétaire, lorsqu’il est copié dans des bases de données d’entraînement d’IA, peut être réutilisé sans licence. Cela expose les entreprises à des litiges de violation de droits d’auteur et à la perte d’avantages concurrentiels.
Responsabilité contractuelle
Les contrats de prestation (ex. : ISO 27001, ANSSI) exigent que les sous-traitants garantissent la confidentialité des livrables. L’utilisation d’une extension non-auditée constitue une défaillance de diligence qui peut entraîner des pénalités contractuelles.
Mesures de mitigation pour les développeurs
1. Auditer les extensions avant installation
- Vérifier les permissions demandées dans le manifeste (
package.json). - Consulter les revues de sécurité sur des plateformes comme OSS-Radar.
- Utiliser des outils d’analyse statique pour détecter les appels réseau non documentés.
2. Isoler les environnements de développement
- Séparer les machines de travail des réseaux d’entreprise via un VLAN dédié.
- Activer le mode « air-gapped » pour les projets sensibles : désactiver toute connexion Internet pendant le codage.
- Utiliser des conteneurs Docker avec des politiques de réseau restrictives.
3. Désactiver la télémétrie et le partage de code
# Dans le fichier settings.json de VS Code
"telemetry.enableTelemetry": false,
"telemetry.enableCrashReporting": false,
"extensions.autoUpdate": false
[En savoir plus sur le détournement du mécanisme de mise à jour des extensions](https://services-ingenierie-sociale.fr/comment-le-detournement-du-mecanisme-de-mise-a-jour-de-notepad-a-expose-les-utilisateurs-a-des-malwares-cibles/)
Ces paramètres empêchent l’envoi automatique d’informations de diagnostic.
4. Mettre en place une politique de révision des plugins
- Liste blanche des extensions approuvées par le service sécurité.
- Revue périodique (trimestrielle) des dépendances via
npm auditouyarn audit. - Formation des équipes sur les risques liés aux assistants IA. Guide complet pour les sites web français
5. Chiffrer les secrets en local
Utilisez des gestionnaires de secrets comme HashiCorp Vault ou Azure Key Vault et ne stockez jamais les clés en texte clair dans le répertoire du projet.
Vers une chaîne d’approvisionnement logicielle plus résiliente
Comparatif des critères de sécurité des extensions
| Critère | Extension approuvée | Extension suspecte |
|---|---|---|
| Permissions demandées | workspace.read uniquement | workspace, fileSystem, network |
| Revue de code publique | Oui (GitHub, CI) | Non (repo privé) |
| Audit tiers | Certifié ANSSI | Aucun |
| Historique de mises à jour | Mensuel, changelog détaillé | Irregularité, pas de changelog |
| Conformité RGPD | Oui | Non |
Le rôle des standards nationaux
L’ANSSI recommande depuis 2024 que toute extension installée sur les postes de travail gouvernementaux soit soumise à un processus de certification basé sur le référentiel SecNumCloud. Cette démarche peut être adaptée aux entreprises privées afin de garantir que les outils respectent les exigences de confidentialité, intégrité et disponibilité.
Adoption d’une culture de « Zero-Trust »
En pratique, cela signifie :
- Ne jamais faire confiance à une extension simplement parce qu’elle provient du Marketplace officiel.
- Vérifier chaque appel réseau au moment de l’exécution (outil Wireshark, Fiddler).
- Segmenter les droits d’accès au niveau du système d’exploitation (principes du least-privilege).
Conclusion : agir dès maintenant pour sécuriser votre code
Les assistants IA de codage offrent des gains de productivité indéniables, mais ils introduisent un vecteur d’exfiltration qui met en danger la souveraineté numérique des entreprises françaises. En appliquant les mesures décrites - audit rigoureux, isolation des environnements, désactivation de la télémétrie et adoption d’une politique Zero-Trust - vous pouvez prévenir la fuite de votre propriété intellectuelle vers des serveurs étrangers.
Prochaine étape : effectuez dès aujourd’hui un inventaire de toutes les extensions installées sur vos postes de développement, puis appliquez le tableau de critères de sécurité pour identifier les risques. Le temps de réaction est limité : chaque jour d’exposition augmente la probabilité de compromission.