24 000 comptes frauduleux. 16 millions d'échanges aspirés. Trois laboratoires chinois pris la main dans le sac. Le 24 février 2026, Anthropic a publié un rapport qui a secoué le monde de l'IA d'entreprise : DeepSeek, MiniMax et Moonshot AI ont mené des campagnes coordonnées pour siphonner les capacités de Claude à une échelle que personne n'avait anticipée. L'affaire dépasse le simple vol de propriété intellectuelle — elle pose une question que chaque DSI français devrait se poser ce matin : si des États peuvent extraire la substance d'un modèle via ses API, que se passe-t-il quand vos collaborateurs y envoient des données confidentielles sans encadrement ?
Anatomie d'un pillage industriel à 16 millions de requêtes
Le rapport d'Anthropic du 24 février 2026 ne laisse pas de place à l'ambiguïté. Trois entreprises chinoises — DeepSeek, MiniMax et Moonshot AI — ont créé plus de 24 000 comptes frauduleux sur la plateforme Claude pour extraire méthodiquement les capacités du modèle. La technique s'appelle la distillation : on bombarde un modèle de questions ciblées, on collecte ses réponses, et on utilise ce corpus pour entraîner ses propres modèles. C'est du reverse engineering appliqué à l'intelligence artificielle.
Les chiffres donnent le vertige. MiniMax a généré à elle seule plus de 13 millions d'échanges avec Claude — soit 81 % du volume total identifié. Moonshot AI suit avec 3,4 millions d'interactions ciblant spécifiquement le raisonnement agentique, le développement d'agents de computer use et la vision par ordinateur. Quant à DeepSeek, les 150 000 échanges repérés visaient un objectif précis : améliorer la logique fondamentale et l'alignement de leurs propres modèles, en particulier autour de réponses alternatives aux requêtes politiquement sensibles en Chine.
Anthropic n'est pas seul à avoir subi ce type d'assaut. OpenAI avait publié des plaintes similaires quelques semaines plus tôt, selon un article de CNBC du 24 février 2026. Le Google Threat Intelligence Group a par ailleurs confirmé en février 2026 une hausse significative des attaques par distillation visant les API de modèles propriétaires. On n'est plus dans l'anecdote : c'est une campagne industrielle organisée.
La distillation, un risque que les entreprises sous-estiment
Soyons clairs : la distillation telle que pratiquée par DeepSeek ne vise pas directement les données de vos collaborateurs. Le risque se concentre sur les fournisseurs de modèles — Anthropic, OpenAI, Google — qui voient leur propriété intellectuelle aspirée. Mais réduire l'affaire à un problème entre géants tech serait passer à côté de l'essentiel.
Ce que cette affaire met en lumière, c'est la fragilité de toute la chaîne de confiance autour des API d'IA. Quand un laboratoire chinois peut créer 24 000 faux comptes et envoyer 16 millions de requêtes sans être détecté pendant des mois, que dit-on de la surveillance des usages sur ces plateformes ? Le Google Threat Intelligence Group recommande d'ailleurs une surveillance accrue des usages API pour détecter les schémas d'extraction, selon son rapport de février 2026 sur les menaces liées à l'IA.
Pour les sociétés de gestion qui envoient des mémos de comité d'investissement à un modèle, ou pour les directions juridiques qui y soumettent des clauses de NDA, la question n'est pas théorique. Si l'infrastructure d'un fournisseur peut être exploitée à cette échelle par des acteurs étatiques, les données que vous confiez à ces API méritent une réflexion sérieuse sur les conditions d'hébergement, de chiffrement et de rétention.
61 % des salariés français utilisent l'IA sans cadre : le vrai danger
Pendant que les DSI débattent de la distillation entre grands modèles, un problème autrement plus concret ronge les entreprises françaises. Selon l'étude Microsoft France-YouGov de janvier 2026, menée auprès de 657 cadres et dirigeants, 61 % des collaborateurs qui utilisent l'IA en entreprise le font via des comptes personnels au moins une fois par semaine. 38 % le font quotidiennement.
Ce chiffre masque une réalité que peu de comités de direction veulent entendre. Vos juristes copient-collent des extraits de contrats confidentiels dans ChatGPT via leur navigateur personnel. Vos analystes financiers envoient des projections trimestrielles à des modèles hébergés aux États-Unis sans chiffrement de bout en bout. Vos recruteurs soumettent des CV complets — données personnelles incluses — à des API grand public. Tout cela hors de tout monitoring, de toute politique de rétention, de tout cadre RGPD.
L'étude KPMG Trends of AI 2026, publiée en janvier auprès de 356 décideurs français, confirme pourtant une prise de conscience au sommet : 86 % des grandes entreprises ont validé une charte d'usage responsable de l'IA, et 60 % ont déployé un dispositif de pilotage transverse. Mais entre la charte signée en COMEX et la réalité du terrain — plus de 7 cadres sur 10 n'ont toujours pas été formés à l'utilisation de l'IA selon Microsoft — le fossé reste béant.
Combien de vos collaborateurs savent distinguer un usage via API entreprise d'un usage via compte personnel ? Combien connaissent les politiques de rétention de données du modèle qu'ils interrogent entre deux réunions ?
Sécurité nationale et souveraineté : la dimension géopolitique
Anthropic a choisi de cadrer cette affaire comme un enjeu de sécurité nationale. Le rapport mentionne explicitement le risque que des gouvernements autoritaires déploient des modèles d'IA frontier pour des cyberattaques, des campagnes de désinformation ou de la surveillance de masse. Le terme est fort, et il est calibré pour peser dans le débat en cours à Washington sur les restrictions d'export de puces vers la Chine.
Certains experts nuancent cette lecture. Un professeur de l'université technologique de Nanyang à Singapour, cité par CNN le 24 février, soulignait que la frontière entre usage légitime et exploitation adversariale reste floue dans le domaine de la distillation. D'autres rappellent que les entreprises américaines ont elles-mêmes pratiqué le scraping massif de données web pour entraîner leurs modèles — un sujet qui fait l'objet de dizaines de procès en cours.
Cette nuance compte pour les décideurs européens. L'AI Act, entré en application progressive depuis 2024, impose des obligations de transparence et de documentation aux fournisseurs de systèmes d'IA à haut risque. La conformité AI Act n'est plus optionnelle pour les secteurs réglementés — finance, santé, assurance. Et la question de la souveraineté des données prend un relief particulier quand on observe que les trois laboratoires incriminés opèrent dans un pays où la loi sur le renseignement national de 2017 peut contraindre toute entreprise à partager ses données avec les services de l'État.
Pour un DAF ou un RSSI français, la leçon est pragmatique : l'hébergement, la juridiction et la politique de rétention de votre fournisseur d'IA ne sont pas des sujets techniques à reléguer à l'IT. Ce sont des décisions de gouvernance.
Comment Anthropic a réagi — et ce que ça signifie pour les entreprises
La réponse d'Anthropic a été rapide et publique. L'entreprise a banni les comptes identifiés, renforcé ses systèmes de détection d'anomalies et publié un rapport détaillé avec ventilation par acteur. C'est un choix de transparence qui tranche avec les pratiques habituelles du secteur — généralement, les fournisseurs préfèrent gérer ce type d'incident en silence.
Cette transparence a un double effet pour les clients entreprise. Elle démontre d'abord qu'Anthropic investit activement dans la surveillance de ses API, avec des capacités de détection suffisantes pour identifier des patterns de distillation à travers des dizaines de milliers de comptes. Elle rappelle ensuite que même un fournisseur de premier plan peut être exploité pendant une durée significative avant de détecter l'anomalie — ce qui renforce l'argument en faveur d'un déploiement encadré plutôt que d'un accès API brut.
Les fonctionnalités de Claude Cowork répondent en partie à cette problématique. En déployant Claude dans un environnement desktop contrôlé plutôt que via des API ouvertes, les entreprises bénéficient d'un cadre où les données restent sur le poste de travail, où les échanges ne sont pas stockés côté serveur pour l'entraînement, et où l'IT peut encadrer les usages via des politiques d'entreprise. Ce n'est pas une solution magique — la formation des équipes reste indispensable — mais c'est un premier verrou concret.
Cinq questions à poser à votre fournisseur d'IA dès lundi
L'affaire DeepSeek-MiniMax-Moonshot a accéléré un mouvement de fond. Les DSI qui retardaient leur audit des usages IA internes n'ont plus d'excuse. Voici les cinq questions que tout responsable de la sécurité devrait poser à son fournisseur — et dont l'absence de réponse claire constitue en soi un signal d'alerte.
La première concerne la rétention des données. Vos prompts et les réponses générées sont-ils stockés ? Pendant combien de temps ? Sont-ils utilisés pour l'entraînement de futures versions du modèle ? Anthropic, sur ses plans Enterprise et Team, garantit depuis 2024 que les données clients ne servent pas à l'entraînement. Mais tous les fournisseurs n'offrent pas cette garantie — et la politique par défaut des plans gratuits ou grand public est souvent l'inverse.
La deuxième porte sur la juridiction d'hébergement. Où sont physiquement traités vos prompts ? Sous quelle législation ? Pour un cabinet d'avocats soumis au secret professionnel ou un courtier manipulant des données de santé, la différence entre un traitement en Europe (RGPD) et un traitement aux États-Unis (Cloud Act) n'a rien d'anodin.
Troisième question : le chiffrement. Les données sont-elles chiffrées en transit ET au repos ? Qui détient les clés de chiffrement ? Le chiffrement de bout en bout, où seul le client détient les clés, reste rare dans le secteur — mais c'est le standard que devraient exiger les secteurs réglementés.
Quatrième : la détection d'anomalies. Votre fournisseur surveille-t-il les patterns d'utilisation anormaux sur ses API ? L'affaire DeepSeek montre que cette surveillance est possible mais pas infaillible. Un fournisseur qui ne peut pas vous décrire son dispositif de détection ne peut pas non plus vous garantir que vos données ne font pas l'objet d'une extraction silencieuse.
Cinquième et dernière : la gouvernance interne. 86 % des grandes entreprises françaises ont une charte IA selon KPMG, mais combien l'appliquent réellement ? Le meilleur fournisseur du monde ne protégera pas vos données si vos collaborateurs contournent le cadre officiel en utilisant des comptes personnels. La formation, le monitoring des usages et l'existence d'un outil validé et accessible sont les trois piliers d'une politique IA qui tient la route.
L'affaire de distillation par DeepSeek, MiniMax et Moonshot marque un tournant. Pas parce qu'elle est la première — ce type d'exploitation existe depuis les débuts des grands modèles de langage. Mais parce qu'elle rend visible, avec des chiffres concrets et des noms, ce qui était jusqu'ici abstrait. 16 millions de requêtes, c'est un nombre que tout COMEX peut comprendre. Et c'est le genre de nombre qui fait bouger les lignes.
Pour les entreprises françaises en pleine phase d'industrialisation de l'IA — 60 % des grandes entreprises selon KPMG —, le message est simple : la sécurité n'est pas un frein à l'adoption, c'est sa condition préalable. Mieux vaut investir quelques semaines dans un cadre solide que de découvrir, six mois plus tard, que vos contrats clients ont transité par des serveurs dont vous ne connaissiez même pas l'existence.
Vous souhaitez déployer Claude dans un cadre sécurisé, avec un accompagnement sur mesure ? ClaudIn est le premier intégrateur Claude Cowork en Europe. Réservez une démo pour découvrir comment structurer votre déploiement IA en toute conformité.