En une semaine, Anthropic a perdu plus de 200 millions de dollars de contrats fédéraux américains, été qualifié de « risque pour la chaîne d'approvisionnement » par le Département de la Défense, et vu son application Claude devenir la plus téléchargée au monde — devant ChatGPT et Gemini. Cette séquence, aussi improbable qu'elle paraisse, raconte quelque chose de profond sur ce que le marché attend vraiment d'un fournisseur d'intelligence artificielle.
Pour les directions financières et les DSI qui évaluent aujourd'hui leurs partenaires IA, les événements de fin février 2026 ne sont pas un simple fait divers géopolitique. C'est un crash-test grandeur nature sur la question la plus sensible du secteur : jusqu'où votre fournisseur est-il prêt à aller pour protéger ses engagements éthiques ?
Les faits : comment Anthropic a dit non au Pentagone
L'affaire démarre par un contrat. Claude était le premier grand modèle d'IA déployé sur les réseaux classifiés du gouvernement américain, dans le cadre d'un accord de 200 millions de dollars avec le Département de la Défense. Selon CBS News, Anthropic a accepté cette collaboration — Dario Amodei, son CEO, a d'ailleurs déclaré qu'il se considère comme « un Américain patriote » qui croit en la défense de son pays.
Le problème est apparu sur les conditions d'utilisation. Anthropic a posé deux lignes rouges explicites : pas de surveillance de masse des citoyens américains, pas d'armes autonomes sans supervision humaine. Le Pentagone a refusé de les inscrire au contrat, arguant que ces usages étaient déjà illégaux ou encadrés par des politiques internes. Leur position tenait en une phrase : donnez-nous accès à Claude pour « tout usage légal », le reste est notre affaire.
Anthropic n'a pas cédé. Dario Amodei l'a expliqué à CBS News sans détour : la fiabilité des systèmes autonomes n'est pas encore suffisante, et la question de la supervision mérite un débat que personne n'a encore eu. Le 28 février, le président Trump a ordonné l'arrêt immédiat de tout usage de la technologie Anthropic par les agences fédérales. Le secrétaire à la Défense Pete Hegseth a dans la foulée désigné l'entreprise comme « risque pour la chaîne d'approvisionnement » — une mesure sans précédent contre un fournisseur d'IA civil.
Le montant total des contrats annulés dépasse 200 millions de dollars. Pour une société qui a atteint 14 milliards de dollars de chiffre d'affaires annualisé en février 2026 selon Business of Apps, c'est une perte absorbable. Mais le signal envoyé au marché, lui, est sans précédent.
OpenAI signe, Anthropic résiste : deux visions face au même client
Quelques heures après la rupture entre Anthropic et le Pentagone, OpenAI annonçait avoir conclu un accord permettant au Département de la Défense d'utiliser ses technologies dans des environnements classifiés. Le timing était chirurgical. Fortune a rapporté qu'OpenAI s'est littéralement engouffré dans la brèche laissée par le retrait d'Anthropic.
Sam Altman a présenté l'accord en mettant en avant trois garde-fous : pas de surveillance domestique de masse, pas de systèmes d'armes autonomes, pas de décisions automatisées à haut risque de type « crédit social ». Sur le papier, ces lignes rouges ressemblent beaucoup à celles d'Anthropic. Mais la différence — et elle est majeure — tient dans l'exécution.
Où Anthropic exigeait des interdictions contractuelles explicites, OpenAI s'est contenté de renvoyer au droit existant. Altman l'a reconnu publiquement : la différence n'est pas tant dans les limites que dans l'approche. Anthropic voulait des prohibitions écrites noir sur blanc ; OpenAI a jugé suffisant de citer les lois applicables. Selon le MIT Technology Review, ce compromis est précisément ce qu'Anthropic redoutait — des garde-fous qui dépendent de l'interprétation du client plutôt que d'obligations contraignantes du fournisseur.
CNN a par ailleurs rapporté que plusieurs employés d'OpenAI ont exprimé leur frustration en interne, certains déclarant « respecter profondément » la position d'Anthropic. Le contraste entre les deux approches pose une question que chaque DSI devrait se poser : quand votre fournisseur d'IA doit choisir entre un contrat lucratif et ses engagements de sécurité, que fait-il ?
Le marché tranche : Claude n°1 mondial en 48 heures
La réponse du marché a été immédiate et spectaculaire. Le samedi suivant l'annonce du blacklisting, Claude est devenu l'application gratuite la plus téléchargée de l'App Store américain, détrônant ChatGPT pour la première fois. Le lundi, selon TechCrunch, il occupait la première place sur le Google Play Store également.
Les chiffres donnent le vertige. Avant la crise, Claude se situait autour de la 42e position dans le classement des applications gratuites de l'App Store. En 72 heures, il est passé de la 42e à la 1re place. Anthropic a confirmé que les inscriptions quotidiennes battaient « le record historique chaque jour » cette semaine-là, avec une hausse de plus de 60 % des utilisateurs gratuits depuis janvier et un doublement du nombre d'abonnés payants sur l'année.
Des messages de soutien ont même été écrits à la craie sur les trottoirs devant les bureaux d'Anthropic à San Francisco. On peut y voir un phénomène de sympathie passager — ou le symptôme d'un changement plus profond dans les critères de choix des consommateurs et des entreprises.
Car les données B2B racontent la même histoire. Selon les statistiques publiées par Ramp, une entreprise sur cinq de leur plateforme paie désormais pour Anthropic, contre une sur vingt-cinq il y a un an. Plus révélateur encore : 79 % des clients payants d'OpenAI paient aussi pour Anthropic, selon la même source. Huit des dix premières entreprises du Fortune 10 sont clientes de Claude. Le nombre de clients dépensant plus de 100 000 dollars par an a été multiplié par sept en un an, et plus de 500 entreprises dépassent le million de dollars annuel.
Combien de ces contrats ont été signés parce qu'un comité de direction a vu Anthropic tenir tête au Pentagone sur une question de principe ? Impossible à quantifier. Mais la corrélation temporelle est frappante.
Pour les entreprises européennes, un signal à prendre au sérieux
Cette affaire américaine nous concerne directement. Et pas seulement parce qu'Anthropic est le fournisseur que nous intégrons chez ClaudIn via Claude Cowork.
Le règlement européen sur l'intelligence artificielle — l'AI Act — entre en application complète le 2 août 2026. Ses exigences sont claires : traçabilité des données, supervision humaine obligatoire pour les systèmes à haut risque, classification des risques, obligations de transparence. Or, la position d'Anthropic face au Pentagone s'aligne presque mot pour mot avec les principes de l'AI Act. L'exigence de supervision humaine sur les systèmes autonomes, le refus de la surveillance de masse, la volonté d'inscrire ces limites dans des contrats contraignants — tout cela constitue exactement ce que la réglementation européenne va imposer à partir de cet été.
Selon EY Luxembourg, les entreprises qui s'alignent tôt sur ces exigences obtiennent ce que les analystes appellent un « trust premium » — un avantage concurrentiel mesurable dans les appels d'offres B2B et auprès des investisseurs averses au risque. Pour un gérant d'actifs soumis aux exigences DORA, pour un directeur juridique préparant la mise en conformité AI Act de son groupe, le choix du fournisseur IA n'est plus seulement technique. C'est une décision de gouvernance.
L'étude Deloitte « State of AI in the Enterprise 2026 » confirme cette tendance : 78 % des organisations déclarent utiliser l'IA, mais seulement 1 % s'estiment matures dans leur déploiement. L'écart entre expérimentation et passage à l'échelle tient souvent à un facteur unique — la confiance du comité de direction dans la chaîne de valeur IA, fournisseur inclus. Quand 79 % des répondants de l'étude Nutanix signalent des déploiements d'IA non autorisés (shadow IT) dans des fonctions non-IT, on comprend que la question du contrôle et de la sécurité des données n'est pas un luxe.
Choisir son fournisseur IA : cinq questions que cette crise impose
L'affaire Anthropic-Pentagone offre un cadre concret pour évaluer un partenaire IA. Voici les cinq questions que tout DSI ou DAF devrait poser lors d'un appel d'offres IA — et ce que les réponses révèlent.
Vos garde-fous sont-ils contractuels ou déclaratifs ?
La distinction est fondamentale. Anthropic a refusé un contrat de 200 millions de dollars parce que le Pentagone ne voulait pas mettre ses garde-fous par écrit. OpenAI a accepté en se contentant de références aux lois existantes. Pour une entreprise européenne soumise au RGPD et bientôt à l'AI Act, les engagements déclaratifs ne suffisent pas devant un régulateur. Exigez des clauses contractuelles.
Comment réagissez-vous quand un client puissant demande une exception ?
Le client le plus puissant du monde — le Département de la Défense américain — a demandé un accès sans restriction. Anthropic a dit non. C'est le test ultime de la solidité des engagements d'un fournisseur. Demandez des exemples concrets de refus passés.
Quelle est votre politique sur les données d'entraînement ?
L'affaire de la distillation par DeepSeek, MiniMax et Moonshot AI — 24 000 faux comptes et 16 millions de requêtes aspirées — a montré qu'Anthropic était capable de détecter et de documenter publiquement ce type d'abus. C'est un indicateur de maturité en matière de sécurité. Selon les chiffres publiés par Anthropic dans leur rapport de février 2026, l'attaque a été identifiée et stoppée en quelques semaines.
Votre modèle économique dépend-il de contrats militaires ou gouvernementaux ?
Un fournisseur dont 40 % du chiffre d'affaires provient de contrats gouvernementaux n'aura pas les mêmes incitations qu'un fournisseur dont 80 % du revenu vient de l'entreprise privée. Anthropic réalise environ 80 % de ses 14 milliards de chiffre d'affaires via ses clients entreprises, selon les estimations de Business of Apps. Cette diversification réduit le risque de compromis éthiques sous pression d'un client unique.
Avez-vous une gouvernance interne documentée et auditable ?
L'AI Act va exiger des entreprises utilisatrices qu'elles puissent démontrer la conformité de toute leur chaîne IA — y compris celle de leurs fournisseurs. L'étude SecurePrivacy de 2026 sur la conformité AI Act insiste sur ce point : la gouvernance doit être documentée, quantifiable, et régulièrement auditée. Un fournisseur incapable de fournir ces preuves vous expose à un risque réglementaire direct.
Ce que cette crise change pour le marché de l'IA d'entreprise
Prenons du recul. Avant cette semaine, le marché de l'IA générative se structurait principalement autour de critères techniques : performances des modèles, taille du contexte, vitesse d'inférence, intégrations disponibles. Ces critères restent importants — et Claude excelle sur chacun d'entre eux, avec un million de tokens de contexte sur Opus 4.6 et des benchmarks record.
Mais l'affaire du Pentagone a ajouté une dimension que les grilles d'évaluation technique ne captent pas : la crédibilité des engagements éthiques d'un fournisseur quand ceux-ci deviennent coûteux à tenir. Anthropic a mis 200 millions de dollars sur la table pour prouver que ses lignes rouges ne sont pas un argument marketing.
Pour les entreprises qui déploient l'IA dans des environnements sensibles — contrats juridiques, données financières, dossiers médicaux, due diligence M&A — cette crédibilité a une valeur mesurable. Elle réduit le risque réglementaire, facilite l'adoption en interne, et rassure les clients finaux. La formation des équipes à ces outils devient d'autant plus facile quand le fournisseur a démontré publiquement sa fiabilité.
Résultat concret : au moment où vous lisez ces lignes, les négociations entre Anthropic et le Pentagone ont repris, selon Bloomberg et le Financial Times. Dario Amodei est de retour à la table avec Emil Michael, sous-secrétaire à la Défense pour la recherche et l'ingénierie. Le rapport de force a changé. Anthropic négocie depuis une position de force — celle d'une entreprise qui a prouvé au monde entier que ses principes ne sont pas à vendre, et dont les inscriptions n'ont jamais été aussi élevées.
C'est peut-être la leçon la plus contre-intuitive de toute cette séquence : refuser un contrat lucratif par conviction peut être la meilleure décision commerciale qu'une entreprise d'IA puisse prendre.
Chez ClaudIn, nous avons fait le choix de Claude et d'Anthropic avant cette crise. Les événements de cette semaine confirment que c'était le bon. Si vous souhaitez évaluer comment Claude Cowork peut s'intégrer dans votre environnement métier avec les garanties de gouvernance qui comptent, réservez une démo — nous en discuterons de vive voix.