Ce qui s’est passé — chronologie établie
Ce dossier a évolué rapidement depuis notre premier article. Voici les faits établis, dans l’ordre.
Janvier 2026. Le secrétaire à la Défense Pete Hegseth publie une directive exigeant que tous les contrats d’IA du Pentagone incluent une clause “any lawful use” — utilisation pour toutes fins légales, sans restriction imposée par le fournisseur. La majorité des contractants — Google, OpenAI, xAI d’Elon Musk — acceptent sans résistance notable.
Février 2026. Anthropic refuse. Ses deux lignes rouges sont explicites : pas d’utilisation de Claude pour la surveillance de masse des citoyens américains, et pas d’intégration dans des systèmes d’armes autonomes capables de tuer sans supervision humaine. Hegseth fixe un ultimatum au 27 février.
27 février 2026. À l’expiration de l’ultimatum, Hegseth désigne Anthropic comme “risque pour la chaîne d’approvisionnement en matière de sécurité nationale” — une désignation jamais appliquée auparavant à une entreprise américaine. Trump ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser les produits d’Anthropic. Le même soir, OpenAI annonce avoir signé un accord avec le Pentagone pour déployer ses modèles dans des réseaux militaires classifiés.
Réaction immédiate du marché. Le lendemain de l’interdiction, l’application Claude atteint la première place de l’App Store américain, dépassant ChatGPT. Plus d’un million de nouveaux utilisateurs s’inscrivent quotidiennement. Un chercheur principal d’OpenAI annonce rejoindre Anthropic. La responsable de l’équipe robotique d’OpenAI démissionne, citant le nouveau contrat militaire. Près de 900 employés de Google et OpenAI signent une lettre ouverte demandant à leurs directions de refuser les demandes de surveillance de masse ou de ciblage létal autonome — les mêmes lignes rouges qu’Anthropic avait défendues.
9 mars 2026. Anthropic dépose une plainte devant un tribunal fédéral de Californie, qualifiant la désignation de “campagne illégale de représailles” et invoquant la protection constitutionnelle de la liberté d’expression. 37 ingénieurs et chercheurs d’OpenAI et Google DeepMind — dont Jeff Dean, scientifique en chef de Google — déposent un mémoire volontaire en soutien, avertissant que la mise à l’index d’Anthropic menace la compétitivité de l’ensemble de l’industrie américaine de l’IA.
12 mars 2026. Microsoft — premier prestataire informatique du Pentagone — dépose un amicus curiae pour soutenir la demande de suspension d’Anthropic. L’entreprise avertit qu’une interdiction immédiate pourrait “entraver les combattants américains à un moment critique”. Microsoft a investi jusqu’à 5 milliards de dollars dans Anthropic.
Mi-mars 2026 — La guerre des PDG. Dario Amodei a publiquement dénoncé l’accord entre OpenAI et le Pentagone, le qualifiant de “simulacre de sécurité” (safety theater), tout en accusant Sam Altman de “mensonges délibérés”. En réponse, Altman a affirmé qu’il était “préjudiciable à la société” de rejeter les institutions démocratiques sous prétexte d’une opposition au gouvernement actuel. Cette réplique visait à contrer les attaques d’Amodei, qui lui reprochait son allégeance ostentatoire envers Donald Trump, la comparant à des “louanges faites à un dictateur”.
19 mars 2026 — Recrutement d’experts en armement. Anthropic publie une offre d’emploi sur LinkedIn pour un “Policy Manager, Chemical Weapons and High Yield Explosives” — rémunéré entre 245 000 et 285 000 dollars annuels. Le candidat devra disposer d’au moins cinq ans d’expérience dans la défense contre les armes chimiques et les explosifs, et posséder des connaissances sur les dispositifs de dispersion radiologique. Sa mission : concevoir et superviser les garde-fous encadrant la réaction des modèles d’IA d’Anthropic aux requêtes portant sur ces domaines sensibles, et mettre en œuvre des “réponses rapides” en cas d’escalade détectée. OpenAI recrute simultanément un chercheur spécialisé dans les risques biologiques et chimiques pour son équipe Preparedness, chargée de surveiller les risques catastrophiques liés aux modèles d’IA de pointe.
Situation au 19 mars 2026. Le recours judiciaire est en cours. Anthropic bénéficie d’une période de transition de six mois accordée au Pentagone pour retirer Claude de ses systèmes. L’accès commercial et individuel à Claude n’est pas affecté par la désignation. Palantir, contractant majeur de la défense, utilisait toujours Claude mi-mars.
Ce qui est débattu
OpenAI a-t-il trahi ses principes ? Sam Altman a admis que le timing de sa signature “semblait opportuniste et bâclé”. Les conditions exactes de l’accord d’OpenAI avec le Pentagone — notamment la portée réelle de ses propres “red lines” — restent opaques, en dépit des déclarations publiques d’Altman affirmant partager les lignes rouges d’Anthropic. La guerre des PDG qui a suivi a rendu le débat encore plus difficile à lire sereinement.
Le recrutement d’experts en armement — prudence ou contradiction ? Anthropic et OpenAI recrutent des experts en armes chimiques et explosifs pour prévenir les mésusages catastrophiques de leurs IA. Certains chercheurs s’interrogent : donner à un modèle d’IA des informations détaillées sur les armes, même à des fins défensives, ne crée-t-il pas ses propres risques ? La chercheuse Stephanie Hare a posé publiquement cette question. D’autres estiment que ne pas le faire est pire — qu’un modèle ignorant des mécanismes de danger est un modèle moins capable de les reconnaître et de les refuser.
La désignation est-elle juridiquement fondée ? Plusieurs juristes estiment que la base légale du classement “supply-chain risk” est fragile, aucune violation de sécurité n’ayant été démontrée. Dean Ball, ancien conseiller en politique IA de l’administration Trump, a publiquement qualifié l’interprétation de Hegseth d‘“illégale à coup sûr” et de “tentative de meurtre d’entreprise”.
Le Pentagone bluffait-il ? Claude aurait été utilisé lors d’opérations militaires en Iran quelques heures après l’annonce de l’interdiction. Palantir utilisait toujours Claude mi-mars. Ce qui suggère que la désignation est davantage une démonstration de force politique qu’une séparation opérationnelle réelle.
Ce qui reste hypothétique
L’issue du recours judiciaire est incertaine. Les arguments constitutionnels d’Anthropic sont solides selon plusieurs juristes, mais l’administration Trump dispose de marges de manœuvre politiques et administratives considérables.
L’effet d’entraînement sur l’industrie. Si Anthropic obtient gain de cause, d’autres entreprises d’IA pourraient être encouragées à maintenir leurs propres garde-fous éthiques face aux contrats militaires. Si elle perd, l’effet inverse est probable — et potentiellement durable.
Le recrutement d’experts en armement changera-t-il quelque chose en pratique ? C’est une démarche sérieuse et coûteuse. Mais son efficacité réelle dépendra de l’indépendance accordée à ces experts au sein des entreprises — et de la capacité des modèles à intégrer leurs recommandations sans que cela crée de nouvelles vulnérabilités.
L’IPO d’Anthropic, prévue pour 2026, sera directement influencée par l’issue de ce bras de fer. La valorisation actuelle de 380 milliards de dollars repose en partie sur la stabilité de contrats gouvernementaux et entreprises qui pourraient être fragilisés par la désignation.
Notre position — clairement identifiée comme telle
Nous l’avons écrit dès le début : nous choisissons de bâtir HUMANITY.NET sur les principes d’Anthropic en matière d’honnêteté, de non-manipulation et de protection de l’autonomie épistémique.
Ce dossier confirme que ces principes ne sont pas que du marketing. Refuser la surveillance de masse et les armes autonomes sans supervision humaine — au prix de milliards de dollars de revenus et d’un affrontement direct avec l’administration américaine — est un acte concret, pas une déclaration de principe. Recruter des experts en armement pour prévenir les mésusages catastrophiques plutôt que pour les faciliter l’est tout autant.
Qui décide des conditions dans lesquelles l’IA peut être utilisée pour surveiller des citoyens ou déclencher des frappes létales ? Cette question n’est pas technique. Elle est politique, éthique, et fondamentalement humaine.
C’est le genre de question que nous refusons de laisser sans réponse, et pour laquelle HUMANITY.NET a été créé.
Article mis à jour le 19 mars 2026 — les développements juridiques sont en cours et cet article sera actualisé en fonction des décisions de justice.