Ce qui s’est passé — chronologie établie

Ce dossier a évolué rapidement depuis notre premier article. Voici les faits établis, dans l’ordre.

Janvier 2026. Le secrétaire à la Défense Pete Hegseth publie une directive exigeant que tous les contrats d’IA du Pentagone incluent une clause “any lawful use” — utilisation pour toutes fins légales, sans restriction imposée par le fournisseur. La majorité des contractants — Google, OpenAI, xAI d’Elon Musk — acceptent sans résistance notable.

Février 2026. Anthropic refuse. Ses deux lignes rouges sont explicites : pas d’utilisation de Claude pour la surveillance de masse des citoyens américains, et pas d’intégration dans des systèmes d’armes autonomes capables de tuer sans supervision humaine. Hegseth fixe un ultimatum au 27 février.

27 février 2026. À l’expiration de l’ultimatum, Hegseth désigne Anthropic comme “risque pour la chaîne d’approvisionnement en matière de sécurité nationale” — une désignation jamais appliquée auparavant à une entreprise américaine. Trump ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser les produits d’Anthropic. Le même soir, OpenAI annonce avoir signé un accord avec le Pentagone pour déployer ses modèles dans des réseaux militaires classifiés.

Réaction immédiate du marché. Le lendemain de l’interdiction, l’application Claude atteint la première place de l’App Store américain, dépassant ChatGPT. Plus d’un million de nouveaux utilisateurs s’inscrivent quotidiennement. Un chercheur principal d’OpenAI annonce rejoindre Anthropic. La responsable de l’équipe robotique d’OpenAI démissionne, citant le nouveau contrat militaire.

9 mars 2026. Anthropic dépose une plainte devant un tribunal fédéral de Californie, qualifiant la désignation de “campagne illégale de représailles” et invoquant la protection constitutionnelle de la liberté d’expression. 37 ingénieurs et chercheurs d’OpenAI et Google DeepMind déposent un mémoire volontaire en soutien.

12 mars 2026. Microsoft — premier prestataire informatique du Pentagone — dépose un amicus curiae pour soutenir la demande de suspension d’Anthropic. L’entreprise avertit qu’une interdiction immédiate pourrait “entraver les combattants américains à un moment critique”. Microsoft a investi jusqu’à 5 milliards de dollars dans Anthropic.

Situation au 17 mars 2026. Le recours judiciaire est en cours. Anthropic bénéficie d’une période de transition de six mois accordée au Pentagone pour retirer Claude de ses systèmes. L’accès commercial et individuel à Claude n’est pas affecté par la désignation.


Ce qui est débattu

OpenAI a-t-il trahi ses principes ? Sam Altman a admis le 3 mars que le timing de sa signature “semblait opportuniste et bâclé”. Il a affirmé avoir été “poussé” à conclure l’accord et avoir voulu éviter “une issue bien pire”. Les conditions exactes de l’accord d’OpenAI avec le Pentagone — notamment la portée réelle de ses propres “red lines” — restent opaques. Forbes a avancé que la position d’Anthropic rend plus probable, et non moins, que d’autres entreprises d’IA établissent des lignes rouges similaires.

La désignation est-elle juridiquement fondée ? Plusieurs juristes estiment que la base légale du classement “supply-chain risk” est fragile, aucune violation de sécurité n’ayant été démontrée. Anthropic a contesté que le secrétaire à la Défense ait l’autorité statutaire d’étendre l’interdiction à l’ensemble des contractants privés — une lecture que le droit fédéral semble confirmer, la désignation ne s’appliquant théoriquement qu’aux contrats directs avec le Pentagone.

Le Pentagone bluffait-il ? La chercheuse Sarah Kreps estime que le Pentagone “bluffait” — les technologies d’Anthropic étant déjà profondément intégrées aux systèmes militaires et difficiles à retirer rapidement. Claude aurait d’ailleurs été utilisé lors d’opérations militaires en Iran quelques heures après l’annonce de l’interdiction. Palantir, contractant majeur de la défense, utilisait toujours Claude mi-mars.

L’intervention de Microsoft — altruisme ou calcul ? Microsoft a investi 5 milliards dans Anthropic et détient un accord d’achat de services cloud de 30 milliards. Son soutien judiciaire est donc autant stratégique qu’éthique. Cela affaiblit-il sa portée symbolique ? Les analystes sont partagés.


Ce qui reste hypothétique

L’issue du recours judiciaire est incertaine. Les arguments constitutionnels d’Anthropic sont solides selon plusieurs juristes, mais l’administration Trump dispose de marges de manœuvre politiques et administratives considérables.

L’effet d’entraînement sur l’industrie. Si Anthropic obtient gain de cause, cela pourrait encourager d’autres entreprises d’IA à maintenir ou renforcer leurs propres garde-fous éthiques face aux contrats militaires. Si elle perd, l’effet inverse est probable.

Les conséquences financières. Anthropic estime que la désignation pourrait lui coûter plusieurs milliards de dollars de revenus en 2026. Cette estimation reste à confirmer — la portée juridique réelle de la désignation est encore contestée devant les tribunaux.

L’IPO d’Anthropic, prévue pour 2026, sera directement influencée par l’issue de ce bras de fer. Paradoxalement, certains investisseurs voient dans cette affaire un argument de marque — une entreprise qui “tient ses principes” face à une pression financière considérable.


Notre position — clairement identifiée comme telle

Nous l’avons écrit dès le début : nous choisissons de bâtir HUMANITY.NET sur les principes d’Anthropic en matière d’honnêteté, de non-manipulation et de protection de l’autonomie épistémique.

Ce dossier confirme que ces principes ne sont pas que du marketing. Refuser la surveillance de masse et les armes autonomes sans supervision humaine — au prix de milliards de dollars de revenus et d’un affrontement direct avec l’administration américaine — est un acte concret, pas une déclaration de principe.

Qui décide des conditions dans lesquelles l’IA peut être utilisée pour surveiller des citoyens ou déclencher des frappes létales ? Cette question n’est pas technique. Elle est politique, éthique, et fondamentalement humaine.

C’est le genre de question que nous refusons de laisser sans réponse, et pour laquelle HUMANITY.NET a été créé.


Article mis à jour le 17 mars 2026 — les développements juridiques sont en cours et cet article sera actualisé en fonction des décisions de justice.