Anthropic vs. le Pentagone : la cour fédérale refuse de suspendre le bannissement

Une cour fédérale de Washington a refusé le 8 avril de suspendre le bannissement d'Anthropic par le Pentagone. L'affaire sera plaidée le 19 mai. Pendant ce temps, Anthropic annonce 30 milliards de dollars de revenus annualisés — un triplement en un trimestre qui dépasse OpenAI.

Sommaire

 

La décision de la cour fédérale de Washington

C’est un revers partiel mais symboliquement significatif pour Anthropic, la startup californienne d’intelligence artificielle créatrice du chatbot Claude. Le 8 avril 2026, une cour fédérale de Washington a refusé de suspendre le bannissement imposé par le Pentagone à ses technologies. Les trois juges fédéraux ont estimé que si Anthropic subissait « vraisemblablement un préjudice irréparable », celui-ci était « principalement financier », tandis que l’enjeu pour le gouvernement touchait à la sécurité des opérations du Pentagone « dans le cadre d’un conflit militaire actif ».

La décision, consultée par l’Agence France-Presse (AFP), maintient en vigueur une mesure contraignant les sous-traitants du Pentagone à certifier qu’ils n’utilisent pas les technologies d’Anthropic. Le ministre de la Justice par intérim Todd Blanche a salué sur X une « victoire retentissante », affirmant que les décisions éthiques « appartiennent au commandant en chef » et non « pas à une entreprise technologique ».

La cour a néanmoins reconnu le caractère sensible et urgent de l’affaire, convoquant les deux parties à plaider dès le 19 mai 2026. « Nous sommes reconnaissants que la cour ait reconnu la nécessité de résoudre rapidement ces questions », a réagi Anthropic dans un communiqué.

Les origines du conflit : lignes rouges éthiques vs. besoins militaires

La fracture entre Anthropic et l’administration Trump remonte au 27 février 2026. Ce jour-là, le Pentagone a désigné la startup comme un « risque pour la chaîne d’approvisionnement » — une mesure inédite pour une entreprise américaine, jusqu’alors réservée aux acteurs étrangers jugés hostiles.

La raison officielle : Anthropic a refusé que ses modèles d’IA soient utilisés pour deux usages spécifiques :

  • La surveillance de masse des citoyens américains
  • La programmation d’armes totalement autonomes, capables d’agir sans décision humaine

Ces deux refus constituent les « lignes rouges éthiques » de l’entreprise, codifiées dans ses conditions d’utilisation. En les maintenant fermement face à la pression gouvernementale, Anthropic s’est retrouvé en position de confrontation directe avec Pete Hegseth, Secrétaire à la Défense américain, dont une directive de mars 2026 a également classé Anthropic comme un « risque » pour les opérations classifiées du Pentagone.

L’effectivité juridique de ces sanctions fait toutefois débat : certains juristes estiment que les textes réglementaires nécessaires à leur pleine mise en œuvre font encore défaut.

Un front judiciaire à deux vitesses

La situation judiciaire d’Anthropic est complexe, avec des décisions contradictoires selon les juridictions :

Tribunal Date Décision
San Francisco (Californie) 26 mars 2026 ✅ Victoire Anthropic — suspension de la directive Hegseth + ordre Trump jusqu’au jugement au fond
Washington D.C. (fédéral) 8 avril 2026 ❌ Revers Anthropic — refus de suspension du bannissement « chaîne d’approvisionnement »
Cour d’appel fédérale 19 mai 2026 (audience) ⏳ À venir — examen accéléré du fond de l’affaire

Côté californien, une juge de San Francisco avait suspendu fin mars la directive de Pete Hegseth ainsi que l’ordre présidentiel demandant à toutes les agences fédérales de cesser d’utiliser les technologies d’Anthropic. Le gouvernement a fait appel de cette décision, mais l’audience n’aura pas lieu avant juin 2026 au plus tôt.

OpenAI prend la place, Anthropic bat des records

Le conflit avec le Pentagone s’est immédiatement transformé en opportunité commerciale pour OpenAI, rival direct d’Anthropic. Peu après la désignation, la société a annoncé avoir signé un contrat avec le Pentagone pour prendre le relais, affirmant avoir obtenu les garanties éthiques suffisantes sur les questions de surveillance de masse et d’armes autonomes.

« Le grand public et les médias nous voient comme les héros — nous sommes numéros 2 dans l’App Store ! »

— Dario Amodei, PDG d’Anthropic, cité dans la décision de la cour fédérale

La cour fédérale elle-même a relevé ce paradoxe, citant des déclarations du PDG d’Anthropic, Dario Amodei, à ses employés, ainsi qu’une analyse du média spécialisé Digiday estimant que l’opposition d’Anthropic au Pentagone « pourrait s’avérer être le meilleur investissement marketing de la Silicon Valley depuis des années ».

Sur le plan financier, l’entreprise se porte en tout cas très bien. Lundi 7 avril, Anthropic a annoncé une croissance « exponentielle » de ses revenus, multipliés par trois en un seul trimestre, revendiquant pour la première fois 30 milliards de dollars de revenus annualisés — un niveau qui dépasserait celui déclaré par OpenAI à la même période.

Cette bataille juridique et commerciale intervient dans un contexte de réflexion accrue en Europe sur les conditions d’utilisation des IA génératives dans les secteurs sensibles. Alors que le règlement européen sur l’IA (AI Act) impose des exigences strictes pour les systèmes d’IA dits « à haut risque » — notamment dans le domaine militaire et de la surveillance — l’affaire Anthropic illustre les tensions que ces règles visent précisément à anticiper. Elle alimente également le débat sur l’intégration des IA génératives dans les stratégies d’entreprise, dans un contexte où la confiance dans les fournisseurs d’IA devient un critère de choix décisif.

Questions fréquentes

L’essentiel à retenir

Le 8 avril, une cour fédérale de Washington a refusé de suspendre le bannissement d’Anthropic par le Pentagone. L’affaire sera plaidée le 19 mai 2026. Le Pentagone a désigné Anthropic comme « risque pour la chaîne d’approvisionnement » en février 2026, après que la startup a refusé que ses IA servent à surveiller des citoyens ou rendre des armes autonomes. Anthropic a dans le même temps annoncé 30 milliards de dollars de revenus annualisés, triplement en un trimestre.

 

Pourquoi le Pentagone a-t-il banni les technologies d’Anthropic ?

Le Pentagone a désigné Anthropic comme « risque pour la chaîne d’approvisionnement » en février 2026 après qu’Anthropic a refusé d’autoriser l’utilisation de ses IA pour la surveillance de masse des citoyens américains et pour rendre des armes totalement autonomes. Cette décision est inédite pour une entreprise américaine.

Qu’est-ce que le bannissement implique concrètement pour Anthropic ?

Les sous-traitants du Pentagone doivent désormais certifier qu’ils n’utilisent pas les technologies d’Anthropic. Cela exclut Anthropic d’une large partie du marché des contrats fédéraux américains, qui représente des milliards de dollars pour les fournisseurs d’IA.

Quelle est la prochaine étape judiciaire dans l’affaire Anthropic vs. Pentagone ?

La cour d’appel fédérale a fixé une audience accélérée au 19 mai 2026. Par ailleurs, le gouvernement a fait appel de la décision californienne favorable à Anthropic, avec une audience prévue au plus tôt en juin 2026.

Comment l’affaire Anthropic impacte-t-elle le marché européen de l’IA ?

Elle illustre les tensions entre éthique et usage militaire de l’IA, un débat au cœur de l’AI Act européen. En Europe, le règlement impose des exigences strictes pour les IA à haut risque, notamment dans les domaines de la défense et de la surveillance. L’affaire renforce la demande de transparence sur les politiques d’usage acceptables des grands fournisseurs d’IA.