Accueil > High-tech / Sciences > L’IA qui ne voulait pas tuer : l’éthique d’ Anthropic défie le Pentagone

L’IA qui ne voulait pas tuer : l’éthique d’ Anthropic défie le Pentagone

L’IA qui ne voulait pas tuer : l’éthique d’ Anthropic défie le Pentagone

Anthropic et son IA Claude : la startup qui a dit non au Pentagone et que Trump a blacklistée

mercredi 11 mars 2026, par N.E. Tatem

En mars 2026, Anthropic, la startup fondée par d’anciens d’OpenAI pour développer une IA “constitutionnellement” éthique, se retrouve au cœur d’un conflit sans précédent avec le gouvernement américain. Accusée d’avoir posé des limites contractuelles à l’usage militaire de son IA Claude, elle est blacklistée par le Pentagone, perdant des centaines de millions de dollars de contrats fédéraux. Sa riposte en justice, aussitôt soutenue par des ingénieurs de Google DeepMind et d’OpenAI eux-mêmes, pose une question qui dépasse largement le cas d’une startup : qui, de l’État ou des entreprises technologiques, fixe les règles de l’intelligence artificielle ?

  • 1. Anthropic : la startup qui veut changer les règles de l’IA

Origines et mission
Fondée en 2021 par Dario Amodei, Daniela Amodei et d’autres anciens d’OpenAI, Anthropic se positionne dès le départ comme un laboratoire d’IA « axé sur la sécurité ». Sa thèse centrale : les systèmes d’intelligence artificielle les plus avancés présentent des risques existentiels réels, et leur développement doit être accompagné de garde-fous robustes.

La société, basée à San Francisco, lève des milliards de dollars auprès d’Amazon, Google et d’autres investisseurs. Elle devient en quelques années l’un des acteurs les plus influents de la course mondiale à l’IA générative.

Guerre contre l’Iran, économie fragile et IA : décisifs pour l’avenir politique de Trump

Claude : l’IA au cœur du réacteur.
Claude est le grand modèle de langage (LLM) d’Anthropic, décliné en plusieurs versions, Claude Haiku, Sonnet et Opus, calibrées pour différents usages : productivité professionnelle, codage, analyse complexe, et applications gouvernementales. Contrairement à ChatGPT ou Gemini, Claude est pensé autour d’une philosophie dite « constitutionnelle » : l’IA est entraînée à respecter un ensemble de principes éthiques explicites.

Fait notable : le jour suivant la rupture officielle avec le Pentagone, Claude a dépassé ChatGPT dans les classements de l’App Store iPhone pour la première fois de son histoire. Plus d’un million de nouveaux utilisateurs s’inscrivent chaque jour à la plateforme selon les chiffres de l’entreprise publiés début mars 2026.

  • 2. La chronologie d’une rupture explosive avec le Pentagone

Un partenariat pionnier et fragile
Anthropic avait conclu un contrat de 200 millions de dollars avec le département américain de la Défense en juillet 2025. Elle était alors le premier laboratoire d’IA de premier plan autorisé à déployer ses modèles sur les réseaux classifiés du Pentagone — un accès extraordinaire, symbole de la confiance accordée à la startup.

Les modèles Claude ont été utilisés pour des missions d’analyse du renseignement, de simulation, de planification opérationnelle, de cyberdéfense — et même, selon des sources gouvernementales, pour soutenir les opérations militaires américaines en Iran en début d’année 2026.

Les deux lignes rouges d’Anthropic
À l’heure du renouvellement contractuel, Anthropic pose deux conditions non négociables :
• Claude ne sera pas utilisé pour de la surveillance de masse des citoyens américains.
• Claude ne sera pas déployé pour des armes autonomes létales sans supervision humaine.
Le Pentagone, lui, exige un accès sans restriction pour « toutes utilisations légales », refusant qu’un contractant privé s’immisce dans les décisions opérationnelles militaires.

L’escalade : Truth Social, licenciements et blacklist
Le 27 février 2026, le président Donald Trump publie sur Truth Social un message incendiaire ordonnant à toutes les agences fédérales de cesser immédiatement toute utilisation des technologies Anthropic. Le secrétaire à la Défense Pete Hegseth annonce simultanément la désignation officielle d’Anthropic comme « risque pour la chaîne d’approvisionnement ». Trump déclarera plus tard à Politico avoir « renvoyé Anthropic comme des chiens ».

Conséquence directe : la General Services Administration (GSA) résilie le contrat « OneGov » d’Anthropic, supprimant l’accès de l’ensemble des branches du gouvernement américain aux outils de la société.

⚡ Parallèlement, OpenAI — le concurrent direct d’Anthropic — signe un accord avec le Pentagone quelques heures à peine après la désignation d’Anthropic. Une décision qualifiée d’opportuniste par de nombreux observateurs. OpenAI reconnaîtra plus tard que l’annonce semblait « bâclée et opportuniste » et rouvrira des négociations sur certaines clauses.

  • 3. La désignation « Supply Chain Risk » : une arme sans précédent

Un outil normalement réservé aux adversaires étrangers
La désignation de « risque pour la chaîne d’approvisionnement » (Supply Chain Risk Designation), encadrée par la loi 10 U.S.C. 3252, est historiquement utilisée contre des entreprises liées à des puissances étrangères hostiles. Son application à Anthropic — société américaine de droit privé — est sans précédent absolu selon les experts juridiques.

Concrètement, ce label oblige tous les fournisseurs et contractants du Pentagone à certifier qu’ils n’utilisent pas les modèles d’Anthropic dans le cadre de leurs contrats avec le ministère de la Défense. Les centaines de millions de dollars de revenus annuels d’Anthropic liés au secteur gouvernemental et à ses écosystèmes partenaires sont directement menacés.

L’impact financier chiffré
Dans ses documents de plainte, Anthropic précise que les actions gouvernementales pourraient réduire son chiffre d’affaires 2026 de « plusieurs milliards de dollars », en prenant en compte une lecture maximale de la désignation par certains clients. La société demande une injonction d’urgence pour pouvoir continuer à servir ses partenaires militaires pendant la durée du litige.

Quel budget au Pentagone, quand s’aggrave la montée de la Chine et de la Russie ?

La réaction juridique d’Anthropic
Le 9 mars 2026, Anthropic dépose deux plaintes simultanées : l’une devant le tribunal fédéral du district nord de Californie à San Francisco, l’autre devant la cour d’appel fédérale de Washington D.C. La société demande l’annulation de la désignation, le blocage de son application, et le retrait des directives ordonnant aux agences fédérales d’abandonner ses services.

Les plaintes accusent l’administration Trump de représailles inconstitutionnelles contre la liberté d’expression d’Anthropic (Premier Amendement), d’excès de pouvoir exécutif, et de violation des procédures d’équité procédurale.

⚖️ "La Constitution n’autorise pas le gouvernement à mobiliser son immense puissance pour punir une entreprise en raison de son expression protégée." Extrait des plaintes d’Anthropic déposées le 9 mars 2026.

  • 4. Une solidarité inédite dans l’industrie de l’IA

OpenAI et Google DeepMind : les rivaux au secours de la concurrence
Dans un geste rarissime, plus de 30 chercheurs et ingénieurs d’OpenAI et de Google DeepMind déposent le même jour un amicus brief (mémoire d’ami de la cour) en soutien à Anthropic. Parmi les signataires : Jeff Dean, directeur scientifique de Google DeepMind et l’une des figures les plus influentes de l’IA mondiale.

Ces employés, qui signent à titre personnel et non au nom de leurs entreprises, avertissent que la désignation du Pentagone crée une « imprévisibilité qui nuit à l’innovation américaine et à sa compétitivité » et « étouffe le débat professionnel ouvert sur les avantages et les risques des systèmes d’IA de frontière ».

L’argument central du brief
Le document fait valoir que si le Pentagone n’était plus satisfait des termes de son contrat avec Anthropic, il lui suffisait d’annuler ledit contrat — comme n’importe quelle partie peut le faire lors d’un désaccord commercial. Transformer une divergence de politique en désignation de risque pour la sécurité nationale constitue, selon les signataires, un abus de pouvoir grave.

Startups devancées par les Etats pour l’IA (Intelligence Artificielle).

  1. La désignation nuit à la compétitivité américaine dans l’IA face à la Chine et à d’autres puissances.
  2. En l’absence de cadre légal régulant l’IA, les garde-fous contractuels des développeurs sont le dernier rempart contre une utilisation catastrophique.
  3. Les lignes rouges d’Anthropic — armement autonome et surveillance de masse — sont des préoccupations légitimes, pas des obstacles à la gouvernance.

Sam Altman, PDG d’OpenAI, a lui-même déclaré publiquement : "L’application de la désignation SCR à Anthropic serait très mauvaise pour notre industrie et notre pays." Il a appelé le département de la Défense à revenir sur sa décision.

  • 5. Enjeux et perspectives : bien plus qu’un litige contractuel

Une question de principe pour tout le secteur technologique
L’affaire Anthropic dépasse largement le cas d’une startup contre un ministère. Elle soulève une question fondamentale pour l’ensemble de l’économie numérique américaine : une entreprise privée peut-elle maintenir des limites éthiques dans ses contrats avec le gouvernement, ou l’État peut-il exiger un accès total sous peine de représailles économiques ?

La réponse judiciaire aura des répercussions sur tous les secteurs technologiques — cloud, cybersécurité, biotechnologies — où des entreprises privées fournissent des capacités critiques aux agences gouvernementales.

Le précédent militaire de l’IA
Pour la première fois dans l’histoire, un tribunal américain sera potentiellement amené à définir les limites du droit d’un développeur d’IA à encadrer contractuellement l’usage militaire de ses systèmes. En l’absence de toute législation fédérale sur l’IA, ce sont les clauses contractuelles et les décisions de justice qui forgeront la doctrine.

Anthropic a indiqué qu’elle continuerait à soutenir les opérations du Pentagone « à coût nominal » pendant toute la durée du conflit militaire avec l’Iran, assurant que la procédure judiciaire ne compromet pas son engagement envers la sécurité nationale américaine.

Ce que disent les experts juridiques
Plusieurs spécialistes du droit public ont estimé que la désignation « supply chain risk » contre Anthropic dépasse ce que la loi autorise. Des avocats publiés dans la revue Lawfare ont soutenu que les propres déclarations publiques du secrétaire Hegseth avaient déjà compromis la position du gouvernement avant même que le litige ne débute.

L’ancien conseiller de la Maison Blanche sur l’IA Dean Ball — qui s’est prononcé contre le traitement infligé à Anthropic par Hegseth — nuance néanmoins : les tribunaux sont généralement réticents à contester les décisions gouvernementales en matière de sécurité nationale, mais « ce n’est pas impossible ».

  • 6. Ce qu’il faut retenir pour comprendre l’avenir de l’IA

L’affaire Anthropic/Pentagone cristallise les tensions de fond qui traversent l’industrie de l’IA en 2026. D’un côté, des entreprises qui ont construit leur modèle économique sur la promesse d’une IA responsable et encadrée. De l’autre, un État qui entend disposer librement des technologies qu’il finance ou avec lesquelles il contracte.

La question n’est pas seulement américaine. En Europe, en Chine, partout dans le monde, les gouvernements cherchent à maîtriser l’IA tout en dépendant des capacités privées pour la développer. Le verdict des tribunaux américains dans cette affaire sera scruté à l’échelle mondiale.

Mots-clés :anthropic pentagone, claude ia militaire, startup ia blacklistée, supply chain risk ia, anthropic dod lawsuit, ia éthique vs armée, dario amodei pentagone, claude ia 2026


Voir en ligne : IA - Trump - Pentagone

Un message, un commentaire ?

Forum sur abonnement

Pour participer à ce forum, vous devez vous enregistrer au préalable. Merci d’indiquer ci-dessous l’identifiant personnel qui vous a été fourni. Si vous n’êtes pas enregistré, vous devez vous inscrire.

GNU GPL