Anthropic contre le Pentagone : un conflit tech aux enjeux nationaux

Temps de lecture : 3 min

Ce qu’il faut retenir

  • Contestation : Anthropic rejette les accusations de risque pour la sécurité nationale, pointant des malentendus techniques.
  • Expertise : Les déclarations sous serment s’appuient sur des profils ayant une solide expérience gouvernementale et technique.
  • Enjeu : Le litige questionne la frontière entre innovation privée, liberté d’expression et impératifs de défense.

Un bras de fer judiciaire aux implications majeures

Je scrute ce dossier depuis son éclatement, et il cristallise une tension fondamentale de notre époque : celle entre l’innovation technologique privée et les prérogatives régaliennes de l’État. Anthropic a déposé deux déclarations sous serment devant un tribunal fédéral californien, ripostant vertement à l’affirmation du Pentagone selon laquelle la société d’IA représenterait un « risque inacceptable pour la sécurité nationale ». Dans les faits, l’entreprise argue que le gouvernement s’appuie sur des incompréhensions techniques et des allégations jamais soulevées lors des mois de négociations précédentes.

Ces documents accompagnent le mémoire de réponse d’Anthropic dans son procès contre le Département de la Défense, déposés en vue d’une audience cruciale prévue ce mardi 24 mars 2026. Le conflit remonte à fin février, lorsque l’administration a annoncé publiquement rompre ses liens avec Anthropic après que la société a refusé d’autoriser un usage militaire sans restriction de sa technologie.

Le témoignage de Sarah Heck : une négociation en porte-à-faux

Ce qu’il faut comprendre, c’est que le profil des déclarants n’est pas anodin. Sarah Heck, responsable des politiques chez Anthropic, est une ancienne du Conseil de Sécurité Nationale sous l’administration Obama. Elle était présente à la réunion du 24 février entre le PDG Dario Amodei et le Secrétaire à la Défense. Dans sa déclaration, elle qualifie de « fausseté centrale » l’affirmation du gouvernement selon laquelle Anthropic aurait réclamé un droit de regard sur les opérations militaires. « À aucun moment lors des négociations, moi ou tout autre employé d’Anthropic n’avons déclaré que l’entreprise souhaitait ce genre de rôle », écrit-elle.

En clair, elle souligne également que la crainte du Pentagone qu’Anthropic puisse désactiver ou altérer sa technologie en cours d’opération n’a jamais été évoquée lors des pourparlers, émergeant uniquement dans les documents judiciaires, sans laisser à l’entreprise la possibilité d’y répondre.

Un détail de sa déclaration est particulièrement révélateur : le 4 mars, soit le lendemain de la finalisation officielle de la désignation de risque par le Pentagone, un haut responsable du département a envoyé un courriel à Amodei indiquant que les deux parties étaient « très proches » d’un accord sur les deux points que le gouvernement cite désormais comme preuve de la menace – à savoir les positions sur les armes autonomes et la surveillance de masse. La chronologie établie par Heck, juxtaposant ce courriel privé aux déclarations publiques ultérieures plus dures, laisse planer une question sur la nature réelle de cette désignation.

L’analyse technique de Thiyagu Ramasamy : l’impossible « kill switch »

L’autre déclaration, celle de Thiyagu Ramasamy, responsable du secteur public chez Anthropic, apporte un éclairage technique crucial. Avec son passé chez Amazon Web Services à gérer des déploiements d’IA pour des clients gouvernementaux, il démonte l’argument de l’ingérence opérationnelle. Selon lui, une fois le modèle Claude déployé dans un système « air-gapped » (isolé) sécurisé par le gouvernement et opéré par un sous-traitant tiers, Anthropic n’y a plus aucun accès.

Dans les faits, il n’existerait ni interrupteur d’arrêt à distance, ni porte dérobée, ni mécanisme pour pousser des mises à jour non autorisées. Toute modification nécessiterait l’approbation explicite et l’action du Pentagone pour être installée. L’entreprise ne pourrait même pas voir ce que les utilisateurs gouvernementaux saisissent dans le système. Ramasamy conteste aussi l’idée que l’embauche de ressortissants étrangers constituerait un risque, notant que le personnel concerné a subi les procédures d’habilitation de sécurité américaines.

Un conflit aux racines constitutionnelles et business

La plainte d’Anthropic soutient que cette première désignation de risque appliquée à une entreprise américaine équivaut à des représailles gouvernementales pour ses positions publiques sur la sécurité de l’IA, violant ainsi le Premier Amendement. Le gouvernement, dans un mémoire de 40 pages, rejette totalement cette interprétation. Il affirme que le refus d’Anthropic d’autoriser tous les usages militaires légaux de sa technologie était une décision commerciale, non un discours protégé, et que la désignation était un choix de sécurité nationale, non une punition.

Je vois dans ce dossier bien plus qu’un simple litige contractuel. C’est un test pour définir les limites de la responsabilité des géants de l’IA, la portée de leur liberté d’expression sur l’usage de leurs créations, et la manière dont l’État peut encadrer des technologies duales par nature. L’audience de mardi prochain sera une étape clé à suivre pour quiconque s’intéresse à l’impact business et sociétal de l’intelligence artificielle.