D’après une enquête du 27 février 2026 publiée par The Washington Post, un affrontement important oppose en coulisses la start-up américaine Anthropic, créatrice du modèle d’intelligence artificielle Claude, au département de la Défense des États-Unis. Ce conflit contractuel soulève une question plus large : qui contrôle vraiment les outils d’intelligence artificielle les plus avancés, et jusqu’où un État peut-il aller pour les utiliser à des fins militaires sans limites ? Selon le journal, le secrétaire à la Défense Pete Hegseth aurait donné un ultimatum à l’entreprise : lever certaines restrictions sur l’utilisation militaire de son IA, notamment pour les armes autonomes et la surveillance avancée, ou faire face à des conséquences contractuelles et juridiques. En jeu, il y a un contrat d’environ 200 millions de dollars, mais surtout la possibilité pour le Pentagone d’accéder à une IA de pointe sans les protections qu’Anthropic juge essentielles.
Anthropic joue un rôle central dans le secteur technologique. Fondée par d’anciens employés d’OpenAI, l’entreprise s’est engagée à créer une intelligence artificielle puissante, mais aussi sûre et limitée dans ses usages à haut risque. Contrairement à d’autres sociétés de la Silicon Valley, souvent plus ouvertes aux demandes du gouvernement, Anthropic a clairement défini des « red lines » : elle refuse l’automatisation de décisions létales et l’utilisation massive de l’IA pour la surveillance intérieure. C’est justement sur ces sujets que le Pentagone souhaite plus de souplesse. D’après les informations disponibles, l’administration américaine estime qu’il est stratégique de ne pas limiter ses capacités technologiques face à la concurrence internationale, notamment la Chine, dans un contexte de militarisation rapide de l’intelligence artificielle.

Le désaccord principal concerne l’autonomie de l’IA dans la prise de décision. Les responsables militaires pensent que l’IA pourrait accélérer l’analyse de données en cas de crise, améliorer la défense antimissile ou aider à la coordination tactique sur le terrain. Anthropic craint cependant que cela ne mène à des systèmes où l’humain ne serait plus qu’un superviseur de façade, voire un simple prétexte. La différence est importante : utiliser une IA pour trier des informations ou proposer des scénarios n’est pas la même chose que lui confier la sélection d’une cible ou l’autorisation d’une frappe. La limite entre assistance et délégation est fine, mais elle touche à des principes essentiels du droit international humanitaire et de la responsabilité politique. Qui serait responsable en cas d’erreur algorithmique ayant causé des victimes civiles ? L’ingénieur, l’entreprise, l’armée ou l’État ?
Read the full article
Sur Fréquence Populaire, il n’y a pas de mur payant (paywall) : tous nos articles sont accessibles gratuitement.
Nous vous demandons simplement de créer un compte gratuit avec votre adresse e-mail.
Cela nous permet de :
– vous prévenir de nos nouvelles enquêtes, émissions et articles,
– éviter la publicité et tout pistage intrusif,
– mieux comprendre combien de personnes nous lisent réellement.
Contribuer financièrement est facultatif : vous pouvez lire l’article sans payer. Mais si vous le pouvez, votre soutien nous aide à faire vivre un média libre et indépendant.
Créer un compte gratuit
