Le bras de fer entre Washington et la start-up Anthropic révèle une tension profonde qui dépasse largement le cadre d’un conflit commercial ordinaire. En refusant de lever les restrictions d’usage encadrant son intelligence artificielle générative Claude, notamment pour interdire son utilisation à des fins de surveillance de masse ou d’automatisation d’attaques létales, Anthropic a provoqué une réaction d’une brutalité remarquable : son inscription sur la liste noire du Pentagone, avec interdiction immédiate pour tous ses prestataires de recourir à ses services. En toile de fond, la Chine s’invite dans le débat pour agiter le spectre de Terminator.
La posture de Pékin mérite d’être examinée avec le recul qu’elle impose. Jiang Bin, porte-parole du ministère chinois de la Défense, a déclaré mercredi que « poursuivre sans limite la militarisation de l’intelligence artificielle, l’utiliser comme un instrument pour violer la souveraineté d’autres nations, lui permettre d’influer excessivement sur les décisions de guerre et laisser les algorithmes détenir le pouvoir de vie ou de mort sur les êtres humains non seulement sape les fondements éthiques et les responsabilités en temps de guerre, mais risque également de provoquer une perte de contrôle technologique ».
« Une dystopie telle que celle dépeinte dans le film américain Terminator pourrait un jour devenir réalité. » Jiang Bin, porte-parole du ministère chinois de la Défense
On appréciera la leçon de modération venue de Pékin, qui n’est pas précisément connue pour sa retenue dans le domaine de la surveillance algorithmique de ses propres citoyens. Cela dit, la rhétorique n’invalide pas le fond. La mise en garde sur les risques d’une IA militaire désinhibée n’est pas fausse parce qu’elle émane d’un régime autoritaire. Elle est simplement suspecte dans la bouche de celui qui la prononce.
"China's ties in the Middle East extend far beyond Iran" : China has admitted that the events of the film 'Terminator' could become reality.
"The unrestricted use of artificial intelligence technologies for military purposes could lead to the events depicted in the American film… pic.twitter.com/ZrHq5I1pLh — Victor vicktop55 commentary (@vick55top) March 11, 2026
Quand la puissance publique force la main à l’éthique privée
Ce qui est en jeu ici est d’une autre nature et d’une portée considérable. L’administration Trump exige d’une entreprise privée qu’elle renonce aux garde-fous éthiques qu’elle s’est elle-même imposés, au nom des besoins militaires de l’État. Lorsqu’Anthropic refuse, Washington ne négocie pas : il sanctionne, bloque, exclut. Ce rapport de force dit quelque chose d’essentiel sur la façon dont les démocraties libérales gèrent, ou plutôt ne gèrent pas, la question de l’encadrement de l’IA à des fins militaires.
Il est révélateur que ce soit une entreprise privée, et non une loi, un traité ou une institution démocratique, qui joue ici le rôle de garde-fou. Anthropic n’est pas un parlement. Elle n’a pas de mandat populaire. Ses dirigeants ne rendent pas de comptes aux citoyens. Pourtant, c’est elle qui oppose une résistance là où les législateurs américains, européens ou onusiens n’ont pas su, ou voulu, établir des règles claires et contraignantes. Ce paradoxe devrait interpeller quiconque se soucie de la souveraineté démocratique à l’ère de l’intelligence artificielle.
L’affaire prend une dimension supplémentaire à la lumière des informations rapportées par plusieurs médias : les modèles d’IA d’Anthropic auraient été utilisés lors de la préparation de l’offensive américano-israélienne contre l’Iran. Si cette information est exacte, elle illustre concrètement ce que signifie une IA militaire sans restrictions : non plus un outil d’aide à la décision humaine, mais un composant actif de la planification d’opérations de guerre. La frontière entre assistance et autonomie se brouille dangereusement.
China advirtió este miércoles al gobierno estadounidense que un uso desmesurado de la inteligencia artificial en el ámbito militar podría sumir al mundo en el apocalipsis al estilo de la película 'Terminator’.https://t.co/K8ds8OQTeL — N+ UNIVISION (@nmasunivision) March 11, 2026
La question que l’Europe esquive
Face à ce débat transatlantique, l’Europe, et la France en particulier, est presque absente. Or la question posée est directement liée à notre souveraineté. Qui décide des conditions dans lesquelles des technologies développées par des entreprises étrangères peuvent être utilisées à des fins militaires sur notre sol, par nos alliés, dans des conflits qui nous concernent ? La réponse honnête est simple : pas nous.
L’Europe a certes produit son Artificial Intelligence Act, entré en vigueur en 2024, qui impose des obligations de transparence et interdit certains usages à haut risque. Mais ce texte, aussi ambitieux soit-il dans son périmètre civil, ne régit pas directement les applications militaires de l’IA, explicitement exclues de son champ. L’Union européenne a donc construit un cadre réglementaire pour l’IA des entreprises et laissé béant celui de l’IA des armées.
Dans ce vide, les nations européennes dépendent, pour leurs capacités militaires numériques, de technologies américaines dont les conditions d’usage sont décidées à Washington, ou désormais arrachées à des entreprises privées sous la contrainte. Ce n’est pas une posture de souveraineté. C’est une vassalité technologique habillée en partenariat stratégique.
La vraie leçon de l’affaire Anthropic n’est pas que la Chine a raison de s’alarmer, ni même qu’une start-up californienne fait preuve d’une éthique louable. C’est que les démocraties ont délégué à des acteurs privés, et parfois à des puissances étrangères, des décisions qui touchent au fondement même du droit de vie et de mort en temps de guerre. Pour une nation comme la France, qui a fait de son indépendance stratégique un principe cardinal depuis de Gaulle, cette dérive devrait sonner comme une alarme. Pas métaphorique, comme dans Terminator. Réelle.
L’article Vers une guerre pilotée par l’IA ? Pékin met en garde contre un futur à la « Terminator » est apparu en premier sur PLANETES360 .
