01L'intelligence artificielle, nerf de la guerre
Un conflit ouvert oppose le constructeur d'IA Anthropic à l'Administration Trump sur fond de guerre en Iran. En cause : l'utilisation potentielle du modèle Claude pour l'usage d'armes autonomes et pour la surveillance de masse du peuple américain. Il vient à son tour rappeler les risques de l'IA et l'urgence d'un cadre légal international.
Derrière l'IA militaire se trouvent parfois les mêmes modèles que ceux du grand public, mais adaptés sur trois points : les modèles sont entraînés sur des données classifiées ; le matériel est isolé d'internet ; et chaque requête peut mobiliser une puissance de calcul sans équivalent avec l'usage civil.
Dans le cadre militaire, l'IA intervient au stade du renseignement, de la décision et de l'action. Concrètement, elle permet d'analyser en temps réel des flux massifs de données pour identifier des menaces ou des cibles. Elle assiste les états-majors dans la planification d'opérations complexes, en simulant des scénarios et en évaluant les risques. Enfin, intégrée à des systèmes comme le Maven Smart System de Palantir (entreprise américaine de logiciels d'analyses de données soutenant la prise de décision stratégique), l'IA est capable de désigner des cibles de manière autonome.
Lancé dès 2018 par le Pentagone, le Projet Maven a été conçu pour intégrer l'apprentissage automatique dans le renseignement et le ciblage militaires. Ce système est le résultat du partenariat entre Palantir et Anthropic. En utilisant le modèle Claude comme moteur de raisonnement, Maven permet d'orchestrer des chaînes de mise à mort (kill chains) en coordonnant des centaines d'unités en temps réel. Depuis 2025, ce système est intégré au Joint Warfare Center de l'OTAN, marquant l'arrivée de Maven sur le continent européen.
En juillet 2025, le Pentagone a accordé à Anthropic, OpenAI, Google et xAI quatre contrats individuels d'un plafond de 200 millions de dollars chacun, pour développer des capacités d'IA agentique appliquées à la défense.
Anthropic, ennemi de l'Amérique !
En janvier 2026, le Pentagone a instauré une nouvelle directive contraignant ses prestataires à souscrire à une clause d'usage conforme au cadre légal. Elle impose la suppression des garde-fous qui limitent l'usage d'armes létales autonomes ou la surveillance de masse sur le territoire. La validation de cette clause devient la condition sine qua non pour maintenir ses contrats avec la Défense.
Anthropic a refusé, le faisant savoir dans une déclaration publique.
|
« L'utilisation de ces systèmes pour la surveillance de masse sur le territoire est incompatible avec les valeurs démocratiques » et n'est actuellement légale que parce que « la loi n'a pas encore rattrapé les capacités croissantes de l'IA ; il en va de même pour les armes entièrement autonomes, pour lesquelles « les systèmes d'IA actuels ne sont tout simplement pas suffisamment fiables ».
Anthropic — janvier 2026
|
Le 28 février, en réponse au refus d'Anthropic d'assouplir les directives éthiques de ses systèmes d'IA, le gouvernement américain classe Anthropic comme « risque pour la chaîne d'approvisionnement en matière de sécurité nationale ». Anthropic se retrouve sur liste noire, son contrat annulé, victime d'une classification jusqu'ici réservée aux entités étrangères jugées trop proches de régimes rivaux. Quelques heures plus tard, OpenAI a conclu un accord avec le Pentagone pour fournir des modèles d'IA aux réseaux militaires classifiés.
Comble pour Anthropic : après avoir été banni pour avoir des principes éthiques, l'entreprise voit son système être utilisé le soir même pour attaquer l'Iran. Claude, intégré au système Maven Smart System de Palantir, a contribué à la frappe d'environ 1 000 cibles dans les premières 24 heures de l'offensive contre l'Iran.
Qui commande la machine de guerre ?
Qui décide de ce que l'IA peut faire dans la guerre ? Pas les citoyens, et très peu les parlements. Bien que le Congrès américain valide les budgets globaux, il n'a aucun droit de regard direct sur les clauses techniques des contrats militaires. C'est donc une petite élite capitaliste et militaire qui prépare en coulisse les règles de la guerre de demain.
Et pourtant… En octobre 2023, lors de la première résolution de l'Assemblée générale de l'ONU sur les armes autonomes, une large majorité d'États a exprimé son inquiétude face à ces technologies. En s'appuyant à la fois sur ce vote et sur les déclarations nationales officielles, le programme Automated Decision Research comptabilise désormais 130 pays favorables à un instrument juridique contraignant.
La Russie, les États-Unis et Israël n'en font pas partie. Présente sur cette liste, la Chine a appelé, le 11 mars dernier, les États-Unis à cesser la "militarisation" sans limite de l'IA pour éviter le risque de "perte de contrôle technologique" :
|
« Poursuivre sans limite la militarisation de l'intelligence artificielle, l'utiliser comme un instrument pour violer la souveraineté d'autres nations, lui permettre d'influer excessivement sur les décisions de guerre et laisser les algorithmes détenir le pouvoir de vie ou de mort sur les êtres humains non seulement sape les fondements éthiques et les responsabilités en temps de guerre, mais risque également de provoquer une perte de contrôle technologique. »
Jiang Bin — Porte-parole du ministère chinois de la Défense, 11 mars 2026
|
Un appel à la raison que l'on ne peut qu'approuver.
Cette histoire n'est pas sans lueur d'espoir. Si le Pentagone a besoin de Claude, un modèle grand public, pour mener des frappes stratégiques, cela suggère que l'IA militaire n'a pas des années d'avance sur ce que nous connaissons. La frontière entre le civil et le militaire n'est peut-être pas si grande. Ce qui signifie aussi que la société civile, les chercheurs, les ingénieurs et les citoyens ont encore leur mot à dire.
|