Le Commandement central américain il a peut-être eu recours à des outils intelligence artificielle soutenir la planification et l’exécution de la récente guerre en Iran qui a commencé avec le Attaques israélo-américaines du 28 février. D’après les reconstitutions de Le journal Wall Street Et Axiosl’armée américaine utiliserait Claude, le modèle linguistique de Anthropiquelors de l’opération militaire menée conjointement avec Israël. Dans ce cas, l’IA aurait été utilisée dans des domaines de intelligencedans le sélection d’objectifs et aussi dans construction de simulations opérationnelles.
Tout cela malgré un ordre de Donald Trump qui imposait (au moins jusqu’à quelques heures avant l’attaque) leinterruption de chacun collaboration avec l’entreprise. Pour mémoire, le président américain avait même déclaré sur son réseau social Vérité qu’Anthropique est «une entreprise d’IA de gauche radicale dirigée par des gens qui n’ont aucune idée de ce qu’est le monde réel». Les frictions avec Anthropic sont nées à la suite du raid perpétré en janvier dernier contre le président du Venezuela, Nicolás Maduro. À cette occasion, la nouvelle a été annoncée que l’armée avait utilisé Claude pour mener à bien la mission, et Anthropic a exprimé sa déception à ce sujet, soulignant que les conditions d’utilisation du service ne permettent pas que Claude soit utilisé à des fins de violence et de surveillance.
Comment le commandement central américain utiliserait l’IA d’Anthropic contre l’Iran
D’après les reconstructions mutuellement concordantes faites par Le journal Wall Street et de Axioslors des bombardements israélo-américains conjoints, le commandement central des États-Unis continuerait à utiliser Claude pour développer des évaluations du renseignement, c’est-à-dire des analyses structurées d’informations provenant de différentes sources, et pour mener simulations de champs de batailledes outils numériques qui permettent de tester virtuellement le résultat de différentes options tactiques. L’IA a également été utilisée pouridentification des cibles.
Nous ne voulons pas dire par là qu’un algorithme « décide » quoi et qui frapper, mais qu’il aurait pu aider les analystes humains à identifier les corrélations, les priorités et les conséquences possibles des attaques, accélérant ainsi les processus et les décisions qui autrement auraient pris beaucoup plus de temps.
Sur le plan opérationnel, l’attaque a vu l’utilisation de Missiles de croisière Tomahawk, combattant furtif Et drones d’attaque à sens uniquec’est-à-dire un avion sans pilote conçu pour atteindre une seule cible et ne pas retourner à la base. Il est important de préciser que l’IA ne contrôle pas directement ces armes : sa contribution concerne l’analyse et la planification, donc la partie stratégique des attaques perpétrées par les États-Unis contre l’Iran, et non la partie exécutive de celles-ci.
La rupture de Trump et l’inclusion d’OpenAI
Le point de rupture entre Anthropic et le Pentagone a été atteint quelques heures seulement avant le début des opérations contre l’Iran, lorsque le président Donald Trump avait commandé lecessation immédiate de toutes les relations avec Anthropicaccusant publiquement l’entreprise d’avoir une orientation idéologique incompatible avec les besoins de la défense nationale. La décision présidentielle prévoyait une période de six mois pour retirer progressivement les produits de l’entreprise des systèmes gouvernementaux. Cependant, comme l’ont souligné plusieurs sources techniques, lorsqu’un modèle d’IA est déjà intégré dans des réseaux classifiés (c’est-à-dire des infrastructures informatiques qui gèrent des données secrètes), sa suppression n’est pas un simple acte administratif. De nouvelles certifications de sécurité, une formation du personnel, des tests parallèles et des intégrations alternatives coûteuses sont nécessaires. Midhun Krishna Mco-fondateur et PDG de TknOps.io, un service de suivi des coûts pour les LLM, a expliqué :
Lorsque les outils d’IA sont déjà intégrés aux systèmes de simulation et de renseignement en temps réel, les décisions prises au sommet ne se traduisent pas immédiatement en changements concrets. (…) Lorsqu’un modèle est incorporé dans des systèmes de simulation et de renseignement classifiés, il y a des coûts irrécupérables d’intégration, de redéveloppement, de nouvelles certifications de sécurité et de tests parallèles. Une élimination progressive de six mois peut donc sembler décisive, mais le véritable fardeau financier et opérationnel est bien plus lourd.
La relation entre Anthropic et les États-Unis, telle qu’anticipée au début, trouve ses racines dans un épisode précédent : l’utilisation de l’IA dans une opération contre le président du Venezuela, Nicolas Maduroce qui avait amené Anthropic à souligner que l’utilisation de Claude pour le cas en question avait représenté une violation flagrante des conditions d’utilisation du service. Celles-ci interdisent explicitement les applications violentes, le développement d’armes autonomes ou la surveillance de masse, c’est-à-dire le contrôle systématique et à grande échelle des populations civiles. Depuis, les relations entre le Pentagone et l’entreprise se sont détériorées. Le secrétaire à la Défense Pete Hegseth accusé Anthropic de représenter un «risque pour la sécurité nationale dans la chaîne d’approvisionnement».
Après la rupture avec Anthropic OpenAI a annoncé un accord avec le Pentagone pour l’utilisation de ses outils, dont ChatGPT, sur des réseaux militaires classifiés, comme l’a confirmé l’entreprise elle-même dans le post sur X que vous pouvez lire ci-dessous.