23/04/2026 reseauinternational.net  9min #311925

Guerre algorithmique : quand la vitesse devient une fin en soi

par Mounir Kilani

L'Iran n'est qu'un cas d'école. Le vrai sujet est ailleurs : la transformation de la guerre par la vitesse algorithmique, et la dilution silencieuse de la responsabilité.

Une école de filles pulvérisée à Minab. Entre 165 et 182 morts - des enfants, pour la plupart. Puis les secouristes, fauchés à leur tour. Personne ne sait qui a validé la frappe. Un algorithme ? Un opérateur pressé ? Des données obsolètes avalées par une machine trop rapide ?

Bienvenue dans la guerre algorithmique. Ici, la faute ne disparaît pas. Elle devient introuvable.

Ironie de l'histoire : le mot "algorithme" vient du nom du mathématicien perse al-Khwarizmi, qui vécut il y a douze siècles. Ce sont ses travaux qui ont posé les bases de l'algèbre et du calcul algorithmique. Aujourd'hui, des algorithmes frappent son pays d'origine. L'Iran n'est plus un berceau de la science - il est devenu un terrain d'expérimentation.

Le 28 février 2026, les États-Unis et Israël lancent l'opération Epic Fury. En quelques heures, plus de 1 000 cibles sont frappées en Iran - un rythme inédit, près du double du "shock and awe" de 2003 en Irak. Au cœur de cette cadence : le Maven Smart System de Palantir, intégré à l'IA Claude d'Anthropic. Pour la première fois à cette échelle, une grande puissance confie une partie de sa "kill chain" - la chaîne de ciblage et de frappe - à des algorithmes et à des entreprises privées de la Silicon Valley.

Cette accélération annonce-t-elle un progrès décisif, ou l'entrée dans une ère où la vitesse prime sur la précision ?

La promesse : vitesse et échelle

Le Maven Smart System n'est pas une simple "IA qui tire". C'est une plateforme d'analyse qui fusionne imagerie satellite, vidéos de drones, renseignement électromagnétique et données historiques pour générer des paquets de ciblage, classer les priorités et proposer des appariements arme-cible. Un volume de données qui aurait autrefois requis des milliers d'analystes.

Résultat concret avancé par le Pentagone : la neutralisation rapide des capacités balistiques, navales et industrielles iraniennes, avec une réduction drastique du personnel humain (jusqu'à 90% d'analystes en moins pour un volume équivalent). La "American Dynamism" - portée par des fonds comme Andreessen Horowitz ou Founders Fund - y voit la preuve que la technologie américaine assure la supériorité. La guerre moderne, disent-ils, se gagne par l'accélération : réduire le temps entre détection et frappe de plusieurs jours à quelques minutes, voire secondes.

Palantir - dont la capitalisation a explosé - et d'autres acteurs comme Anduril incarnent cette nouvelle économie de défense : des entreprises agiles, plus rapides et plus innovantes que les grands industriels de la défense.

Les limites : précision, erreurs et boîte noire

Pourtant, les performances affichées soulèvent des questions sérieuses. Plusieurs sources rapportent que la précision globale de Maven tourne autour de 60%, contre 84% pour des analystes humains expérimentés. L'écart s'accentue en environnement complexe (couverture nuageuse, données partielles, zones urbaines denses).

La frappe sur l'école de Minab illustre ce décalage. L'enquête pointe des données obsolètes : le bâtiment, réaffecté en école depuis plusieurs années, figurait encore comme site militaire.

Le rôle exact de Maven dans cette frappe reste débattu. Mais le cas révèle un risque structurel : à grande échelle, les erreurs humaines classiques sont amplifiées par la vitesse machine. Quand des centaines de recommandations défilent, le temps de revue humaine se réduit à quelques clics. Le "humain dans la boucle" devient plus formel que substantiel.

L'IA reste une "boîte noire". Des ingénieurs de Palantir eux-mêmes admettent ne pas pouvoir expliquer pourquoi, sur certaines images, le système classe un hangar agricole comme site de missiles. Les couches profondes du réseau neuronal ne se laissent pas réduire à une règle simple. Les biais des données d'entraînement se propagent sans que personne ne puisse les tracer en temps réel.

La marchandisation de la guerre

Autre tension révélatrice : la relation conflictuelle avec Anthropic. En mars 2026, le Pentagone a désigné l'entreprise comme "risque pour la chaîne d'approvisionnement nationale" - après que Claude a refusé un usage illimité dans des systèmes létaux autonomes. L'épisode révèle une friction croissante : les entreprises tech, même sous contrat de défense, conservent parfois des garde-fous éthiques que le Pentagone juge incompatibles avec les impératifs opérationnels.

Résultat : une dépendance à des acteurs privés dont les intérêts - contrats de plusieurs milliards, valorisation boursière - ne coïncident pas toujours avec la retenue éthique ou le contrôle démocratique. La Silicon Valley est passée en quelques années d'un certain pacifisme (protestations contre Maven chez Google en 2018) à un patriotisme d'atmosphère assumé. La guerre devient un business model rentable.

Derrière les algorithmes, des intérêts très concrets

Co-fondée par Peter Thiel, Palantir incarne la "American Dynamism" - l'alliance assumée entre la tech californienne et la puissance militaire américaine. Thiel - qui a largement financé la carrière politique de JD Vance - voit dans ces systèmes la restauration d'une supériorité technologique que l'Amérique aurait perdue.

Alexander Karp, le PDG de Palantir, assume pleinement cette doctrine. Dans son livre "Technology Republic", il appelle à la rémilitarisation de l'Allemagne et du Japon, et à l'introduction du service militaire universel aux États-Unis. "L'ère atomique se termine", écrit-il. "Une nouvelle ère de dissuasion basée sur l'IA commence". La Silicon Valley, dit-il, a une "obligation morale" de participer à la défense nationale. Le soft power a atteint ses limites : la force dure, en ce siècle, fonctionne sur des logiciels. L'iPhone peut être "la plus grande réalisation de la Silicon Valley, mais aussi un signe de stagnation de la civilisation". Les applications grand public ne remplacent pas les grandes ambitions. La guerre en Iran est l'incarnation de cette vision.

La guerre en Iran n'est plus seulement une opération militaire : c'est une vitrine pour un écosystème d'investisseurs - Andreessen Horowitz, Founders Fund - qui parient sur l'accélération décisionnelle comme nouveau modèle économique de défense.

Ce modèle de privatisation de la guerre n'est pas sans écho en France. En décembre 2025, la DGSI a reconduit son contrat pluriannuel avec Palantir, malgré les appels récurrents à développer des alternatives souveraines.

Ce que Gaza a testé, l'Iran l'a subi

Israël l'a expérimentée dès les semaines suivant le 7 octobre 2023 à Gaza - avec Lavender, qui génère des listes de milliers de suspects, et Gospel, qui cible bâtiments à cadence industrielle. Des officiers du renseignement israélien ont décrit une validation quasi automatique des recommandations de l'IA, souvent en moins de vingt secondes par cible.

Palestiniens, Libanais, Iraniens : ils le subissent déjà. Alors posez-vous la question : accepteriez-vous qu'un algorithme prenne une décision de vie ou de mort sur votre famille en moins de vingt secondes, sans recours, sans explication, sans responsabilité ?

Ce qui a été testé là-bas - vitesse extrême, "humain dans la boucle" réduit à un simple tampon - a servi de modèle pour Epic Fury.

Chine, Russie, Europe : la même logique

La Chine mise sur les essaims de drones autonomes et l'"intelligentisation" de ses forces. Objectif : préparer un conflit à Taïwan où la masse et la vitesse submergeraient les défenses adverses.

La Russie affine ses systèmes en conditions réelles depuis 2022 en Ukraine : le drone Lancet intègre de l'IA pour la reconnaissance automatique de cibles, même sans liaison satellite constante.

L'Europe occupe une position ambivalente. Diplomatiquement, elle défend un contrôle humain significatif. Mais l'AI Act exclut les applications militaires - un vide réglementaire - et des initiatives comme LEAP développent drones et munitions rôdeuses à bas coût. Même chez ceux qui prônent la retenue, la logique de vitesse gagne du terrain.

Dans tous les cas, la même logique domine : la vitesse prime sur la précision humaine, le volume sur la délibération.

La gravité : une course sans cadre

À l'ONU, les discussions sur les armes létales autonomes (LAWS) traînent depuis 2014. L'ONU et le Comité international de la Croix-Rouge (CICR) appellent à un traité contraignant d'ici fin 2026. Plus de 120 pays, dont l'Union européenne, soutiennent une régulation forte.

Mais les grandes puissances bloquent. États-Unis et Russie s'opposent à toute régulation contraignante. La Chine adopte une position ambiguë. Le mécanisme de consensus de la convention sur certaines armes classiques permet à un seul pays de tout paralyser. Résultat : pas de traité en vue.

Les pays du Sud s'inquiètent : sans IA sophistiquée, ils deviendront plus vulnérables. Beaucoup craignent une escalade involontaire - une erreur algorithmique qui déclenche une chaîne de réactions.

Enjeux : trois risques majeurs

  1. Escalade involontaire : la vitesse transforme une erreur locale en chaîne de réactions.
  2. Érosion du jugement humain : à force de valider des recommandations à cadence élevée, les décideurs perdent l'habitude - et la capacité - d'un examen approfondi.
  3. Normalisation d'une guerre moins humaine : revendiquer une "précision chirurgicale" tout en produisant des effets indiscriminés affaiblit la légitimité des opérations.

Le droit international suppose un jugement humain significatif. Les systèmes semi-autonomes le fragilisent. Sans audits indépendants ni transparence sur les taux d'erreur, le droit humanitaire - distinction, proportionnalité, précaution - devient lettre morte face à la vitesse des algorithmes.

J'ai relu plusieurs fois les chiffres. 165 à 182 morts. Des enfants. Des secouristes. Derrière chaque nombre, il y a un nom, un visage, une famille qui ne comprendra jamais pourquoi. L'algorithme, lui, ne relit rien. Il passe à la cible suivante.

Ce qui est déjà trop tard : le Pentagone croit encore pouvoir communiquer sur la "guerre chirurgicale". Mais après Minab, ce récit est mort. L'armée américaine ne l'a pas encore admis. La guerre propre est une contradiction dans les termes - pas seulement à cause de l'IA, mais à cause de l'échelle qu'elle rend possible.

La supériorité ne se réduit pas à la vitesse

L'IA transforme la guerre. Mais confier une part croissante de la kill chain à des algorithmes privés, sans garde-fous robustes, n'est pas un progrès inconditionnel.

La vraie supériorité stratégique ne vient pas de la rapidité des machines, mais de la qualité du jugement humain, de la précision effective et de la légitimité des actions.

La leçon, au-delà de l'Iran : ne pas rejeter l'IA, mais exiger qu'elle reste au service de la décision humaine responsable - et non l'inverse.

 Mounir Kilani

 reseauinternational.net