
Par Taylor Lorenz
Le génocide perpétré par Israël à Gaza a mis en évidence la manière dont l'IA transforme la guerre de façon terrifiante et meurtrière.
Avec l'aide des géants de la tech, Israël, aux côtés des États-Unis, étend désormais son utilisation de l'IA en Iran et au Liban, élargissant ainsi son terrain d'essai pour les technologies militaires basées sur l'IA - avec des conséquences encore plus meurtrières.
Israël est depuis longtemps l'un des principaux pôles mondiaux de développement de l'IA. En 2024, on comptait environ 2300 start-ups spécialisées dans l'IA en activité en Israël, selon un rapport de Google Israël et RISE Israël, un groupe de réflexion sur les technologies.
Depuis lors, ce nombre n'a sans doute fait qu'augmenter, les investisseurs en capital-risque injectant massivement des fonds dans ce secteur. Environ un quart de toutes les start-ups technologiques en Israël sont des entreprises d'IA, soutenues par des milliards de dollars de financement.
Les géants de la technologie ont également renforcé leurs relations avec Israël, tirant parti de son écosystème technologique pour recruter des talents et développer leurs activités.
Nvidia a récemment annoncé son intention de construire un immense campus technologique dans le nord d'Israël, qui accueillera des projets de recherche et de développement en IA, et le PDG de Nvidia, Jensen Huang, a décrit Israël comme la " deuxième maison" de l'entreprise.
Tout cela s'est produit alors qu'Israël mène des attaques contre les populations civiles à Gaza, en Cisjordanie, au Liban et en Iran.
Un nouveau rapport de l'Institut international d'études stratégiques (ISS), un groupe de réflexion et une référence en matière de sécurité mondiale et de conflits militaires, détaille précisément à quel point l'IA est profondément intégrée dans les systèmes d'armement et les opérations militaires d'Israël.
Selon ce rapport, Israël a réalisé d'importants investissements pour intégrer l'IA dans l'ensemble de ses outils et systèmes militaires. Ces efforts vont de la création d'une administration chargée de l'IA et de l'autonomie au sein de la Direction de la recherche et du développement de la défense du ministère de la Défense, à la mission confiée à l'unité d'élite 8200 de développer les capacités propres de l'armée israélienne en matière d'IA.
De "Smart Shooter" à "Lavender"
L'IA est utilisée pour améliorer le suivi des cibles et le taux d'élimination de toute personne qu'Israël considère comme un combattant ennemi.
La société israélienne Smart Shooter, par exemple, a mis au point un viseur "intelligent" alimenté par l'IA qui peut être installé sur presque toutes les armes à feu. Une fois fixé à l'arme, il peut transformer un fusil standard en une arme à feu de précision bien plus meurtrière.
Grâce à la technologie IA, un tireur peut viser une cible à l'aide du système optique SMASH de Smart Shooter, et le logiciel verrouille la cible et la suit automatiquement dans ses mouvements.
Lorsque le tireur s'apprête à appuyer sur la détente, le système synchronise automatiquement le tir dès que l'arme est correctement pointée sur la cible. En substance, la détente est bloquée électroniquement jusqu'à ce que le système IA calcule que le tir atteindra effectivement sa cible, rendant chaque tir bien plus susceptible d'être mortel.
Le système SMASH de Smart Shooter peut également être utilisé sur des drones.
L'un des produits d'IA les plus pervers d'Israël est connu sous le nom de Lavender. Tout au long du génocide à Gaza, Israël a exploité Lavender, un outil d'IA qui agrège de grands volumes de données sur les personnes et applique des algorithmes de reconnaissance de formes pour identifier les personnes à tuer, souvent en les traquant et en les tuant chez elles avec leurs familles, ce qui entraîne un maximum de victimes.
Grâce à ce système, l'armée israélienne a désigné des dizaines de milliers de Palestiniens comme cibles potentielles d'assassinat, selon +972 Magazine, et son système de ciblage par IA ne fait l'objet d'aucun contrôle humain et semble extrêmement permissif en matière de pertes humaines.
"Selon six agents des services de renseignement israéliens, qui ont tous servi dans l'armée pendant la guerre actuelle dans la bande de Gaza et ont été directement impliqués dans l'utilisation de l'IA pour identifier des cibles d'assassinat, Lavender a joué un rôle central dans les bombardements sans précédent contre les Palestiniens, en particulier au début de la guerre", rapporte +972.
"En fait, selon ces sources, son influence sur les opérations militaires était telle que celles-ci traitaient essentiellement les résultats de l'IA "comme s'il s'agissait d'une décision humaine".
Le rapport de l'ISS met également en évidence l'utilisation par Israël de systèmes de reconnaissance faciale basés sur l'IA. Israël a déployé de vastes programmes de reconnaissance faciale tant à Gaza qu'en Cisjordanie.
En Cisjordanie, l'armée israélienne utilise des systèmes qui accèdent à une base de données appelée Wolf Pack. Cette base de données stocke des informations personnelles hautement sensibles sur les Palestiniens, qui sont utilisées pour créer des profils de renseignement qui sont ensuite partagés avec l'agence de sécurité intérieure israélienne, le Shin Bet.
Les données biométriques des Palestiniens sont collectées aux points de contrôle à travers Israël, et les soldats israéliens ont installé sur leurs smartphones un logiciel affilié à Wolf Pack afin d'enregistrer davantage de Palestiniens dans leurs systèmes.
L'utilisation de programmes de reconnaissance faciale sur des personnes sans leur consentement à une telle échelle est strictement contraire aux lois internationales relatives aux droits de l'homme. Le droit à la vie privée, y compris à l'abri des systèmes de reconnaissance faciale, est garanti par l'article 17 du Pacte international relatif aux droits civils et politiques (PIDCP).
Rendu possible par des entreprises privées
Aucun de ces systèmes de surveillance ou d'armement basés sur l'IA ne pourrait fonctionner sans le soutien du marché commercial. Les entreprises américaines spécialisées dans les technologies de défense et l'IA, telles que Palantir, tirent un profit direct de leurs contrats avec l'armée israélienne.
En 2024, Israël et Palantir ont signé un partenariat stratégique visant à "exploiter la technologie de pointe de Palantir pour soutenir des missions liées à la guerre".
Mais aussi, "des géants de la technologie tels qu'Amazon, Anthropic, Google, Microsoft et OpenAI ont fourni des produits d'IA à divers ministères de la Défense, notamment aux États-Unis et en Israël", note le rapport de l'ISS.
"Un projet de contrat de 2024 entre Google et le ministère israélien de la Défense a mis en évidence l'accès exclusif préexistant de ce dernier pour bénéficier de l'infrastructure cloud, ainsi que de nouveaux projets visant à créer des accès spécifiques pour les unités militaires."
Le rapport révèle également qu'en vertu des termes du projet Nimbus, les entreprises publiques israéliennes Israel Aerospace Industries et Rafael Defense Industries sont tenues d' utiliser les services cloud de Google et d'Amazon pour tous leurs besoins en matière de cloud computing.
"Alors qu'Israël est accusé de crimes de guerre, de crimes contre l'humanité et de génocide tant devant la Cour pénale internationale que devant la Cour internationale de justice, l'intensification de sa coopération avec des prestataires commerciaux pourrait potentiellement engager sa responsabilité au regard des cadres juridiques nationaux et internationaux", ajoute l'ISS.
Si les deux plus grands géants américains de l'IA, Anthropic et OpenAI, ne se sont pas officiellement associés directement à l'armée israélienne, ils sont déjà profondément impliqués dans ses actions militaires.
L'armée israélienne a accès au modèle linguistique GPT-4 d'OpenAI via son partenariat avec Microsoft depuis août 2023. Ce modèle de langage (LLM) est capable d'aider l'armée à analyser des milliards d'informations et à synthétiser des données.
(L'année dernière, Microsoft aurait retiré à l'unité d'élite de renseignement israélienne 8200 l'accès à cette technologie, mais continue de travailler avec d'autres unités de l'armée israélienne, selon +972.)
Alors que les conditions générales d'OpenAI interdisaient initialement l'utilisation de ses services à des fins "militaires et de guerre", l'entreprise a discrètement supprimé cette clause et a renforcé son partenariat avec l'armée américaine en janvier 2024, alors que l'offensive contre Gaza s'intensifiait.
Anthropic a cherché à restreindre l'utilisation de ses modèles par l'armée américaine à certains égards ; cependant, Claude, le modèle principal d'Anthropic, est intégré aux systèmes de Palantir et aurait selon certaines informations été utilisé par l'armée américaine pour identifier des cibles en Iran.
Le rapport de l'ISS note que "les technologies militaires basées sur l'IA devraient continuer à se multiplier sur les champs de bataille du Moyen-Orient, aggravant les dommages causés aux civils et aux biens civils et exacerbant les crises humanitaires".
Alors que les grandes entreprises technologiques renforcent leurs liens avec l'armée américaine et continuent de faire affaire avec l'armée israélienne, le Moyen-Orient restera un laboratoire pour la guerre assistée par l'IA, et les civils innocents de Gaza, de Cisjordanie, du Liban et d'Iran paieront le prix des dernières expériences de l'IA menées par la Silicon Valley.
21 avril 2026 - Zeteo - Traduction : Chronique de Palestine

* Taylor Lorenz, auteur de la rubrique Zeteo intitulée "Network Effect", est une journaliste réputée spécialisée dans les technologies et la culture numérique. Ses articles sont disponibles ici.Elle est fondatrice de UserMag.co, une lettre d'information consacrée à la technologie et à la culture numérique, et auteur de " Extremely Online".