Par Mona Shtaya
Du pur Orwell... Israël est intégré à la première convention mondiale sur l'Intelligence artificielle (IA), et voici pourquoi c'est dangereux.
Il est très choquant qu'Israël ait été autorisé à adhérer au premier traité mondial sur l'intelligence artificielle (IA), un accord destiné à réglementer l'utilisation responsable de l'IA dans le respect des droits de l'homme, de la démocratie et de l'État de droit.
Pendant 11 mois consécutifs, Israël a utilisé l'IA comme arme dans son génocide à Gaza, en déployant des systèmes de surveillance et de ciblage automatisé pilotés par l'IA qui ont infligé des dommages civils dévastateurs.
Pourtant, Israël se félicite aujourd'hui de sa participation à ce traité aux côtés des États-Unis, du Royaume-Uni et de l'Union européenne, après avoir passé deux ans à la table des négociations et contribué à l'élaboration du premier traité international sur l'IA pour une gouvernance éthique de l'IA.
Cette contradiction révèle une hypocrisie flagrante et soulève de sérieuses questions quant à l'engagement réel de la communauté internationale en matière de responsabilité.
Ce traité s'applique principalement à l'IA dans le secteur public, mais il aborde également les risques dans le secteur privé.
Les signataires du traité acceptent de respecter des principes tels que la transparence, la responsabilité et la non-discrimination, et s'engagent à mettre en place des recours en cas de violations des droits de l'homme liées à l'IA.
Le traité prévoit des évaluations des risques, des mesures d'atténuation et des obligations graduelles basées sur des contextes spécifiques, ce qui garantit la flexibilité de son application.
Depuis le début de ce génocide en cours, Israël utilise l'IA et les technologies de pointe pour tuer massivement et sans discernement des civils.
L'État d'apartheid a exploité l'IA à des fins de surveillance, de ciblage et de prise de décision.
Israël a intensifié ses efforts pour contrôler et opprimer la population de la bande de Gaza, poursuivant ainsi une longue histoire d'oppression systématique du peuple palestinien.
Cette utilisation abusive de la technologie soulève de profondes inquiétudes et peut avoir des conséquences dévastatrices pour des personnes innocentes prises entre deux feux.
Contrairement à l'objectif affiché de « l'IA pour le bien commun » décrit dans les traités mondiaux sur l'IA, le programme d'IA israélien « Lavender » est apparu comme une pièce maîtresse terriblement sombre du génocide en cours dans la bande de Gaza.
Deux semaines seulement après le début de la guerre, les listes de personnes à abattre de Lavender ont été automatiquement approuvées, ciblant des militants présumés - y compris de nombreux membres de la base du Hamas et du Jihad islamique palestinien - avec un contrôle humain minimal.
Au cours des premières semaines de la guerre, Lavender a désigné jusqu'à 37 000 Palestiniens et leurs maisons comme cibles de bombardements.
Cette militarisation de l'IA a entraîné des pertes civiles dévastatrices, car les critères larges et sujets aux erreurs de Lavender ont donné lieu à des attaques aveugles sur des habitations, causant un nombre effroyable de morts. Contrairement à d'autres systèmes tels que « The Gospel », qui cible les bâtiments, Lavender se concentre sur les individus, ce qui amplifie la tragédie de ses erreurs.
Gaza : une « usine d'assassinats en masse » où chaque massacre est automatisé
Alors que le traité international prône l'utilisation responsable de l'IA, le respect des droits de l'homme et de l'État de droit, le système d'IA israélien « Habsora », ou « The Gospel », offre un contraste saisissant. Déployé depuis le début de la guerre de Gaza, Habsora est un outil de génération de cibles hautement automatisé pour les opérations militaires israéliennes.
Capable de produire rapidement des listes de cibles, il facilite les frappes de grande envergure sur les maisons d'habitation, y compris celles de membres du Hamas de rang inférieur.
Depuis le 7 octobre, Habsora a fait de nombreuses victimes civiles, les frappes touchant souvent des maisons où la présence de militants n'est pas confirmée. Les critères de ciblage très larges du système et la surveillance minimale ont entraîné des destructions massives, ainsi que l'effacement des caractéristiques géographiques de la bande de Gaza et l'anéantissement de sa population.
Avant cette guerre et au cours des deux dernières années, alors que l'État de surveillance contribuait à l'élaboration de l'agenda de la Convention, Israël n'est pas resté inactif, mais a plutôt automatisé systématiquement son système d' apartheid. Du « tireur intelligent » d'Hébron aux technologies de reconnaissance faciale, il a utilisé des technologies révolutionnaires pour cibler et tuer des Palestiniens.
Entre 2020 et 2021, des enquêtes ont révélé qu'Israël s'appuiait de plus en plus sur des technologies avancées de surveillance et de prédiction pour contrôler les Palestiniens.
Cette surveillance numérique, qui s'inscrit dans une stratégie plus large, fonctionne à la fois comme un moyen de répression et comme une entreprise commerciale, Israël testant ses techniques de surveillance sur les Palestiniens avant de les commercialiser auprès des régimes répressifs du monde entier.
L'État de surveillance a recours à une surveillance étendue, notamment à la reconnaissance faciale et à des systèmes de repérage automatisés tels que « Blue Wolf » et « Red Wolf », pour surveiller la vie quotidienne des Palestiniens et s'y immiscer.
Ces technologies, associées au contrôle exercé par Israël sur l'infrastructure des technologies de l'information et de la communication (TIC), renforcent le sentiment d'une surveillance constante, d'une atteinte à la vie privée et d'un étouffement de la liberté d'expression, tout en menaçant l'accès des Palestiniens à Internet et en le fermant chaque fois que l'État oppresseur décide de dissimuler ses crimes de guerre.
Cette approche renforce non seulement l'apartheid automatisé, mais constitue également un exemple troublant de la façon dont l'IA et d'autres technologies ont été mises au service de la sécurisation et de la militarisation d'un État d'apartheid qui s'est vu offrir, sur un plateau d'or, la possibilité d'élaborer le premier traité sur l'IA et d'y adhérer.
La participation d'Israël au premier traité mondial sur l'IA, destiné à promouvoir l'utilisation éthique de l'IA et à défendre les droits de l'homme, contraste fortement avec ses pratiques actuelles.
Depuis des mois, Israël utilise des systèmes d'IA avancés tels que « Lavender » et « Habsora » pour cibler et tuer des civils à Gaza, tout en se félicitant de son rôle dans la rédaction d'un traité qui prétend garantir une gouvernance responsable de l'IA.
Cette contradiction ne met pas seulement en évidence une hypocrisie choquante, mais soulève également de sérieuses questions quant à l'engagement de la communauté internationale en faveur d'une véritable responsabilisation.
En continuant d'exploiter l'IA à des fins d'oppression, Israël sape les principes mêmes que le traité est censé défendre. Le monde doit examiner cette contradiction et demander des comptes à Israël afin d'empêcher l'utilisation abusive de la technologie et de protéger les droits de l'homme dans le monde entier.
Auteur : Mona Shtaya
* Mona Shtaya est une militante palestinienne qui défend les droits numériques et qui travaille en tant que responsable des campagnes et des partenariats (MENA) et est responsable de l'engagement des entreprises chez Digital Actions. Elle est également boursière du Migration and Technology Monitor 2024 et chercheuse non résidente pour l'Institut du Moyen-Orient (MEI) dans le cadre du programme Palestine-Israël.
16 septembre 2024 - Mondoweiss - Traduction : Chronique de Palestine