
par Pierre Duval
Un conflit entre le développeur d'IA Anthropic et le ministère américain de la Guerre a éclaté. Le génocide à Gaza et la guerre en Iran apportent la preuve que l'IA appliquée à la guerre est devenue - sur un point stratégique - l'équivalent d'"une nouvelle arme nucléaire".
Bras de fer entre la société d'IA Anthropic et le ministère américain de la Guerre. Le conflit entre le développeur d'IA Anthropic et le ministère américain de la Guerre a été le premier affrontement entre la Silicon Valley et la machine militaire américaine. Sur fond de guerres à Gaza et en Iran, ce différend montre comment l'IA se transforme en un nouvel outil de concurrence militaire mondiale. "La bataille entre Anthropic et [le ministère américain de la Guerre] montre comment les géants de la tech ont changé de cap en matière d'IA et de guerre", titre The Guardian.
"Le bras de fer entre la société d'IA Anthropic et [le ministère américain de la Guerre] marque un tournant décisif, mettant en lumière un conflit public virulent autour de l'éthique de l'IA et un revirement rapide dans la manière dont les grandes entreprises du secteur collaborent avec le secteur de la défense. Alors qu'Anthropic cherche à imposer des lignes rouges contre l'utilisation de son modèle d'IA Claude [de réseau de neurones Claude] pour les armes autonomes et la surveillance de masse, le Pentagone - sous l'administration Trump - exige un accès illimité pour toute utilisation légale tout en qualifiant l'entreprise d'être un risque pour la chaîne d'approvisionnement [militaire] pour avoir refusé", avertit l'organisation consacrée à l'étude des affaires internationales, Chathamhouse, qui avertit, par ailleurs, qu'"Anthropic affronte [le ministère américain de la Guerre] alors que la Chine prend les devants". Il est important de savoir dans ce contexte qu'Anthropic est un fournisseur d'IA de l'armée américaine.
Selon The Guardian, "le bras de fer entre Anthropic et le Pentagone a contraint le secteur technologique à se pencher une nouvelle fois sur la question de l'utilisation de ses produits à des fins militaires - et sur les limites qu'il ne franchira pas. Dans un contexte de glissement à droite de la Silicon Valley sous Donald Trump et de la signature de contrats lucratifs dans le domaine de la défense, la réponse des géants de la tech semble très différente de ce qu'elle était il y a moins de dix ans".
"Le conflit opposant Anthropic à l'administration Trump s'est intensifié il y a trois jours, lorsque l'entreprise spécialisée dans l'IA a intenté un procès au [ministère américain de la Guerre], affirmant que la décision du gouvernement de l'exclure des marchés publics violait ses droits garantis par le premier amendement. L'entreprise et le [ministère américain de la Guerre] sont engagés dans un bras de fer depuis plusieurs mois, Anthropic cherchant à empêcher que son modèle d'IA ne soit utilisé à des fins de surveillance de masse sur le territoire national ou pour la mise au point d'armes létales entièrement autonomes", poursuit le quotidien anglophone.
Anthropic a fait valoir que céder aux exigences du ministère américain de la Défense visant à autoriser "toute utilisation légale" de sa technologie reviendrait à enfreindre ses principes de sécurité fondateurs et exposerait sa technologie à des risques d'abus, "traçant ainsi une ligne éthique que les autres acteurs du secteur devront décider s'ils souhaitent franchir", souligne The Guardian.
"Ce bras de fer montre à quel point les règles du jeu ont changé en ce qui concerne les liens entre les géants de la tech et l'armée. Les ingénieurs et les programmeurs sont conscients du danger de l'IA appliquée à l'armée, ce qui explique leur refus de supprimer les garde-fous de sécurité, du moins chez Anthropic", selon le quotidien anglophone.
Le quotidien anglophone note que d'autres entreprises du même secteur qu'Anthropic sautent joyeusement dans le train du ministère américain de la Guerre : "Plusieurs facteurs expliquent le regain d'intérêt des géants de la tech pour le militarisme. Leur alignement sur l'administration Trump, qui s'est traduit notamment par des démonstrations de loyauté envers Trump de la part de grands PDG, a lié les entreprises technologiques à la volonté du gouvernement d'étendre ses capacités militaires".
La promesse de l'administration de réformer les agences fédérales à l'aide de l'intelligence artificielle a également clairement laissé entrevoir aux entreprises spécialisées dans l'IA une opportunité d'intégrer leurs produits dans les opérations gouvernementales et militaires, ce qui pourrait leur garantir des revenus pour les années à venir. En toile de fond, les inquiétudes concernant les progrès technologiques de la Chine et la forte augmentation des dépenses internationales en matière de défense ont également fait évoluer les mentalités au sein du secteur.
"Il n'y a pourtant pas si longtemps, collaborer avec l'armée sur des technologies potentiellement dangereuses était considéré comme une ligne rouge par de nombreux employés des grandes entreprises technologiques. En 2018, des milliers d'employés de Google ont organisé une manifestation contre un programme destiné à analyser des images filmées par des drones pour le ministère américain de la Défense, baptisé Project Maven", rappelle The Guardian. Les employés qui refusaient de travailler pour l'armée ont été licenciés. "Google a supprimé de ses politiques les dispositions de 2018 qui interdisaient le développement de technologies à des fins militaires et a signé de nombreux contrats autorisant les forces armées à utiliser ses produits", poursuit le quotidien anglophone.
Le PDG Sundar Pichai [de Google] a adressé une note de service aux employés après ces licenciements, dans laquelle il précisait que Google était une entreprise et non un lieu où "se disputer sur des questions controversées ou débattre de politique". Google travaille pour l'armée US et analyse les recherches des internautes. "Google a annoncé cette semaine qu'il mettrait à disposition son intelligence artificielle Gemini afin de fournir à l'armée une plateforme permettant de créer des agents IA destinés à travailler sur des projets non classifiés", rajoute le quotidien appartenant au Scott Trust.
OpenAI avait aussi instauré une interdiction générale d'accès à ses modèles pour toutes les forces armées avant 2024, mais depuis, son directeur des produits occupe le poste de lieutenant-colonel au sein du "corps d'innovation exécutif" de l'armée américaine. "La start-up, aux côtés de Google, Anthropic et xAI, a signé l'année dernière un contrat d'une valeur pouvant atteindre 200 millions de dollars avec le ministère américain de la Guerre afin d'intégrer sa technologie dans les systèmes militaires", stipule la fondation qui possède le quotidien anglophone et dont la mission est de défendre l'indépendance des journalistes.
D'après le Washington Post, le réseau de neurones Claude a été intégré dans le système intelligent Maven (une seule plate-forme de renseignement du ministère américain de la Guerre) en conjonction avec le logiciel Palantir (son entrepreneur technologique et son opérateur) et a été utilisé pour identifier des cibles en Iran en temps réel.
Alors qu'Anthropic avait refusé l'emploi de sa technologie pour l'armée US et que Trump a fait pression pour bannir ses produits, Claude - le réseau de neurones - a continué à travailler en Iran. Il a été utilisé par l'US Air Force pour synthétiser le renseignement et identifier des cibles en temps réel. Anthropic était à la fois un plaignant devant le tribunal contre le ministère américain de la Guerre et un fournisseur de facto de technologie pour ses opérations.
Un système militaire utilisant l'IA est capable de générer jusqu'à 100 cibles par jour - contre 50 cibles par an qu'un analyste expérimenté pourrait traiter. Le temps de "vérification" moyen de la cible était de 20 secondes, ouvrant la porte à des massacres.
L'IA devient un nouvel outil de la concurrence militaire mondiale.
source : Observateur Continental