
« Une fois que l’on passe à l’automatisation, la génération des cibles échappe à tout contrôle. » Cette phrase qui révèle un emballement meurtrier des méthodes de l’armée israélienne a été prononcée par l’un de ses officiers ayant participé à l’opération « Glaive de fer » à Gaza, qui a suivi l’attaque du 7 octobre 2023. Elle illustre le rôle grandissant de l’Intelligence artificielle (IA) dans la stratégie génocidaire de Tel-Aviv.
Lors de ses interventions militaires, Israël a déjà eu recours à l’IA pour élaborer des processus d’identification des cibles. Mais, pour la première fois après le 7 octobre 2023, l’armée lui a délégué la responsabilité de leurs assassinats et l’autorisation d’élargir le cercle des victimes collatérales, comme l’a révélé une enquête du journaliste Yuval Abraham de +972 magazine, fondée en partie sur des documents obtenus par Drop Site News et menée auprès de sources militaires souhaitant garder l’anonymat1
Trente-sept mille cibles potentielles
Selon Yuval Abraham, l’usage de l’IA qui antérieurement n’était qu’un auxiliaire de fichage et de prise de décision s’est intensifié alors que la part de l’intervention humaine s’est restreinte. En 2021, l’actuel commandant de l’unité d’élite du renseignement israélien 8200, dans un manuel militaire au titre éloquent, « L’équipe humain-machine ou comment créer une synergie entre humain et intelligence artificielle qui va révolutionner le monde », évoquait la nécessité d’un programme de recueil des données et d’automatisation des décisions grâce à l’IA. Un tel projet est devenu opérationnel en 2024 sous le nom de « Lavender » (Lavande).
Dès que Lavender désigne un individu comme étant un militant du Hamas, ce repérage fait office d’ordre d’exécution, sans que soient vérifiées les données qui ont conduit la machine à cette conclusion. En faisant abstraction de leur rang ou de leur grade, l’IA a sélectionné 37 000 Palestiniens selon le principe des « traits » communs aux membres du Hamas et du Djihad islamique, l’armée assumant le risque que cette similarité l’induise en erreur et que le programme désigne des policiers, des membres de la défense civile, des parents de militants, des homonymes comme cibles potentielles. C’est exactement ce qui est arrivé.
Précédemment, l’assassinat d’une seule personne était conditionné par un processus d’identification qui permettait de s’assurer que celle-ci était bien un officier de haut rang de la branche militaire du Hamas, les seuls susceptibles d’être bombardés à leur domicile. Lorsque ce processus a été délégué à l’IA, la phase de vérification de l’identité du suspect a été réduite à une poignée de secondes avant que ne soit déclenché un tir d’élimination.
Lavender a donc joué un rôle déterminant dans l’usage intensif des bombardements, en particulier pendant les premières phases de la guerre durant lesquelles les officiers, couverts par leur hiérarchie, n’ont pas été tenus de vérifier les critères de choix de la machine (bien qu’elle se trompe dans 10 % des cas), s’assurant seulement que la cible était un homme puisque le Hamas et le Djihad islamique n’ont pas recours à des combattantes.
Un fonctionnement qui a conduit l’armée israélienne à tuer quelques 15 000 Palestiniens au cours des six premières semaines de son intervention à Gaza. Ce carnage s’est interrompu non pas pour des raisons morales, mais par peur de manquer de bombes. Une crainte infondée puisque l’aide américaine s’est poursuivie sans interruption.
Deux pour cent de la population de Gaza éliminée en dix mois
B., l’une des sources anonymes de Yuval Abraham, a admis que « en temps de guerre, on n’a pas le temps d’identifier chaque cible. On est donc prêt à accepter la marge d’erreur de l’utilisation de l’intelligence artificielle, à risquer des dommages collatéraux et la mort de civils, à attaquer par erreur, et à s’en accommoder. » Il explique que « la raison de cette automatisation était la volonté constante de créer davantage de cibles à assassiner. Le jour où il n’y avait pas de cibles (dont l’évaluation des caractéristiques était suffisante pour autoriser une frappe), nous attaquions à un seuil plus bas. On nous mettait constamment la pression : “Apportez-nous plus de cibles” Ils nous ont vraiment crié dessus. Nous avons fini (par tuer) nos cibles très rapidement ».
Cette injonction a eu pour effet que 2 % de la population gazaouie a été éliminée en 10 mois, selon les chiffres officiels. L’ambition meurtrière n’ayant pas de limite, l’extension du recensement automatique des hommes à abattre a été doublée par « The Gospel » (L’Évangile), un autre système d’IA, permettant de les localiser au moment où ils pénétraient dans leurs lieux d’habitation. Un couplage d’informations, baptisé de façon cynique « Where’s Daddy » (Où est papa ?), qui a permis de frapper les victimes, à l’aube, chez elles, lors de bombardements n’épargnant pas leurs familles.
Selon les chiffres de l’Organisation des Nations unies (ONU), dans le premier mois de la guerre, plus de la moitié des victimes — 6 120 personnes — appartenaient à l’une des 1 340 familles tuées à l’intérieur de leur maison. Dans ce contexte d’anéantissement, il n’est pas surprenant que la plupart soient des femmes et des enfants.
D’autant que l’armée israélienne a privilégié l’usage de bombes non guidées à la précision incertaine, dites « bombes muettes » car elles sont difficiles à détecter. Une autre source anonyme de Yuval Abraham en a décrit le protocole d’utilisation :
La seule question était de savoir s’il était possible d’attaquer le bâtiment en limitant les dommages collatéraux. En effet, nous menions généralement les attaques avec des bombes muettes, ce qui signifiait détruire littéralement toute la maison et ses occupants. Mais même si une attaque est évitée, on s’en fiche, on passe immédiatement à la cible suivante. Grâce au système, les cibles ne sont jamais épuisées. Il y en a encore 36 000 qui attendent.
Cette question des dommages collatéraux a été traitée de façon différente selon les phases de l’intervention israélienne. Au cours de la semaine qui a suivi le 7 octobre 2023, Israël a fait fi des dommages collatéraux comme le confirme B. à Yuval Abraham :
En pratique, on ne comptait pas vraiment les gens [dans chaque maison bombardée] parce qu’on ne pouvait pas vraiment savoir s’ils étaient chez eux ou non. Au bout d’une semaine, les restrictions sur les dommages collatéraux ont commencé. Le nombre est passé de quinze à cinq, ce qui a rendu nos attaques très difficiles, car, si toute la famille était à la maison, nous ne pouvions pas la bombarder. Puis ils ont à nouveau augmenté ce seuil.
Ce qui a autorisé l’armée, en novembre 2023, lorsqu’il s’est agi d’assassiner Ayman Nofal, le commandant de la brigade centrale de Gaza du Hamas, à procéder au meurtre de 300 civils et à détruire par des frappes aériennes plusieurs bâtiments du camp de réfugiés d’Al-Bureij.
Un taux de létalité inconnu au XXIe siècle
Le 5 avril 2024, sollicitée par Radio Canada sur la crédibilité du reportage des deux médias israéliens, Brianna Rosen, qui travaille depuis 15 ans sur la militarisation des nouvelles technologies, dont l’IA, estime que la réponse israélienne accrédite des informations fondamentales mises de l’avant par l’enquête journalistique. « Il y a beaucoup de choses que nous ignorons sur l’utilisation de l’IA par Israël à Gaza. Israël n’a pas été transparent à propos de ces systèmes classifiés », fait-elle valoir, dans un courriel à Radio-Canada. « Mais même si nous ne pouvons pas vérifier tous les détails dans l’article du magazine +972, nous pouvons vérifier certains aspects sur la base des propres déclarations d’Israël », souligne la chercheuse à l’Université d’Oxford et à Just Security, un forum en ligne qui analyse la législation et la politique entourant la sécurité nationale des États-Unis.
« Voici ce que nous savons avec certitude : Israël utilise des systèmes basés sur l’IA pour accélérer le rythme et l’ampleur de la guerre. » Une constatation validée par sa consœur Amélie Ferey, chercheuse au Laboratoire de recherche sur la défense (LRD) à l’Institut français des relations internationales (IFRI) dans un entretien du 18 juillet 2024 à Mediapart : « Ce que l’on voit à Gaza, c’est un taux de létalité quasiment inconnu au XXIe siècle. »
Savoir ce que chaque Palestinien fait
Dans une autre enquête à laquelle s’est associée le journal anglais The Guardian, +972 révèle que l’unité d’élite 8200, logée au sein de la direction du renseignement israélien, a été chargée à l’aide de l’IA de mettre au point un contrôle social au faciès, un Chatbot2 type ChatGPT qui intègre les données collectées sur la vie quotidienne des Palestiniens vivant sous occupation.
Une source du renseignement précise à Yuval Abraham :
L’IA amplifie le pouvoir. Elle utilise les données d’un plus grand nombre de personnes pour mener des opérations, ce qui permet de contrôler la population. Il ne s’agit pas seulement d’empêcher des attaques par balles. Je peux traquer les militants des droits humains. Je peux surveiller les constructions palestiniennes dans la zone C (en Cisjordanie)3. Je dispose de plus d’outils pour savoir ce que fait chaque personne en Cisjordanie.
La direction du renseignement militaire israélien s’est rendu compte que les modèles linguistiques existants ne connaissaient que l’arabe classique et pas, selon les termes d’un officier du renseignement, « les dialectes qui nous haïssent ». Des réservistes travaillant dans des entreprises technologiques privées ont corrigé cette aporie linguistique.
Ori Goshen, cofondateur d’Israeli company AI21 Labs, affirme que plutôt d’utiliser des « outils de recherche primitifs », les agents pourront « poser des questions et obtenir des réponses » d’un chatbot — comme, par exemple, déterminer si deux personnes se sont déjà rencontrées ou si une personne a déjà commis un acte répréhensible ou non.
Le président-directeur général de l’entreprise a toutefois reconnu que « ce sont des modèles probabilistes : vous leur posez une question, et ils génèrent quelque chose qui ressemble à de la magie. Mais souvent, la réponse n’a aucun sens. Nous appelons cela une “hallucination” ».
Ces modèles linguistiques sophistiqués ainsi qu’une surveillance renforcée dans les territoires occupés ont accentué le contrôle d’Israël sur la population et augmenté le nombre d’arrestations — ce qui a conduit, par exemple, Israël à emprisonner autant de Palestiniens qu’il en a libéré dans le cadre de l’accord avec le Hamas.
Microsoft, une entreprise totalement engagée aux côtés de Tel-Aviv
Depuis le 7 octobre, l’armée israélienne a intensifié sa collaboration avec les services du cloud et d’IA de Microsoft et de son partenaire OpenAI, dont le personnel a pris place dans différentes unités pour soutenir le déploiement de ses technologies. Le site Web de l’entreprise reconnaît que « les experts Microsoft de-viennent partie intégrante de l’équipe (du client). »
Des documents commerciaux du ministère israélien de la défense et des dossiers de la filiale israélienne de Microsoft consultés par Yuval Abraham révèlent que des dizaines d’unités de l’armée ont acheté des services de la plateforme du cloud computing4 de Microsoft Azure. Microsoft lui a également fourni un accès étendu au modèle de langage GPT-4 d’OpenAI, le moteur derrière ChatGPT5.
Avant 2024, les conditions d’OpenAI, partenaire de Microsoft, comprenaient une clause interdisant l’utilisation de ses services pour des activités « militaires et de guerre ». Mais en janvier 2024, alors que l’armée israélienne a augmenté sa dépendance à GPT-4 tout en bombardant la bande de Gaza, l’entreprise a discrètement supprimé cette clause de son site Web et a élargi ses partenariats avec les armées et les agences de renseignement nationales — ce dont, bien sûr, a profité Israël.
De nombreuses unités de son armée utilisent les services fournis par Azure : l’unité Ofek de l’armée de l’air, responsable de la gestion de grandes bases de données de cibles potentielles pour des bombardements aériens ; l’unité Matspen, responsable du développement des systèmes de soutien opérationnel et de combat ; l’unité Sapir, en charge du maintien de l’infrastructure des technologies d’information et de communication (TIC) de la direction du renseignement militaire ; la branche technologique de la division des opérations spéciales de la direction du renseignement militaire fabriquant des équipements de surveillance pour le renseignement israélien ; l’unité 8200, escadron de renseignement d’élite de la cyberguerre, et même le corps de l’avocat général militaire, chargé de poursuivre les Palestiniens et, théoriquement, les soldats contrevenants au « code éthique » des Forces de défense d’Israël (FDI).
Ces mêmes documents font état que le système « Rolling Stone » (Pierre qui roule), utilisé par l’armée pour gérer le registre des populations et les déplacements des Palestiniens en Cisjordanie et à Gaza, bénéficie de la maintenance de Microsoft Azure. L’entreprise conserve des liens étroits avec le ministère de la défense israélien à travers la gestion de projets relatifs à ses « systèmes spéciaux et complexes », y compris des « charges de travail sensibles » qu’aucune autre société du Cloud ne traite.
Les articles présentés sur notre site sont soumis au droit d’auteur. Si vous souhaitez reproduire ou traduire un article d’Orient XXI, merci de nous contacter préalablement pour obtenir l’autorisation de(s) auteur.e.s.
1Publiée le 25 janvier 2025 par le média en ligne israélo-palestinien +972 Magazine et le site d’information Local Call, les informations ont été relayées par de nombreux médias, The Guardian, Haaretz, L’Humanité, The Washington Post, CNN et Al-Jazirah.
2Automate conversationnel
3Les accords d’Oslo avaient divisé la Cisjordanie en trois zones ; la zone A sous responsabilité totale de l’Autorité palestinienne ; la Zone B sous autorité palestinienne, mais dont la sécurité était confiée à Israël ; la zone C, qui représente plus de la moitié de la Cisjordanie, mais est relativement peu peuplée, sous autorité totale israélienne.
4Serveurs informatiques à distance, hébergés dans des centres de données connectés à Internet pour stocker, gérer et traiter des données.
5Yuval Abraham, « Leaked documents expose deep ties between Israeli army and Microsoft », +972, 23 janvier 2025.