dimanche 28 avril 2024

28 avril 2024 : gouvernés par des machines : la guerre moderne !

 

Au XXe siècle, le capitalisme s'est développé en générant une économie de la guerre permanente où règnent en maîtres de vastes complexes militaro-industriels qui tirent profit du carnage.

(Mathieu Rigouste, Les marchands de peur : la bande à Bauer et l'idéologie sécuritaire, Libertalia, 2013)

Et toujours Gaza. On en apprend tous les jours, si on veut bien quitter les médias mainstream (dominants) qui ne fournissent que renseignements fournis par Israël, et largement propagandistes.

 


Vu dans "Investig'Action", média internet indépendant, et repris dans la newsletter "PARDEM info".

 

Révélation : L’armée israélienne a désigné des dizaines de milliers d’habitants de Gaza comme étant suspectés de meurtres, en utilisant un système de ciblage par “intelligence artificielle" (IA) peu ou pas supervisé par des humains et une politique permissive en matière de pertes humaines… Effrayant !
En 2021, un livre intitulé “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World”[“La machine humaine : Comment créer une synergie entre humains et intelligence artificielle qui révolutionnera notre monde”] a été publié en anglais sous le nom de plume “Brigadier General Y.S.” Dans cet ouvrage, l’auteur un homme dont nous avons confirmé qu’il est l’actuel commandant de l’unité d’élite du renseignement israélien 8200 plaide en faveur de la conception d’une machine spéciale capable de traiter rapidement des quantités massives de données afin de générer des milliers de “cibles” potentielles pour des frappes militaires dans le feu de l’action. Cette technologie, écrit-il, résoudrait ce qu’il décrit comme une “lacune humaine tant pour la localisation des nouvelles cibles que pour la prise de décision concernant l’approbation des cibles”.
Il s’avère qu’une telle machine existe réellement. Une nouvelle enquête menée par +972 Magazine et Local Call révèle que l’armée israélienne a mis au point un programme basé sur l’intelligence artificielle, connu sous le nom de “Lavender”, dévoilé ici pour la première fois. Selon six officiers de renseignement israéliens, qui ont tous servi dans l’armée pendant la guerre actuelle contre la bande de Gaza et ont été directement impliqués dans l’utilisation de l’intelligence artificielle pour générer des cibles à assassiner, Lavender a joué un rôle central dans le bombardement sans précédent des Palestiniens, en particulier pendant les premières phases de la guerre. En fait, selon les sources, son influence sur les opérations militaires était telle qu’elles traitaient les résultats de la machine d’IA “comme s’il s’agissait d’une décision humaine”.
Officiellement, le système Lavender est conçu pour sélectionner tous les agents présumés des branches militaires du Hamas et du Jihad islamique palestinien (PIJ), y compris les agents de rang inférieur, comme des cibles potentielles d’attentats à la bombe. Les sources ont déclaré à +972 et à Local Call que, pendant les premières semaines de la guerre, l’armée s’est presque entièrement appuyée sur Lavender, qui a désigné jusqu’à 37 000 Palestiniens comme étant des militants présumés ainsi que leurs maisons en vue d’éventuelles frappes aériennes.
Au début de la guerre, l’armée a largement autorisé les officiers à générer des listes de personnes à abattre de Lavender, sans qu’il soit nécessaire de vérifier minutieusement pourquoi la machine avait fait ces choix, ou d’examiner les données brutes du renseignement sur lesquelles elles étaient basées. Une source a déclaré que le personnel humain ne faisait souvent qu’entériner les décisions de la machine, ajoutant que, normalement, il ne consacrait personnellement qu’environ “20 secondes” à chaque cible avant d’autoriser un bombardement juste pour s’assurer que la cible désignée par Lavender est bien un homme. Et ce, tout en sachant que le système commet ce que l’on considère comme des “erreurs” dans environ 10 % des cas, et qu’il est notoire qu’il sélectionne occasionnellement des individus qui n’ont qu’un lien ténu avec des groupes militants, voire aucun lien du tout.
En outre, l’armée israélienne a systématiquement attaqué les personnes ciblées alors qu’elles se trouvaient chez elles généralement la nuit, en présence de toute leur famille plutôt qu’au cours d’une activité militaire présumée. Selon les sources, cela s’expliquerait par le fait que, du point de vue du renseignement, il est plus facile de localiser les individus chez eux. D’autres systèmes automatisés, dont celui appelé “Where’s Daddy ?” [Où est papa ?], également révélé ici pour la première fois, ont été utilisés spécifiquement pour suivre les personnes ciblées et commettre des attentats à la bombe lorsqu’elles sont chez elles avec leur famille.
Le résultat, comme en témoignent les sources, est que des milliers de Palestiniens pour la plupart des femmes et des enfants ou des personnes qui n’étaient pas impliquées dans les combats ont été tués par les frappes aériennes israéliennes, en particulier au cours des premières semaines de la guerre, en raison des décisions du programme d’intelligence artificielle.
Nous ne voulions pas tuer les agents [du Hamas] uniquement lorsqu’ils se trouvent dans un bâtiment militaire ou participent à une activité militaire”, a déclaré A., un officier de renseignement, à +972 et à Local Call. “Au contraire, les Forces de défense israéliennes les ont bombardés dans leurs maisons sans hésiter, en première option. Il est beaucoup plus facile de bombarder la maison d’une famille. Le système est conçu pour les rechercher dans ce type de situation”.
La machine Lavender rejoint un autre système d’IA, “The Gospel”, dont +972 et Local Call ont révélé des informations lors d’une précédente enquête en novembre 2023, et visibles dans les propres publications de l’armée israélienne. Une différence fondamentale entre les deux systèmes réside dans la définition de la cible : alors que The Gospel marque les bâtiments et les structures à partir desquels, selon l’armée, les militants opèrent, Lavender désigne les personnes et les inscrit sur une liste de suspects à abattre.
En outre, selon les sources, lorsqu’il s’agit de cibler des militants juniors présumés marqués par Lavender, l’armée préfère n’utiliser que des missiles non guidés, communément appelés bombes “muettes” (par opposition aux bombes de précision dites “intelligentes”), qui peuvent détruire des bâtiments entiers et causer d’importantes pertes humaines.
Nous ne voulons pas gaspiller des bombes coûteuses sur des personnes sans importance – cela coûte très cher au pays, alors que la pénurie [de ces bombes] se fait sentir”, a déclaré C., l’un des officiers de renseignement. Une autre source a déclaré qu’ils avaient personnellement autorisé le bombardement de “centaines” d’habitations privées d’agents subalternes présumés marqués par Lavender, nombre de ces attaques tuant des civils et des familles entières en tant que “dommages collatéraux”.
Selon deux des sources, l’armée a également décidé, au cours des premières semaines de la guerre, que pour chaque agent subalterne du Hamas marqué par Lavender, il était permis de tuer jusqu’à 15 ou 20 civils. Par le passé, l’armée n’autorisait aucun “dommage collatéral” lors de l’assassinat de militants de moindre importance. Les sources ont ajouté que, quand la cible est un haut responsable du Hamas commandant de bataillon ou de brigade, l’armée a autorisé à plusieurs reprises le meurtre de plus de 100 civils pour l’assassinat d’un seul commandant.
Et voilà le résultat brillant de l’Intelligence Artificielle, du règne de la machine. L’horreur absolue. Comment voulez-vous que ça ne me révulse pas ?
Nous n’étions qu’une poignée samedi après-midi à Bordeaux pour le Rassemblement contre le génocide en cours. Toujours à Bordeaux le lundi précédent, même pas une centaine pour la conférence du médecin Christophe Oberlin, de retour de Gaza. Il faut croire que l’intelligence humaine est en jachère, la sensibilité écorchée, la compassion éteinte, le cœur bouché. Il faut croire que nous ne sommes plus que des monstres inhumains guidés par des machines. Pouah ! Vivement que je quitte ce monde, même pour aller en enfer : ce dernier ne peut pas être pire...

Aucun commentaire: