L’armée israélienne et son programme d’IA « Lavender » : un ciblage controversé des Palestiniens

Une enquête conjointe du magazine israélien +972 et du site Local Call a mis en lumière l’existence d’un programme d’intelligence artificielle, « Lavender », utilisé par l’armée israélienne pour cibler des Palestiniens durant le conflit à Gaza.

D’après d’anciens officiers des services de renseignement, Lavender a permis d’identifier des cibles potentielles au sein du Hamas et du Jihad islamique palestinien, dont des individus de rang inférieur. Lors de la première phase du conflit, environ 37 000 Palestiniens ont été marqués comme militants présumés, avec leur lieu de résidence.

Une confiance excessive dans les décisions de l’IA

L’enquête souligne que les militaires faisaient largement confiance aux décisions de Lavender, traitant ses résultats « comme s’il s’agissait d’une décision humaine ». Le personnel approuvait souvent rapidement les choix de la machine, sans vérifier soigneusement les cibles avant d’autoriser les bombardements.

Des erreurs et des conséquences graves

Bien que Lavender commette des erreurs dans environ 10 % des cas, l’armée a approuvé des frappes aériennes sur des cibles marquées avec peu d’attention. Les frappes aériennes visaient principalement des personnes à leur domicile, souvent la nuit, entraînant la mort de milliers de Palestiniens, dont de nombreux non-combattants.


Derniers Articles

Ces articles pourraient vous plaire