Une enquête dévoile l’existence du système israélien « Lavender », utilisé pour choisir les cibles de frappes militaires à Gaza. Le système aurait identifié 37 000 cibles humaines, suscitant l’indignation internationale.
Les révélations mettent en lumière l’utilisation de cette intelligence artificielle pour cibler des militants du Hamas, du haut jusqu’au bas de la hiérarchie, avec des conséquences tragiques sur les civils touchés par les frappes.
Impact dévastateur sur Gaza
Le système « Lavender » a été déployé pour automatiser la sélection des cibles, conduisant à des milliers de morts, y compris des travailleurs humanitaires. Tsahal niera l’existence d’une « kill list », mais les témoignages révèlent une utilisation massive de cette technologie.
Automatisation de la destruction
Les machines militaires telles que « Lavender » remettent en question l’éthique des opérations, avec des conséquences dévastatrices sur la population civile. La militarisation de l’intelligence artificielle soulève des préoccupations majeures quant à son utilisation et son impact humanitaire.