Deux médias israéliens ont accusé Israël d’utiliser l’intelligence artificielle (IA) pour identifier et frapper des cibles à Gaza, provoquant de nombreuses victimes civiles. Un programme de l’armée israélienne appelé « Lavender » utilise l’IA pour cette fin, avec une certaine marge d’erreur.
Les médias indépendants « +972 Magazine » et « Local Call » rapportent que l’IA a joué un rôle central lors des premières semaines des bombardements israéliens sur Gaza, conduisant à des décisions controversées sur les cibles à frapper. Ces actions ont suscité des accusations de crimes de guerre.
Les préoccupations du secrétaire général de l’ONU
Les accusations ont suscité une réaction vive du secrétaire général de l’ONU, Antonio Guterres, qui a exprimé sa préoccupation quant à l’utilisation de l’IA pour identifier des cibles, en particulier dans des zones peuplées, entraînant un grand nombre de victimes civiles. Il a souligné le caractère inhumain de déléguer de telles décisions à des algorithmes.
Réactions et implications
Des experts et militants ont critiqué ces méthodes, les qualifiant de violations flagrantes du droit international humanitaire. L’idée de crimes de masse commis à l’aide de l’intelligence artificielle suscite des débats intenses quant à l’éthique et la légalité de telles pratiques.