Révélations choquantes sur les programmes d’intelligence artificielle utilisés lors des bombardements à Gaza

Le média israélien +972mag a révélé l’utilisation décisive de deux programmes d’intelligence artificielle (IA) lors des récents bombardements à Gaza. Ces programmes, Lavender et Where’s Daddy ?, ont été utilisés pour cibler et attaquer des civils, en violation du droit de la guerre et de la proportionnalité. Les implications de cette enquête détaillée remettent en question les pratiques de l’armée israélienne.

Une investigation approfondie révèle comment l’IA a été utilisée pour désigner des civils comme cibles potentielles, avec des conséquences catastrophiques. Les erreurs fréquentes de ces programmes ont entraîné des frappes aériennes sur des habitations, causant des pertes civiles massives. La justification des autorités israéliennes reposant sur l’emploi de boucliers humains par le Hamas a été contredite, révélant une planification délibérée pour frapper au milieu de civils sans égard pour les vies innocentes.

Un système meurtrier basé sur l’IA

L’enquête de +972mag met en lumière le fonctionnement de Lavender, un programme utilisant le deep learning pour identifier des cibles en croisant des données de masse collectées sur les habitants de Gaza et des profils de combattants du Hamas. Ces critères flous ont conduit à des erreurs fréquentes, avec 10% de « faux positifs », incluant des enfants et des civils innocents. Une fois la cible validée, une bombe non-guidée pouvait être larguée sur sa résidence, entraînant des pertes collatérales inacceptables.

Where’s Daddy ? entre alors en jeu pour localiser la cible et déclencher une frappe aérienne. Les dommages causés par ces attaques, souvent avec des bombes non-guidées détruisant des immeubles entiers, ont dépassé toute proportionnalité. Les révélations pointent vers une déshumanisation des Palestiniens et une utilisation inquiétante de l’IA pour des opérations militaires meurtrières.

Des conséquences dévastatrices et des questions éthiques

Ces révélations soulèvent des questions éthiques majeures concernant l’utilisation de l’IA dans les conflits armés. La quasi-absence de vérification humaine et les dommages collatéraux massifs mettent en lumière un dangereux précédent. L’inquiétude croissante quant à l’évolution de ces pratiques, notamment l’implication de Meta (ex-Facebook) et d’autres entreprises technologiques, soulève des préoccupations sur la sécurité et la protection des civils dans les zones de conflit.

La menace d’un « risque de génocide » à Gaza souligne l’urgence d’examiner de près ces méthodes meurtrières assistées par ordinateur. Alors que le monde s’efforce de prévenir de nouvelles atrocités, ces révélations mettent en lumière les dangers d’une utilisation incontrôlée de l’intelligence artificielle dans les opérations militaires.

Derniers Articles

Ces articles pourraient vous plaire