L’IA en temps de guerre : un danger potentiel face à l’empoisonnement des données

Des chercheurs mettent en garde contre les risques liés à l’utilisation de l’intelligence artificielle (IA) en période de conflit armé. Lors de la conférence du Potomac, Jennifer Swanson, secrétaire adjointe, a soulevé la question de l’empoisonnement des puits de données, qui pourrait saboter les algorithmes utilisés pendant une guerre.

L’IA, utilisée dans divers secteurs depuis sa création, est de plus en plus considérée comme une arme de guerre redoutable. Cependant, des spécialistes estiment que son utilisation en contexte belliqueux est limitée, car les adversaires pourraient altérer les données, entraînant ainsi l’échec des algorithmes.

L’empoisonnement des données, un frein à la prise de décision sur le champ de bataille

Selon Jennifer Swanson, « tout LLM commercial apprenant sur Internet est actuellement empoisonné ». Elle exprime principalement ses inquiétudes concernant les algorithmes qui influenceront les décisions sur le champ de bataille.

Le Pentagone s’appuie fortement sur l’IA et le big data pour remporter les batailles. Néanmoins, le chef des acquisitions de logiciels de l’armée avertit que les ennemis pourraient contaminer les puits de données utilisés par l’IA, altérant ainsi les algorithmes que les États-Unis comptent utiliser à l’avenir.

Se protéger contre l’empoisonnement des données

Jusqu’à présent, tous les algorithmes d’apprentissage automatique sont basés sur une grande quantité de données. Le Pentagone investit beaucoup d’efforts pour collecter, stocker et nettoyer ses données, afin que les algorithmes analytiques et les jeunes IA puissent en bénéficier.

Swanson recommande la création de données militaires fiables et évaluées dans un environnement sécurisé, plutôt que de former un LLM sur Internet ouvert. Elle conseille vivement un système de niveau d’impact DoD 5 ou 6, qui serait en mesure de protéger les données contre l’empoisonnement.


Derniers Articles

Ces articles pourraient vous plaire