La vidéosurveillance algorithmique testée lors d’événements à Paris

Ce week-end, la vidéosurveillance algorithmique est mise à l’épreuve lors de deux événements à Paris, détectant les mouvements de foule suspects, les bagages oubliés et les intrusions dans des zones restreintes. Contrairement à la reconnaissance faciale, cette technologie suscite des inquiétudes selon l’ONG Amnesty. Les expérimentations par la RATP et la SNCF ont lieu avant les Jeux olympiques de Paris, avec des installations dans divers lieux publics.

Des panneaux d’avertissement ont été placés pour informer le public de ces tests. Certains restent sceptiques quant à l’impact sur leur sécurité, tandis que d’autres voient le potentiel positif de prévenir les incidents lors de rassemblements importants. Les caméras surveillent les mouvements de foule et les bagages abandonnés, signalant tout incident aux autorités pour intervention immédiate.

Les autorités insistent sur l’absence de reconnaissance faciale dans ces dispositifs. La loi actuelle n’autorise que l’utilisation de l’intelligence artificielle pour détecter des comportements à risque, sans recourir à la reconnaissance faciale pour l’identification des individus filmés. Cette expérimentation est encadrée jusqu’en 2025, excluant expressément la reconnaissance faciale sauf en cas de circonstances exceptionnelles.

L’intervention d’Amnesty International souligne la préoccupation croissante concernant l’utilisation de la vidéosurveillance algorithmique pour l’identification des individus dans l’espace public. Le débat sur la protection des libertés individuelles et la garantie de la vie privée reste au cœur de ces avancées technologiques et des implications pour la société.

Les prochaines étapes concernant l’évolution et la régulation de ces technologies de surveillance en France et en Europe suscitent des interrogations sur le juste équilibre entre sécurité publique et respect des droits fondamentaux.

Derniers Articles

Ces articles pourraient vous plaire