Le projet de loi européen sur l’intelligence artificielle, nommé AI Act, vise à établir un contrôle approprié sans interdiction directe. Il définit l’IA comme un système basé sur des machines pouvant influencer les environnements physiques ou virtuels. L’objectif est de garantir la confiance des Européens dans l’utilisation de l’IA autorisée dans l’UE, tout en identifiant et régulant les risques liés à différents niveaux de systèmes d’IA. Le Parlement européen est appelé à voter le texte le 13 mars 2024, en vue d’une version finale le 22 avril 2024.
Niveaux de risques et réglementations
Le cadre juridique proposé distingue quatre niveaux de risques liés à l’IA : risques minimaux, limités, élevés et inacceptables. Les risques inacceptables, tels que les systèmes de notation sociale et l’IA manipulatrice, sont interdits. Les systèmes à haut risque sont réglementés, tandis que ceux à risque limité doivent respecter des obligations de transparence permettant aux utilisateurs de reconnaître leur interaction avec l’IA, notamment dans les cas de chatbots et de deepfakes. Les risques minimaux, comme les jeux vidéo ou les filtres anti-spam, deviennent également sujets à régulation en raison de l’évolution des IA génératives.
Interdictions et obligations
L’AI Act vise à interdire les pratiques à haut risque, tout en établissant une liste d’applications d’IA surveillées. Des exigences claires et des obligations spécifiques sont définies pour les acteurs impliqués, avec des contrôles préalables et postérieurs à la mise sur le marché. Une structure de gouvernance européenne et nationale est prévue pour assurer une application efficace et renforcer la confiance dans les systèmes d’IA autorisés, afin de prévenir les abus potentiels.
Obligation de transparence et supervision
L’AI Act introduit une obligation de transparence pour tous les modèles d’IA opérant sur le marché européen, nécessitant une explication détaillée du fonctionnement, des méthodes d’entraînement, etc. Un bureau européen de l’intelligence artificielle a été créé en février 2024 pour superviser ces règles. Cet office sera chargé d’évaluer les capacités des modèles d’IA, de créer des outils et critères d’évaluation, ainsi que de surveiller le respect des règles et de traiter les plaintes des utilisateurs européens.