Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Contrôle des fournisseurs après la mise sur le marché et plan de contrôle après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.

Récital 53

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

Il est également important de préciser qu'il peut y avoir des cas spécifiques dans lesquels les systèmes d'IA visés dans les domaines prédéfinis spécifiés dans le présent règlement n'entraînent pas un risque important d'atteinte aux intérêts juridiques protégés dans ces domaines parce qu'ils n'influencent pas matériellement la prise de décision ou ne portent pas atteinte à ces intérêts de manière substantielle. Aux fins du présent règlement, un système d'IA qui n'influence pas sensiblement le résultat d'une prise de décision doit être compris comme un système d'IA qui n'a pas d'incidence sur la substance, et donc sur le résultat, d'une prise de décision, qu'elle soit humaine ou automatisée. Un système d'IA qui n'influence pas matériellement le résultat de la prise de décision pourrait inclure des situations dans lesquelles une ou plusieurs des conditions suivantes sont remplies. La première de ces conditions devrait être que le système d'IA soit destiné à exécuter une tâche procédurale limitée, comme un système d'IA qui transforme des données non structurées en données structurées, un système d'IA qui classe des documents entrants par catégories ou un système d'IA qui est utilisé pour détecter les doublons parmi un grand nombre d'applications. Ces tâches sont d'une nature tellement étroite et limitée qu'elles ne présentent que des risques limités qui ne sont pas accrus par l'utilisation d'un système d'IA dans un contexte répertorié comme une utilisation à haut risque dans une annexe du présent règlement. La deuxième condition doit être que la tâche exécutée par le système d'IA soit destinée à améliorer le résultat d'une activité humaine précédemment accomplie qui peut être pertinente aux fins des utilisations à haut risque énumérées dans une annexe du présent règlement. Compte tenu de ces caractéristiques, le système d'IA n'apporte qu'une couche supplémentaire à une activité humaine dont le risque est par conséquent réduit. Cette condition s'appliquerait, par exemple, aux systèmes d'IA destinés à améliorer le langage utilisé dans des documents déjà rédigés, par exemple en ce qui concerne le ton professionnel, le style académique du langage ou en alignant le texte sur un certain message de marque. La troisième condition devrait être que le système d'IA soit destiné à détecter des modèles de prise de décision ou des écarts par rapport à des modèles de prise de décision antérieurs. Le risque serait réduit parce que l'utilisation du système d'IA fait suite à une évaluation humaine préalable qu'il n'est pas censé remplacer ou influencer, sans examen humain approprié. Ces systèmes d'IA comprennent par exemple ceux qui, à partir d'un certain modèle de notation d'un enseignant, peuvent être utilisés pour vérifier a posteriori si l'enseignant s'est écarté du modèle de notation, de manière à signaler les incohérences ou les anomalies potentielles. La quatrième condition devrait être que le système d'IA soit destiné à effectuer une tâche qui n'est que préparatoire à une évaluation pertinente aux fins des systèmes d'IA énumérés dans une annexe du présent règlement, ce qui rend l'impact possible de la sortie du système très faible en termes de risque pour l'évaluation à suivre. Cette condition couvre, entre autres, les solutions intelligentes pour le traitement des fichiers, qui comprennent diverses fonctions d'indexation, de recherche, de traitement du texte et de la parole ou de mise en relation des données avec d'autres sources de données, ou les systèmes d'IA utilisés pour la traduction de documents initiaux. En tout état de cause, les systèmes d'IA utilisés dans des cas d'utilisation à haut risque énumérés dans une annexe du présent règlement devraient être considérés comme présentant des risques importants d'atteinte à la santé, à la sécurité ou aux droits fondamentaux si le système d'IA implique un profilage au sens de l'article 4, point 4), du règlement (UE) 2016/679 ou de l'article 3, point 4), de la directive (UE) 2016/680 ou de l'article 3, point 5), du règlement (UE) 2018/1725. Afin d'assurer la traçabilité et la transparence, un fournisseur qui estime qu'un système d'IA ne présente pas de risque élevé sur la base des conditions visées ci-dessus devrait établir la documentation relative à l'évaluation avant que ce système ne soit mis sur le marché ou mis en service et devrait fournir cette documentation aux autorités nationales compétentes qui en font la demande. Ce fournisseur devrait être tenu d'enregistrer le système d'IA dans la base de données de l'UE établie en vertu du présent règlement. Afin de fournir des orientations supplémentaires pour la mise en œuvre pratique des conditions dans lesquelles les systèmes d'IA énumérés dans une annexe du présent règlement ne présentent pas, à titre exceptionnel, un risque élevé, la Commission devrait, après avoir consulté le comité, fournir des lignes directrices précisant cette mise en œuvre pratique, complétées par une liste complète d'exemples pratiques de cas d'utilisation de systèmes d'IA qui présentent un risque élevé et de cas d'utilisation qui n'en présentent pas.

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)