Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Recherche dans le cadre de la loi

Annexe III : Systèmes d'IA à haut risque

Résumé

La présente annexe énumère les cas d'utilisation qui permettraient de qualifier un système d'IA de "à haut risque" au sens de la loi sur l'IA. Ces systèmes sont soumis à des obligations supplémentaires en vertu de la loi. Ces cas d'utilisation incluent l'IA utilisée dans la biométrie, les infrastructures critiques, l'éducation, l'emploi, les services essentiels, l'application de la loi, les migrations et la justice. Toutefois, certaines exceptions s'appliquent à l'IA utilisée pour la vérification biométrique de l'identité, la détection de la fraude financière ou l'organisation de campagnes politiques.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

Les systèmes d'IA à haut risque visés à l'article 6, paragraphe 2, sont les systèmes d'IA énumérés dans l'un des domaines suivants :

1. Les données biométriques, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :

(a) les systèmes d'identification biométrique à distance. Sont exclus les systèmes d'IA destinés à être utilisés pour la vérification biométrique, dont le seul but est de confirmer qu'une personne physique donnée est bien celle qu'elle prétend être ;

(b) les systèmes d'IA destinés à être utilisés pour la catégorisation biométrique, en fonction d'attributs ou de caractéristiques sensibles ou protégés, sur la base de l'inférence de ces attributs ou caractéristiques ;

(c) les systèmes d'IA destinés à être utilisés pour la reconnaissance des émotions.

2. Infrastructures critiques : Systèmes d'IA destinés à être utilisés comme composants de sécurité dans la gestion et l'exploitation d'infrastructures numériques critiques, dans le trafic routier ou dans la fourniture d'eau, de gaz, de chauffage ou d'électricité.

3. L'éducation et la formation professionnelle :

(a) les systèmes d'IA destinés à être utilisés pour déterminer l'accès, l'admission ou l'affectation de personnes physiques à des établissements d'enseignement et de formation professionnelle à tous les niveaux ;

(b) les systèmes d'IA destinés à être utilisés pour évaluer les résultats de l'apprentissage, y compris lorsque ces résultats sont utilisés pour orienter le processus d'apprentissage des personnes physiques dans les établissements d'enseignement et de formation professionnelle à tous les niveaux ;

(c) les systèmes d'IA destinés à être utilisés pour évaluer le niveau d'éducation approprié qu'une personne recevra ou pourra atteindre, dans le cadre ou au sein des établissements d'enseignement et de formation professionnelle à tous les niveaux ;

(d) les systèmes d'IA destinés à être utilisés pour surveiller et détecter les comportements interdits des étudiants lors des tests dans le cadre ou au sein des établissements d'enseignement et de formation professionnelle à tous les niveaux.

4. Emploi, gestion des travailleurs et accès à l'emploi indépendant :

(a) les systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour publier des offres d'emploi ciblées, pour analyser et filtrer les candidatures et pour évaluer les candidats ;

(b) les systèmes d'IA destinés à être utilisés pour prendre des décisions concernant les conditions des relations de travail, la promotion ou la résiliation des relations contractuelles liées au travail, pour attribuer des tâches sur la base du comportement individuel ou de traits ou caractéristiques personnels, ou pour surveiller et évaluer les performances et le comportement des personnes dans le cadre de ces relations.

5. Accès et jouissance des services privés essentiels et des services et prestations publics essentiels :

(a) les systèmes d'IA destinés à être utilisés par les autorités publiques ou pour le compte de celles-ci afin d'évaluer l'éligibilité des personnes physiques aux prestations et services essentiels d'assistance publique, y compris les services de santé, ainsi que pour octroyer, réduire, supprimer ou réclamer ces prestations et services ;

(b) les systèmes d'IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou établir leur score de crédit, à l'exception des systèmes d'IA utilisés à des fins de détection de la fraude financière ;

(c) les systèmes d'IA destinés à être utilisés pour l'évaluation des risques et la tarification en ce qui concerne les personnes physiques dans le cas de l'assurance vie et de l'assurance maladie ;

(d) les systèmes d'IA destinés à évaluer et à classer les appels d'urgence émanant de personnes physiques ou à être utilisés pour répartir les services de première intervention d'urgence, y compris la police, les pompiers et l'aide médicale, ou pour établir un ordre de priorité dans la répartition de ces services, ainsi que les systèmes de triage des patients dans le cadre des soins de santé d'urgence.

6. les services répressifs, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :

(a) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union à l'appui des services répressifs ou en leur nom, pour évaluer le risque qu'une personne physique soit victime d'infractions pénales ;

(b) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union qui soutiennent les services répressifs, comme polygraphes ou outils similaires ;

(c) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union, à l'appui des services répressifs, pour évaluer la fiabilité des éléments de preuve dans le cadre d'enquêtes ou de poursuites relatives à des infractions pénales ;

(d) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union en soutien aux services répressifs, pour évaluer le risque qu'une personne physique commette une infraction ou récidive, pas uniquement sur la base du profilage des personnes physiques visé à l'article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité et les caractéristiques ou le comportement criminel antérieur de personnes physiques ou de groupes de personnes ;

(e) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union qui soutiennent les services répressifs, pour le profilage des personnes physiques visées à l'article 3, paragraphe 4, de la directive (UE) 2016/680 dans le cadre de la détection, de l'enquête ou de la poursuite d'infractions pénales.

7. Gestion des migrations, de l'asile et des contrôles aux frontières, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :

(a) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, comme polygraphes ou outils similaires ;

(b) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l'Union, ou en leur nom, pour évaluer un risque, y compris un risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, présenté par une personne physique qui a l'intention d'entrer ou qui est entrée sur le territoire d'un État membre ;

(c) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, afin d'aider les autorités publiques compétentes à examiner les demandes d'asile, de visa ou de permis de séjour et les plaintes connexes concernant l'admissibilité des personnes physiques demandant un statut, y compris les évaluations connexes de la fiabilité des éléments de preuve ;

(d) aux systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, dans le cadre de la gestion des migrations, de l'asile ou des contrôles aux frontières, aux fins de détection, de reconnaissance ou d'identification de personnes physiques, à l'exception de la vérification des documents de voyage.

8. Administration de la justice et processus démocratiques :

(a) les systèmes d'IA destinés à être utilisés par une autorité judiciaire ou en son nom pour l'aider à rechercher et à interpréter les faits et le droit et à appliquer le droit à un ensemble concret de faits, ou à être utilisés d'une manière similaire dans le cadre d'un règlement extrajudiciaire des litiges ;

(b) les systèmes d'IA destinés à être utilisés pour influencer le résultat d'une élection ou d'un référendum ou le vote de personnes physiques dans l'exercice de leur droit de vote lors d'élections ou de référendums. Cela n'inclut pas les systèmes d'IA auxquels les personnes physiques ne sont pas directement exposées, tels que les outils utilisés pour organiser, optimiser ou structurer les campagnes politiques d'un point de vue administratif ou logistique.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)