Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Contrôle des fournisseurs après la mise sur le marché et plan de contrôle après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

1. Les systèmes d'IA présentant un risque s'entendent comme un "produit présentant un risque" au sens de l'article 3, point 19, du règlement (UE) 2019/1020, dans la mesure où ils présentent des risques pour la santé ou la sécurité, ou pour les droits fondamentaux, des personnes.

2. Lorsque l'autorité de surveillance du marché d'un État membre a des raisons suffisantes de considérer qu'un système d'IA présente un risque au sens du paragraphe 1 du présent article, elle procède à une évaluation du système d'IA concerné en ce qui concerne sa conformité à l'ensemble des exigences et obligations prévues par le présent règlement. Une attention particulière est accordée aux systèmes d'IA présentant un risque pour les groupes vulnérables. Lorsque des risques pour les droits fondamentaux sont identifiés, l'autorité de surveillance du marché informe également les autorités ou organismes publics nationaux compétents visés à l'article 77, paragraphe 1, et coopère pleinement avec eux. Les opérateurs concernés coopèrent, si nécessaire, avec l'autorité de surveillance du marché et avec les autres autorités ou organismes publics nationaux visés à l'article 77, paragraphe 1. Si, au cours de cette évaluation, l'autorité de surveillance du marché ou, le cas échéant, l'autorité de surveillance du marché en coopération avec l'autorité publique nationale visée à l'article 77, paragraphe 1, constate que le système d'IA n'est pas conforme aux exigences et obligations prévues par le présent règlement, elle demande sans délai injustifié à l'opérateur concerné de prendre toutes les mesures correctives appropriées pour mettre le système d'IA en conformité, de le retirer du marché ou de le rappeler dans un délai qu'elle peut prescrire et, en tout état de cause, dans un délai de quinze jours ouvrables ou, si ce délai est plus court, dans les conditions prévues par la législation d'harmonisation de l'Union applicable. L'autorité de surveillance du marché en informe l'organisme notifié concerné. L'article 18 du règlement (UE) 2019/1020 s'applique aux mesures visées au deuxième alinéa du présent paragraphe.

3. Lorsque l'autorité de surveillance du marché estime que le non-respect ne se limite pas à son territoire national, elle informe sans délai la Commission et les autres États membres des résultats de l'évaluation et des mesures qu'elle a demandé à l'opérateur de prendre.

4. L'opérateur veille à ce que toutes les mesures correctives appropriées soient prises pour tous les systèmes d'IA concernés qu'il a mis à disposition sur le marché de l'Union.

5. Lorsque l'exploitant d'un système d'IA ne prend pas de mesures correctives adéquates dans le délai visé au paragraphe 2, l'autorité de surveillance du marché prend toutes les mesures provisoires appropriées pour interdire ou restreindre la mise à disposition ou la mise en service du système d'IA sur son marché national, pour retirer le produit ou le système d'IA autonome de ce marché ou pour le rappeler. Cette autorité informe sans délai la Commission et les autres États membres de ces mesures.

6. La notification visée au paragraphe 5 comprend tous les détails disponibles, en particulier les informations nécessaires à l'identification du système d'IA non conforme, l'origine du système d'IA et de la chaîne d'approvisionnement, la nature de la non-conformité alléguée et le risque encouru, la nature et la durée des mesures nationales prises et les arguments avancés par l'opérateur concerné. En particulier, les autorités de surveillance du marché indiquent si la non-conformité est due à un ou plusieurs des éléments suivants :

(a) le non-respect de l'interdiction des pratiques d'IA visées à l'article 5;

(b) le non-respect, par un système d'IA à haut risque, des exigences énoncées au chapitre III,
la section 2 ;

(c) les lacunes des normes harmonisées ou des spécifications communes visées aux articles 40 et 41, qui confèrent une présomption de conformité ;

(d) le non-respect de l'article 50.

7. Les autorités de surveillance du marché autres que celle de l'État membre qui ouvre la procédure informent sans délai la Commission et les autres États membres de toute mesure adoptée et de toute information supplémentaire dont elles disposent concernant la non-conformité du système d'IA concerné et, en cas de désaccord avec la mesure nationale notifiée, de leurs objections.

8. Lorsque, dans les trois mois suivant la réception de la notification visée au paragraphe 5 du présent article, aucune objection n'a été soulevée par une autorité de surveillance du marché d'un État membre ou par la Commission à l'égard d'une mesure provisoire prise par une autorité de surveillance du marché d'un autre État membre, cette mesure est réputée justifiée. Cette disposition s'applique sans préjudice des droits procéduraux de l'opérateur concerné conformément à l'article 18 du règlement (UE) 2019/1020. Le délai de trois mois visé au présent paragraphe est ramené à trente jours en cas de non-respect de l'interdiction des pratiques d'IA visée à l'article 5 du présent règlement.

9. Les autorités de surveillance du marché veillent à ce que des mesures restrictives appropriées soient prises à l'égard du produit ou du système d'IA concerné, telles que le retrait du produit ou du système d'IA de leur marché, dans les meilleurs délais.

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)