Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Suivi des fournisseurs après la mise sur le marché et plan de suivi après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication de la prise de décision individuelle

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

1. Avant de mettre en service un système d'IA à haut risque tel que défini à l 'article 6, paragraphe 2, à l'exception des systèmes d'IA destinés à être utilisés dans le domaine énuméré à l'annexe III, point 2, les déployeurs qui sont des organismes de droit public ou des opérateurs privés fournissant des services publics et les opérateurs déployant des systèmes à haut risque visés à l'annexe III, point 5, b) et d), procèdent à une évaluation de l'impact que l'utilisation du système peut avoir sur les droits fondamentaux. À cette fin, les déployeurs procèdent à une évaluation consistant à :

a) une description des processus du responsable du déploiement dans le cadre desquels le système d'IA à haut risque sera utilisé conformément à sa destination ;

b) une description de la période et de la fréquence auxquelles chaque système d'IA à haut risque est destiné à être utilisé ;

c) les catégories de personnes physiques et de groupes susceptibles d'être affectées par son utilisation dans le contexte spécifique ;

d) les risques spécifiques de préjudice susceptibles d'affecter les catégories de personnes ou le groupe de personnes identifiés en vertu du point c), en tenant compte des informations fournies par le prestataire en vertu de l'article 13;

e) une description de la mise en œuvre des mesures de surveillance humaine, conformément au mode d'emploi ;

f) les mesures à prendre en cas de matérialisation de ces risques, y compris leurs dispositions en matière de gouvernance interne et de mécanismes de plainte.

2. L'obligation prévue au paragraphe 1 s'applique à la première utilisation du système d'IA à haut risque. Le responsable du déploiement peut, dans des cas similaires, s'appuyer sur des analyses d'impact sur les droits fondamentaux réalisées antérieurement ou sur des analyses d'impact existantes réalisées par le fournisseur. Si, au cours de l'utilisation du système d'IA à haut risque, le responsable du déploiement estime que l'un des facteurs énumérés au paragraphe 1 change ou n'est plus à jour, il prend les mesures nécessaires pour mettre à jour les informations.

3. Une fois l'analyse d'impact réalisée, le déployeur notifie les résultats de l'analyse à l'autorité de surveillance du marché, en joignant à la notification le modèle rempli visé au paragraphe 5. Dans le cas visé à l'article 46, paragraphe 1, les déployeurs peuvent être exemptés de ces obligations.

4. Si l'une des obligations énoncées dans le présent article est déjà satisfaite par l'analyse d'impact sur la protection des données réalisée conformément à l'article 35 du règlement (UE) 2016/679 ou à l'article 27 de la directive (UE) 2016/680, l'analyse d'impact sur les droits fondamentaux visée au paragraphe 1 est réalisée conjointement avec cette analyse d'impact sur la protection des données.

5. L'Office AI élabore un modèle de questionnaire, y compris au moyen d'un outil automatisé, afin d'aider les utilisateurs à s'acquitter des obligations prévues par le présent article d'une manière simplifiée.

Le texte utilisé dans cet outil est le "Artificial Intelligence Act, Text of the provisional agreement, 2 February 2024", qui a été officiellement annoncé dans ce communiqué de presse. Dossier interinstitutionnel : 2021/0106(COD)

Lorsque de nouveaux articles ont été ajoutés dans les versions ultérieures et que des corrections importantes ont été apportées, ces changements ont également été reproduits dans l'AI Act Explorer. En outre, dans les "Textes adoptés" de mars 2024, de nombreux articles ont été renommés ou renumérotés, et les articles de l'AI Act Explorer ont été mis à jour en conséquence. Cela signifie que le contenu de notre site ne correspond plus exactement à une version officielle de la loi sur l'immigration et l'asile, mais qu'il s'agit d'un hybride de plusieurs versions. Si vous trouvez une mise à jour importante dans un projet ultérieur qui n'a pas été mis à jour dans notre outil, n'hésitez pas à nous le faire savoir.

Lorsqu'un projet final sera disponible, l'ensemble du texte de l'AI Act Explorer sera mis à jour pour le refléter.