Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Contrôle des fournisseurs après la mise sur le marché et plan de contrôle après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

1. Les personnes qui déploient des systèmes d'IA à haut risque prennent les mesures techniques et organisationnelles appropriées pour s'assurer qu'elles utilisent ces systèmes conformément aux instructions d'utilisation qui les accompagnent, conformément aux paragraphes 3 et 6.

2. Les déployeurs confient la surveillance humaine à des personnes physiques qui ont les compétences, la formation et l'autorité nécessaires, ainsi que le soutien nécessaire.

3. Les obligations énoncées aux paragraphes 1 et 2 sont sans préjudice des autres obligations incombant au déployeur en vertu du droit de l'Union ou du droit national et de la liberté du déployeur d'organiser ses propres ressources et activités aux fins de la mise en œuvre des mesures de surveillance humaine indiquées par le prestataire.

4. Sans préjudice des paragraphes 1 et 2, dans la mesure où le responsable du déploiement exerce un contrôle sur les données d'entrée, il veille à ce que ces données soient pertinentes et suffisamment représentatives au regard de la finalité du système d'IA à haut risque.

5. Les déployeurs contrôlent le fonctionnement du système d'IA à haut risque sur la base des instructions d'utilisation et, le cas échéant, en informent les fournisseurs conformément à l'article 72. Lorsque les responsables du déploiement ont des raisons de considérer que l'utilisation du système d'IA à haut risque conformément aux instructions peut avoir pour conséquence que ce système d'IA présente un risque au sens de l'article 79, paragraphe 1, ils en informent sans tarder le fournisseur ou le distributeur et l'autorité de surveillance du marché concernée, et suspendent l'utilisation de ce système. Lorsque les déployeurs ont décelé un incident grave, ils en informent aussi immédiatement le fournisseur, puis l'importateur ou le distributeur et les autorités de surveillance du marché concernées. Si le déployeur n'est pas en mesure de joindre le fournisseur, l'article 73 s'applique mutatis mutandis. Cette obligation ne couvre pas les données opérationnelles sensibles des déployeurs de systèmes d'IA qui sont des services répressifs. Pour les déployeurs qui sont des institutions financières soumises à des exigences concernant leur gouvernance interne, leurs dispositions ou leurs processus en vertu de la législation de l'Union sur les services financiers, l'obligation de surveillance énoncée au premier alinéa est réputée satisfaite par le respect des règles relatives aux dispositions, processus et mécanismes de gouvernance interne en vertu de la législation pertinente sur les services financiers.

6. Les déployeurs de systèmes d'IA à haut risque conservent les journaux générés automatiquement par ce système d'IA à haut risque, dans la mesure où ces journaux sont sous leur contrôle, pendant une période adaptée à la finalité du système d'IA à haut risque, d'au moins six mois, sauf disposition contraire du droit de l'Union ou du droit national applicable, en particulier du droit de l'Union relatif à la protection des données à caractère personnel. Les déployeurs qui sont des établissements financiers soumis à des exigences concernant leur gouvernance, leurs dispositions ou leurs processus internes en vertu de la législation de l'Union sur les services financiers conservent les journaux dans le cadre de la documentation conservée conformément à la législation de l'Union sur les services financiers concernée.

7. Avant de mettre en service ou d'utiliser un système d'IA à haut risque sur le lieu de travail, les déployeurs qui sont des employeurs informent les représentants des travailleurs et les travailleurs concernés qu'ils seront soumis à l'utilisation du système d'IA à haut risque. Ces informations sont fournies, le cas échéant, conformément aux règles et procédures prévues par le droit et les pratiques de l'Union et des États membres en matière d'information des travailleurs et de leurs représentants.

8. Les déployeurs de systèmes d'IA à haut risque qui sont des autorités publiques ou des institutions, organes ou organismes de l'Union se conforment aux obligations d'enregistrement visées à l'article 49. Lorsque ces déployeurs constatent que le système d'IA à haut risque qu'ils envisagent d'utiliser n'a pas été enregistré dans la base de données de l'Union visée à l'article 71, ils n'utilisent pas ce système et en informent le fournisseur ou le distributeur.

9. Le cas échéant, les déployeurs de systèmes d'IA à haut risque utilisent les informations fournies au titre de l'article 13 du présent règlement pour se conformer à leur obligation de réaliser une analyse d'impact relative à la protection des données au titre de l'article 35 du règlement (UE) 2016/679 ou de l'article 27 de la directive (UE) 2016/680.

10. Sans préjudice de la directive (UE) 2016/680, dans le cadre d'une enquête en vue de la recherche ciblée d'une personne soupçonnée ou convaincue d'avoir commis une infraction pénale, le déployeur d'un système d'IA à haut risque pour l'identification biométrique à distance demande une autorisation, ex ante, ou sans retard injustifié et au plus tard dans les 48 heures, par une autorité judiciaire ou une autorité administrative dont la décision est contraignante et peut faire l'objet d'un contrôle juridictionnel, pour l'utilisation de ce système, sauf lorsqu'il est utilisé pour l'identification initiale d'un suspect potentiel sur la base de faits objectifs et vérifiables directement liés à l'infraction. Chaque utilisation est limitée à ce qui est strictement nécessaire à l'enquête sur une infraction pénale spécifique. Si l'autorisation demandée en vertu du premier alinéa est rejetée, l'utilisation du système d'identification biométrique à distance liée à l'autorisation demandée est interrompue avec effet immédiat et les données à caractère personnel liées à l'utilisation du système d'IA à haut risque pour lequel l'autorisation a été demandée sont supprimées. En aucun cas, ce système d'IA à haut risque pour l'identification biométrique à distance ne peut être utilisé à des fins répressives de manière non ciblée, sans aucun lien avec une infraction pénale, une procédure pénale, une menace réelle et actuelle ou réelle et prévisible d'infraction pénale, ou la recherche d'une personne disparue spécifique. Il convient de veiller à ce qu'aucune décision produisant un effet juridique défavorable sur une personne ne puisse être prise par les services répressifs sur la seule base des résultats de ces systèmes d'identification biométrique à distance. Le présent paragraphe est sans préjudice de l'article 9 du règlement (UE) 2016/679 et de l'article 10 de la directive (UE) 2016/680 pour le traitement des données biométriques. Indépendamment de la finalité ou du déployeur, chaque utilisation de ces systèmes d'IA à haut risque est consignée dans le fichier de police pertinent et est mise à la disposition de l'autorité de surveillance du marché concernée et de l'autorité nationale de protection des données sur demande, à l'exclusion de la divulgation de données opérationnelles sensibles liées à l'application de la loi. Le présent alinéa est sans préjudice des pouvoirs conférés par la directive (UE) 2016/680 aux autorités de contrôle. Les déployeurs soumettent aux autorités de surveillance du marché et aux autorités nationales de protection des données compétentes des rapports annuels sur leur utilisation des systèmes d'identification biométrique à distance, à l'exclusion de la divulgation de données opérationnelles sensibles liées à l'application de la loi. Les rapports peuvent être agrégés pour couvrir plus d'un déploiement. Les États membres peuvent introduire, conformément au droit de l'Union, des lois plus restrictives sur l'utilisation des systèmes d'identification biométrique à distance.

11. Sans préjudice de l'article 50 du présent règlement, les déployeurs des systèmes d'IA à haut risque visés à l'annexe III qui prennent des décisions ou aident à prendre des décisions relatives à des personnes physiques informent ces dernières qu'elles sont soumises à l'utilisation du système d'IA à haut risque. Pour les systèmes d'IA à haut risque utilisés à des fins répressives, l'article 13 de la directive (UE) 2016/680 s'applique.

12. Les déployeurs coopèrent avec les autorités compétentes concernées dans le cadre de toute mesure qu'elles prennent en rapport avec le système d'IA à haut risque afin de mettre en œuvre le présent règlement.

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)