Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Recherche dans le cadre de la loi

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Date d'entrée en vigueur :

juillet 2026

D'après :

Article 113

Note : Cette date est une estimation basée sur la date prévue d'entrée en vigueur. Voir ici pour un calendrier complet de mise en œuvre.

Résumé

Cet article décrit les règles de surveillance du marché et de contrôle des systèmes d'IA dans l'UE. Il précise que les systèmes d'IA sont soumis aux mêmes réglementations que les autres produits économiques. Les autorités de surveillance du marché doivent rendre compte chaque année à la Commission et aux autorités nationales de la concurrence de tout problème potentiel ou de toute pratique interdite. Les systèmes d'IA à haut risque font l'objet d'un examen plus approfondi, notamment ceux qui sont utilisés par les institutions financières ou à des fins d'application de la loi. Les autorités peuvent également proposer des activités conjointes pour promouvoir la conformité et identifier les cas de non-conformité. Elles peuvent accéder au code source des systèmes d'IA à haut risque sous certaines conditions.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. Le règlement (UE) 2019/1020 s'applique aux systèmes d'IA couverts par le présent règlement. Aux fins de l'application effective du présent règlement :

(a) toute référence à un opérateur économique en vertu du règlement (UE) 2019/1020 s'entend comme incluant tous les opérateurs visés à l'article 2, paragraphe 1, du présent règlement ;

(b) toute référence à un produit relevant du règlement (UE) 2019/1020 s'entend comme incluant tous les systèmes d'IA relevant du champ d'application du présent règlement.

2. Dans le cadre de l'obligation d'information qui leur incombe en vertu de l'article 34, paragraphe 4, du règlement (UE) 2019/1020, les autorités de surveillance du marché communiquent chaque année à la Commission et aux autorités nationales de concurrence compétentes toute information recensée dans le cadre des activités de surveillance du marché qui pourrait présenter un intérêt pour l'application du droit de l'Union en matière de règles de concurrence. Elles font également rapport chaque année à la Commission sur le recours à des pratiques interdites survenu au cours de l'année et sur les mesures prises.

3. Pour les systèmes d'IA à haut risque liés à des produits couverts par la législation d'harmonisation de l'Union énumérée à l'annexe I, section A, l'autorité de surveillance du marché aux fins du présent règlement est l'autorité responsable des activités de surveillance du marché désignée en vertu de ces actes juridiques. Par dérogation au premier alinéa et dans des circonstances appropriées, les États membres peuvent désigner une autre autorité compétente pour agir en tant qu'autorité de surveillance du marché, à condition d'assurer la coordination avec les autorités sectorielles de surveillance du marché chargées de l'application de la législation d'harmonisation de l'Union énumérée à l'annexe I.

4. Les procédures visées aux articles 79 à 83 du présent règlement ne s'appliquent pas aux systèmes d'IA relatifs aux produits couverts par la législation d'harmonisation de l'Union énumérée à l'annexe I, section A, lorsque ces actes juridiques prévoient déjà des procédures garantissant un niveau de protection équivalent et ayant le même objectif. Dans ce cas, les procédures sectorielles pertinentes s'appliquent à la place.

5. Sans préjudice des pouvoirs conférés aux autorités de surveillance du marché en vertu de l'article 14 du règlement (UE) 2019/1020, les autorités de surveillance du marché peuvent exercer à distance, le cas échéant, les pouvoirs visés à l'article 14, paragraphe 4, points d) et j), dudit règlement, afin d'assurer l'application effective du présent règlement.

6. Pour les systèmes d'IA à haut risque mis sur le marché, mis en service ou utilisés par des établissements financiers régis par la législation de l'Union sur les services financiers, l'autorité de surveillance du marché aux fins du présent règlement est l'autorité nationale compétente chargée de la surveillance financière de ces établissements en vertu de cette législation, dans la mesure où la mise sur le marché, la mise en service ou l'utilisation du système d'IA est directement liée à la fourniture de ces services financiers.

7. Par dérogation au paragraphe 6, dans des circonstances appropriées et à condition que la coordination soit assurée, une autre autorité compétente peut être désignée par l'État membre comme autorité de surveillance du marché aux fins du présent règlement. Les autorités nationales de surveillance du marché qui contrôlent les établissements de crédit réglementés relevant de la directive 2013/36/UE et qui participent au mécanisme de surveillance unique établi par le règlement (UE) n° 1024/2013 devraient communiquer sans délai à la Banque centrale européenne toute information recensée dans le cadre de leurs activités de surveillance du marché qui pourrait présenter un intérêt pour les missions de surveillance prudentielle de la Banque centrale européenne précisées dans ledit règlement.

8. Pour les systèmes d'IA à haut risque énumérés à l'annexe III, point 1, du présent règlement, dans la mesure où les systèmes sont utilisés à des fins répressives, de gestion des frontières et de justice et démocratie, et pour les systèmes d'IA à haut risque énumérés à l'annexe III, points 6, 7 et 8, du présent règlement, les États membres désignent comme autorités de surveillance du marché aux fins du présent règlement soit les autorités de contrôle de la protection des données compétentes en vertu du règlement (UE) 2016/679 ou de la directive (UE) 2016/680, soit toute autre autorité désignée dans les mêmes conditions que celles énoncées aux articles 41 à 44 de la directive (UE) 2016/680. Les activités de surveillance du marché n'affectent en aucune manière l'indépendance des autorités judiciaires ni n'interfèrent d'une autre manière avec leurs activités lorsqu'elles agissent dans l'exercice de leurs fonctions judiciaires.

9. Lorsque des institutions, organes ou organismes de l'Union relèvent du champ d'application du présent règlement, le contrôleur européen de la protection des données agit en tant qu'autorité de surveillance du marché, sauf en ce qui concerne la Cour de justice de l'Union européenne agissant dans l'exercice de ses fonctions juridictionnelles.

10. Les États membres facilitent la coordination entre les autorités de surveillance du marché désignées en vertu du présent règlement et les autres autorités ou organismes nationaux compétents qui supervisent l'application de la législation d'harmonisation de l'Union énumérée à l'annexe I, ou d'une autre législation de l'Union, qui pourrait être pertinente pour les systèmes d'IA à haut risque visés à l'annexe III.

11. Les autorités de surveillance du marché et la Commission sont en mesure de proposer des activités conjointes, y compris des enquêtes conjointes, à mener par les autorités de surveillance du marché ou par les autorités de surveillance du marché conjointement avec la Commission, dans le but de promouvoir la conformité, de détecter les cas de non-conformité, de sensibiliser ou de fournir des orientations en rapport avec le présent règlement en ce qui concerne des catégories spécifiques de systèmes d'IA à haut risque dont il est établi qu'ils présentent un risque grave dans deux États membres ou plus, conformément à l'article 9 du règlement (UE) 2019/1020. L'Office AI fournit un soutien à la coordination des enquêtes conjointes.

12. Sans préjudice des pouvoirs prévus par le règlement (UE) 2019/1020 et, le cas échéant, dans la limite de ce qui est nécessaire à l'accomplissement de leurs tâches, les autorités de surveillance du marché se voient accorder par les prestataires un accès complet à la documentation ainsi qu'aux ensembles de données de formation, de validation et d'essai utilisés pour le développement de systèmes d'IA à haut risque, y compris, le cas échéant et sous réserve de garanties de sécurité, par l'intermédiaire d'interfaces de programmation d'applications (API) ou d'autres moyens et outils techniques pertinents permettant l'accès à distance.

13. Les autorités de surveillance des marchés se voient accorder l'accès au code source du système d'IA à haut risque sur demande motivée et uniquement lorsque les deux conditions suivantes sont remplies :

(a) l'accès au code source est nécessaire pour évaluer la conformité d'un système d'IA à haut risque avec les exigences énoncées au chapitre III, section 2 ; et,

(b) les procédures de test ou d'audit et les vérifications fondées sur les données et la documentation fournies par le prestataire ont été épuisées ou se sont révélées insuffisantes.

14. Toute information ou documentation obtenue par les autorités de surveillance du marché est traitée conformément aux obligations de confidentialité prévues à l'article 78.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)