Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales des organismes notifiés et sous-traitance

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure au niveau national pour traiter les systèmes d'IA présentant un risque

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations des fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Annexe I : Liste de la législation d'harmonisation de l'Union

Annexe II : Liste des infractions pénales visées à l'article 5, paragraphe 1, premier alinéa, point h) iii)

Annexe III : Systèmes d'IA à haut risque visés à l'article 6, paragraphe 2

Annexe IV : Documentation technique visée à l'article 11, paragraphe 1

Annexe V : Déclaration de conformité de l'UE

Annexe VI : Procédure d'évaluation de la conformité basée sur le contrôle interne

Annexe VII : Conformité sur la base d'une évaluation du système de gestion de la qualité et d'une évaluation de la documentation technique

Annexe VIII : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque conformément à l'article 49

Annexe IX : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque énumérés à l'annexe III en ce qui concerne les essais en conditions réelles conformément à l'article 60

Annexe X : Actes législatifs de l'Union sur les systèmes d'information à grande échelle dans le domaine de la liberté, de la sécurité et de la justice

Annexe XI : Documentation technique visée à l'article 53, paragraphe 1, point a) - Documentation technique destinée aux fournisseurs de modèles d'IA à usage général

Annexe XII : Informations relatives à la transparence visées à l'article 53, paragraphe 1, point b) - Documentation technique à l'intention des fournisseurs de modèles d'IA à usage général aux fournisseurs en aval qui intègrent le modèle dans leur système d'IA

Annexe XIII : Critères de désignation des modèles d'IA à usage général présentant un risque systémique visés à l'article 51

Recherche dans le cadre de la loi

Article 112 : Évaluation et réexamen

Date d'entrée en vigueur :

2 août 2026

D'après :

Article 113

Voir ici le calendrier complet de la mise en œuvre.

Résumé

La Commission européenne réexaminera et modifiera éventuellement chaque année la liste des pratiques interdites en matière d'IA et d'autres réglementations connexes. Tous les quatre ans, elle évaluera la nécessité d'apporter des modifications, l'efficacité du système de contrôle et les performances de l'Office AI, et fera rapport à ce sujet. Elle évaluera également les ressources des autorités nationales, l'état des sanctions, le nombre de nouvelles entreprises entrant sur le marché et les progrès réalisés en matière de modèles d'IA économes en énergie. La Commission prendra en compte les positions des différents organismes dans ses évaluations et pourra proposer des modifications en fonction des développements technologiques et de l'impact des systèmes d'IA sur la santé, la sécurité et les droits fondamentaux.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. La Commission évalue la nécessité de modifier la liste figurant à l'annexe III et la liste des pratiques d'IA interdites établie à l'article 5, une fois par an après l'entrée en vigueur du présent règlement et jusqu'à la fin de la période de délégation de pouvoir prévue à l'article 97. La Commission présente les résultats de cette évaluation au Parlement européen et au Conseil.

2. Au plus tard le 2 août 2028, puis tous les quatre ans, la Commission évalue les éléments suivants et fait rapport au Parlement européen et au Conseil à ce sujet :

(a) la nécessité de modifier les rubriques existantes ou d'ajouter de nouvelles rubriques à l'annexe III;

(b) des modifications de la liste des systèmes d'IA nécessitant des mesures de transparence supplémentaires à l'article 50;

(c) les modifications visant à renforcer l'efficacité du système de supervision et de gouvernance.

3. Au plus tard le 2 août 2029, puis tous les quatre ans, la Commission présente au Parlement européen et au Conseil un rapport sur l'évaluation et le réexamen du présent règlement. Ce rapport comprend une évaluation de la structure de mise en œuvre et de la nécessité éventuelle de créer une agence de l'Union pour remédier à toute lacune constatée. Sur la base des conclusions, ce rapport est, le cas échéant, accompagné d'une proposition de modification du présent règlement. Les rapports sont rendus publics.

4. Les rapports visés au paragraphe 2 accordent une attention particulière aux éléments suivants :

(a) l'état des ressources financières, techniques et humaines dont disposent les autorités nationales compétentes pour s'acquitter efficacement des tâches qui leur sont confiées en vertu du présent règlement ;

(b) l'état des sanctions, notamment les amendes administratives visées à l'article 99, paragraphe 1, appliquées par les États membres en cas d'infraction au présent règlement ;

(c) a adopté des normes harmonisées et des spécifications communes élaborées à l'appui du présent règlement ;

(d) le nombre d'entreprises qui entrent sur le marché après l'entrée en application du présent règlement, et combien d'entre elles sont des PME.

5. Au plus tard le 2 août 2028, la Commission évalue le fonctionnement de l'office AI, détermine si l'office AI a été doté de pouvoirs et de compétences suffisants pour s'acquitter de ses tâches et s'il serait pertinent et nécessaire, pour la mise en œuvre et l'exécution correctes du présent règlement, d'améliorer l'office AI et ses compétences en matière d'exécution et d'augmenter ses ressources. La Commission présente un rapport d'évaluation au Parlement européen et au Conseil.

6. Au plus tard le 2 août 2028, puis tous les quatre ans, la Commission présente un rapport sur l'examen des progrès accomplis dans l'élaboration des éléments livrables de la normalisation concernant le développement économe en énergie de modèles d'IA à usage général, et évalue la nécessité de nouvelles mesures ou actions, y compris des mesures ou actions contraignantes. Le rapport est soumis au Parlement européen et au Conseil et est rendu public.

7. Au plus tard le 2 août 2028, puis tous les trois ans, la Commission évalue l'impact et l'efficacité des codes de conduite volontaires visant à favoriser l'application des exigences énoncées au chapitre III, section 2, pour les systèmes d'IA autres que les systèmes d'IA à haut risque et, éventuellement, d'autres exigences supplémentaires pour les systèmes d'IA autres que les systèmes d'IA à haut risque, y compris en ce qui concerne la durabilité environnementale.

8. Aux fins des paragraphes 1 à 7, le conseil d'administration, les États membres et les autorités nationales compétentes fournissent des informations à la Commission à sa demande et dans les meilleurs délais.

9. En procédant aux évaluations et aux réexamens visés aux paragraphes 1 à 7, la Commission tient compte des positions et des conclusions du conseil d'administration, du Parlement européen, du Conseil et d'autres organes ou sources compétents.

10. La Commission présente, si nécessaire, des propositions appropriées pour modifier le présent règlement, notamment en tenant compte de l'évolution de la technologie, de l'effet des systèmes d'IA sur la santé et la sécurité et sur les droits fondamentaux, et à la lumière de l'état d'avancement de la société de l'information.

11. Afin d'orienter les évaluations et les examens visés aux paragraphes 1 à 7 du présent article, l'Office AI entreprend d'élaborer une méthodologie objective et participative pour l'évaluation des niveaux de risque sur la base des critères énoncés dans les articles pertinents et l'inclusion de nouveaux systèmes dans le système de gestion des risques de l'Office AI :

(a) la liste figurant à l'annexe III, y compris l'extension des rubriques existantes ou l'ajout de nouvelles rubriques dans cette annexe ;

(b) la liste des pratiques interdites figurant à l'article 5; et

(c) la liste des systèmes d'IA nécessitant des mesures de transparence supplémentaires conformément à l'article 50.

12. Toute modification du présent règlement en vertu du paragraphe 10, ou des actes délégués ou d'exécution pertinents, qui concerne la législation sectorielle d'harmonisation de l'Union énumérée à l'annexe I, section B, tient compte des spécificités réglementaires de chaque secteur, ainsi que de la gouvernance existante, des mécanismes d'évaluation de la conformité et d'application et des autorités qui y sont établies.

13. Au plus tard le 2 août 2031, la Commission procède à une évaluation de l'application du présent règlement et fait rapport à ce sujet au Parlement européen, au Conseil et au Comité économique et social européen, en tenant compte des premières années d'application du présent règlement. Sur la base des conclusions, ce rapport est accompagné, le cas échéant, d'une proposition de modification du présent règlement en ce qui concerne la structure de l'exécution et la nécessité d'une agence de l'Union pour remédier à toute lacune constatée.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Consultez le texte officiel ou parcourez-le en ligne à l'aide de notre AI Act Explorer. Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle (Règlement (UE) 2024/1689), version du Journal officiel du 13 juin 2024". Dossier interinstitutionnel : 2021/0106(COD)