Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales des organismes notifiés et sous-traitance

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure au niveau national pour traiter les systèmes d'IA présentant un risque

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations des fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Annexe I : Liste de la législation d'harmonisation de l'Union

Annexe II : Liste des infractions pénales visées à l'article 5, paragraphe 1, premier alinéa, point h) iii)

Annexe III : Systèmes d'IA à haut risque visés à l'article 6, paragraphe 2

Annexe IV : Documentation technique visée à l'article 11, paragraphe 1

Annexe V : Déclaration de conformité de l'UE

Annexe VI : Procédure d'évaluation de la conformité basée sur le contrôle interne

Annexe VII : Conformité sur la base d'une évaluation du système de gestion de la qualité et d'une évaluation de la documentation technique

Annexe VIII : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque conformément à l'article 49

Annexe IX : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque énumérés à l'annexe III en ce qui concerne les essais en conditions réelles conformément à l'article 60

Annexe X : Actes législatifs de l'Union sur les systèmes d'information à grande échelle dans le domaine de la liberté, de la sécurité et de la justice

Annexe XI : Documentation technique visée à l'article 53, paragraphe 1, point a) - Documentation technique destinée aux fournisseurs de modèles d'IA à usage général

Annexe XII : Informations relatives à la transparence visées à l'article 53, paragraphe 1, point b) - Documentation technique à l'intention des fournisseurs de modèles d'IA à usage général aux fournisseurs en aval qui intègrent le modèle dans leur système d'IA

Annexe XIII : Critères de désignation des modèles d'IA à usage général présentant un risque systémique visés à l'article 51

Recherche dans le cadre de la loi

Article 10 : Données et gouvernance des données

Date d'entrée en vigueur :

2 août 2026

D'après :

Article 113

Voir ici le calendrier complet de la mise en œuvre.

Résumé

Cet article indique que les systèmes d'IA à haut risque doivent être développés en utilisant des ensembles de données de haute qualité pour la formation, la validation et les tests. Ces ensembles de données doivent être gérés correctement, en tenant compte de facteurs tels que les processus de collecte des données, la préparation des données, les biais potentiels et les lacunes dans les données. Les ensembles de données doivent être pertinents, représentatifs, exempts d'erreurs et complets dans la mesure du possible. Ils doivent également tenir compte du contexte spécifique dans lequel le système d'IA sera utilisé. Dans certains cas, les fournisseurs peuvent traiter des catégories spéciales de données à caractère personnel pour détecter et corriger les biais, mais ils doivent respecter des conditions strictes pour protéger les droits et libertés des personnes.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. Les systèmes d'IA à haut risque qui utilisent des techniques impliquant l'apprentissage de modèles d'IA à l'aide de données sont développés sur la base d'ensembles de données d'apprentissage, de validation et d'essai qui satisfont aux critères de qualité visés aux paragraphes 2 à 5, chaque fois que de tels ensembles de données sont utilisés.

2. Les ensembles de données de formation, de validation et d'essai sont soumis à des pratiques de gouvernance et de gestion des données adaptées à la finalité du système d'IA à haut risque. Ces pratiques concernent en particulier

(a) les choix de conception pertinents ;

(b) les processus de collecte des données et l'origine des données et, dans le cas des données à caractère personnel, l'objectif initial de la collecte des données ;

(c) les opérations de traitement de préparation des données pertinentes, telles que l'annotation, l'étiquetage, le nettoyage, la mise à jour, l'enrichissement et l'agrégation ;

(d) la formulation d'hypothèses, notamment en ce qui concerne les informations que les données sont censées mesurer et représenter ;

(e) une évaluation de la disponibilité, de la quantité et de l'adéquation des ensembles de données nécessaires ;

(f) l'examen en vue d'éventuels biais susceptibles d'affecter la santé et la sécurité des personnes, d'avoir une incidence négative sur les droits fondamentaux ou d'entraîner une discrimination interdite par le droit de l'Union, en particulier lorsque les données de sortie influencent les données d'entrée pour des opérations futures ;

(g) des mesures appropriées pour détecter, prévenir et atténuer les éventuels biais identifiés conformément au point f) ;

(h) l'identification des lacunes ou insuffisances pertinentes en matière de données qui empêchent le respect du présent règlement, et la manière dont ces lacunes et insuffisances peuvent être comblées.

3. Les ensembles de données de formation, de validation et d'essai sont pertinents, suffisamment représentatifs et, dans la mesure du possible, exempts d'erreurs et complets au regard de l'objectif visé. Ils présentent les propriétés statistiques appropriées, y compris, le cas échéant, en ce qui concerne les personnes ou les groupes de personnes auxquels le système d'IA à haut risque est destiné à être appliqué. Ces caractéristiques des ensembles de données peuvent être satisfaites au niveau des ensembles de données individuels ou au niveau d'une combinaison d'ensembles de données.

4. Les ensembles de données tiennent compte, dans la mesure requise par la finalité poursuivie, des caractéristiques ou des éléments propres au cadre géographique, contextuel, comportemental ou fonctionnel spécifique dans lequel le système d'IA à haut risque est destiné à être utilisé.

5. Dans la mesure où cela est strictement nécessaire pour assurer la détection et la correction des biais en ce qui concerne les systèmes d'IA à haut risque conformément au paragraphe 2, points f) et g), du présent article, les fournisseurs de ces systèmes peuvent exceptionnellement traiter des catégories particulières de données à caractère personnel, sous réserve de garanties appropriées pour les libertés et droits fondamentaux des personnes physiques. Outre les dispositions prévues par les règlements (UE) 2016/679 et (UE) 2018/1725 et la directive (UE) 2016/680, toutes les conditions suivantes doivent être remplies pour qu'un tel traitement puisse avoir lieu :

(a) la détection et la correction des biais ne peuvent être effectuées efficacement par le traitement d'autres données, y compris des données synthétiques ou anonymes ;

(b) les catégories particulières de données à caractère personnel sont soumises à des limitations techniques concernant la réutilisation des données à caractère personnel, ainsi qu'à des mesures de sécurité et de préservation de la vie privée conformes à l'état de l'art, y compris la pseudonymisation ;

(c) les catégories particulières de données à caractère personnel font l'objet de mesures visant à garantir que les données à caractère personnel traitées sont sécurisées, protégées et soumises à des garanties appropriées, y compris des contrôles stricts et une documentation de l'accès, afin d'éviter toute utilisation abusive et de garantir que seules les personnes autorisées ont accès à ces données à caractère personnel et sont soumises à des obligations de confidentialité appropriées ;

(d) les catégories particulières de données à caractère personnel ne doivent pas être transmises, transférées ou consultées d'une autre manière par d'autres parties ;

(e) les catégories particulières de données à caractère personnel sont supprimées une fois que le biais a été corrigé ou que les données à caractère personnel ont atteint la fin de leur période de conservation, selon ce qui se produit en premier ;

(f) les registres des activités de traitement conformément aux règlements (UE) 2016/679 et (UE) 2018/1725 et à la directive (UE) 2016/680 comprennent les raisons pour lesquelles le traitement de catégories particulières de données à caractère personnel était strictement nécessaire pour détecter et corriger les biais, et pourquoi cet objectif ne pouvait pas être atteint en traitant d'autres données.

6. Pour le développement de systèmes d'IA à haut risque n'utilisant pas de techniques d'apprentissage de modèles d'IA, les paragraphes 2 à 5 s'appliquent uniquement aux ensembles de données d'essai.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Consultez le texte officiel ou parcourez-le en ligne à l'aide de notre AI Act Explorer. Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle (Règlement (UE) 2024/1689), version du Journal officiel du 13 juin 2024". Dossier interinstitutionnel : 2021/0106(COD)