Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Recherche dans le cadre de la loi

Article 9 : Système de gestion des risques

Date d'entrée en vigueur :

juillet 2026

D'après :

Article 113

Note : Cette date est une estimation basée sur la date prévue d'entrée en vigueur. Voir ici pour un calendrier complet de mise en œuvre.

Résumé

La loi européenne sur l'IA exige un système de gestion des risques pour les systèmes d'IA à haut risque. Ce système doit être un processus continu tout au long du cycle de vie de l'IA, régulièrement révisé et mis à jour. Il doit identifier et analyser les risques potentiels pour la santé, la sécurité ou les droits fondamentaux, estimer et évaluer ces risques et adopter des mesures pour les gérer. Ces mesures doivent permettre de trouver un équilibre entre la minimisation des risques et le respect des exigences. Le système doit également garantir que tout risque restant est acceptable et que des mesures sont en place pour éliminer ou réduire les risques autant que possible. Les systèmes d'IA à haut risque doivent être testés afin d'identifier les meilleures mesures de gestion des risques et de s'assurer qu'ils fonctionnent comme prévu. Le système doit également déterminer si l'IA peut avoir un impact négatif sur les personnes âgées de moins de 18 ans ou sur d'autres groupes vulnérables.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. Un système de gestion des risques est établi, mis en œuvre, documenté et tenu à jour en ce qui concerne les systèmes d'IA à haut risque.

2. Le système de gestion des risques s'entend comme un processus itératif continu, planifié et mis en œuvre tout au long du cycle de vie d'un système d'IA à haut risque, qui doit faire l'objet d'un examen et d'une mise à jour systématiques et réguliers. Il comprend les étapes suivantes :

(a) l'identification et l'analyse des risques connus et raisonnablement prévisibles que le système d'IA à haut risque peut présenter pour la santé, la sécurité ou les droits fondamentaux lorsque le système d'IA à haut risque est utilisé conformément à sa destination ;

(b) l'estimation et l'évaluation des risques susceptibles d'apparaître lorsque le système d'IA à haut risque est utilisé conformément à sa destination et dans des conditions de mauvaise utilisation raisonnablement prévisibles ;

(c) l'évaluation d'autres risques éventuels, sur la base de l'analyse des données recueillies dans le cadre du système de surveillance consécutive à la mise sur le marché visé à l'article 72;

(d) l'adoption de mesures de gestion des risques appropriées et ciblées, destinées à faire face aux risques identifiés conformément au point a).

3. Les risques visés au présent article ne concernent que ceux qui peuvent être raisonnablement atténués ou éliminés par le développement ou la conception du système d'IA à haut risque, ou par la fourniture d'informations techniques adéquates.

4. Les mesures de gestion des risques visées au paragraphe 2, point d), tiennent dûment compte des effets et de l'interaction possible résultant de l'application combinée des exigences énoncées dans la présente section, en vue de réduire les risques plus efficacement tout en réalisant un équilibre approprié dans la mise en œuvre des mesures destinées à satisfaire à ces exigences.

5. Les mesures de gestion des risques visées au paragraphe 2, point d), sont telles que le risque résiduel associé à chaque danger, ainsi que le risque résiduel global des systèmes d'IA à haut risque, sont jugés acceptables. Lors de l'identification des mesures de gestion des risques les plus appropriées, il convient de veiller aux points suivants :

(a) l'élimination ou la réduction des risques identifiés et évalués conformément au paragraphe 2, dans la mesure où cela est techniquement possible, par une conception et un développement adéquats du système d'IA à haut risque ;

(b) le cas échéant, la mise en œuvre de mesures adéquates d'atténuation et de contrôle des risques qui ne peuvent être éliminés ;

(c) la fourniture des informations requises en vertu de l'article 13 et, le cas échéant, la formation des personnes chargées du déploiement. En vue d'éliminer ou de réduire les risques liés à l'utilisation du système d'IA à haut risque, il est dûment tenu compte des connaissances techniques, de l'expérience, de l'éducation, de la formation attendue du responsable du déploiement et du contexte présumé dans lequel le système est destiné à être utilisé.

6. Les systèmes d'IA à haut risque sont testés afin de déterminer les mesures de gestion des risques les plus appropriées et les plus ciblées. Les essais permettent de s'assurer que les systèmes d'IA à haut risque fonctionnent de manière cohérente pour l'usage auquel ils sont destinés et qu'ils sont conformes aux exigences énoncées dans la présente section.

7. Les procédures d'essai peuvent inclure des essais en conditions réelles conformément à l'article 60.

8. Les systèmes d'IA à haut risque sont testés, le cas échéant, à tout moment du processus de développement et, en tout état de cause, avant leur mise sur le marché ou leur mise en service. Les essais sont effectués en fonction de paramètres et de seuils probabilistes préalablement définis et adaptés à la finalité du système d'IA à haut risque.

9. Lors de la mise en œuvre du système de gestion des risques prévu aux paragraphes 1 à 7, les prestataires examinent si, compte tenu de l'objectif visé, le système d'IA à haut risque est susceptible d'avoir une incidence négative sur les personnes âgées de moins de 18 ans et, le cas échéant, sur d'autres groupes vulnérables.

10. Pour les fournisseurs de systèmes d'IA à haut risque qui sont soumis à des exigences concernant les processus de gestion interne des risques en vertu d'autres dispositions pertinentes du droit de l'Union, les aspects prévus aux paragraphes 1 à 9 peuvent faire partie des procédures de gestion des risques établies en vertu de ce droit ou être combinés à celles-ci.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)