Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Suivi des fournisseurs après la mise sur le marché et plan de suivi après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Recherche dans le cadre de la loi

Article 6 : Règles de classification des systèmes d'IA à haut risque

Résumé

Cet article explique comment classer les systèmes d'IA à haut risque. Un système d'IA est considéré comme à haut risque s'il est utilisé comme composant de sécurité d'un produit ou s'il s'agit d'un produit lui-même couvert par la législation européenne. Ces systèmes doivent faire l'objet d'une évaluation par un tiers avant de pouvoir être vendus ou utilisés. Certains systèmes d'IA sont toujours considérés comme présentant un risque élevé, sauf s'ils ne posent pas de risque significatif pour la santé, la sécurité ou les droits des personnes. Les fournisseurs qui estiment que leur système d'IA ne présente pas de risque élevé doivent documenter leur évaluation avant de le vendre ou de l'utiliser. La Commission européenne fournira des lignes directrices et des exemples de systèmes d'IA à haut risque et sans risque. Elle pourra également ajouter ou supprimer des conditions de classification à haut risque sur la base d'éléments probants. Tout changement ne doit pas diminuer le niveau de protection de la santé, de la sécurité et des droits.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. Indépendamment du fait qu'un système d'IA soit mis sur le marché ou mis en service indépendamment des produits visés aux points a) et b), ce système d'IA est considéré comme présentant un risque élevé lorsque les deux conditions suivantes sont remplies :

(a) le système d'IA est destiné à être utilisé comme composant de sécurité d'un produit, ou le système d'IA est lui-même un produit, couvert par la législation d'harmonisation de l'Union énumérée à l'annexe I;

(b) le produit dont le composant de sécurité visé au point a) est le système d'IA, ou le système d'IA lui-même en tant que produit, doit faire l'objet d'une évaluation de la conformité par un tiers, en vue de la mise sur le marché ou de la mise en service de ce produit, conformément à la législation d'harmonisation de l'Union énumérée à l'annexe I.

2. Outre les systèmes d'IA à haut risque visés au paragraphe 1, les systèmes d'IA visés à l'annexe III sont considérés comme étant à haut risque.

3. Par dérogation au paragraphe 2, un système d'IA visé à l'annexe III n'est pas considéré comme étant à haut risque lorsqu'il ne présente pas de risque significatif d'atteinte à la santé, à la sécurité ou aux droits fondamentaux des personnes physiques, y compris en n'influençant pas sensiblement le résultat de la prise de décision. Le premier alinéa s'applique lorsque l'une des conditions suivantes est remplie :

(a) le système d'intelligence artificielle est destiné à exécuter une tâche procédurale limitée ;

(b) le système d'IA est destiné à améliorer le résultat d'une activité humaine déjà réalisée ;

(c) le système d'IA est destiné à détecter des modèles de prise de décision ou des écarts par rapport à des modèles de prise de décision antérieurs et n'est pas destiné à remplacer ou à influencer l'évaluation humaine effectuée précédemment, sans contrôle humain approprié ; ou

(d) le système d'IA est destiné à effectuer une tâche préparatoire à une évaluation pertinente aux fins des cas d'utilisation énumérés à l'annexe III. Nonobstant le premier alinéa, un système d'IA visé à l'annexe III est toujours considéré comme présentant un risque élevé lorsqu'il établit le profil de personnes physiques.

4. Un fournisseur qui estime qu'un système d'IA visé à l'annexe III ne présente pas de risque élevé documente son évaluation avant que ce système ne soit mis sur le marché ou mis en service. Ce fournisseur est soumis à l'obligation d'enregistrement prévue à l'article 49, paragraphe 2. À la demande des autorités nationales compétentes, le prestataire fournit la documentation relative à l'évaluation.

5. La Commission, après avoir consulté le Conseil européen de l'intelligence artificielle (le "Conseil"), et au plus tard le ... [18 mois à compter de la date d'entrée en vigueur du présent règlement], fournit des lignes directrices précisant la mise en œuvre pratique du présent article conformément à l'article 96, ainsi qu'une liste complète d'exemples pratiques de cas d'utilisation de systèmes d'IA à haut risque et à moindre risque.

6. La Commission est habilitée à adopter des actes délégués en conformité avec l 'article 97 afin de modifier le paragraphe 3, deuxième alinéa, du présent article en ajoutant de nouvelles conditions à celles qui y sont énoncées ou en les modifiant, lorsqu'il existe des preuves concrètes et fiables de l'existence de systèmes d'IA qui relèvent du champ d'application de l'annexe III, mais qui ne présentent pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques.

7. La Commission adopte des actes délégués en conformité avec l'article 97 afin de modifier le paragraphe 3, deuxième alinéa, du présent article en supprimant l'une des conditions qui y sont énoncées, lorsqu'il existe des preuves concrètes et fiables que cela est nécessaire pour maintenir le niveau de protection de la santé, de la sécurité et des droits fondamentaux prévu par le présent règlement.

8. Toute modification des conditions fixées au paragraphe 3, deuxième alinéa, adoptée conformément aux paragraphes 6 et 7 du présent article ne diminue pas le niveau global de protection de la santé, de la sécurité et des droits fondamentaux prévu par le présent règlement, assure la cohérence avec les actes délégués adoptés en vertu de l'article 7, paragraphe 1, et tient compte de l'évolution du marché et des technologies.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)