Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Surveillance des fournisseurs après la mise sur le marché et plan de surveillance après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Récitals

Annexes

Recherche dans le cadre de la loi

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Date d'entrée en vigueur :

juillet 2026

D'après :

Article 113

Note : Cette date est une estimation basée sur la date prévue d'entrée en vigueur. Voir ici pour un calendrier complet de mise en œuvre.

Résumé

Cet article prévoit des exceptions à la procédure d'approbation habituelle pour les systèmes d'IA à haut risque. S'il existe une raison justifiée, telle que la sécurité publique ou la protection de l'environnement, une autorité de surveillance du marché peut autoriser l'utilisation de ces systèmes pour une durée limitée pendant qu'ils sont évalués. Dans les situations d'urgence, les autorités chargées de l'application de la loi ou de la protection civile peuvent utiliser ces systèmes sans autorisation préalable, à condition qu'elles en fassent la demande peu de temps après. Si l'autorisation est refusée, le système doit être arrêté et ses résultats rejetés. La Commission européenne et les autres États membres doivent être informés de toute approbation. Si aucune objection n'est soulevée dans les 15 jours, l'approbation est considérée comme justifiée. Si des objections sont soulevées, la Commission consulte les parties concernées et décide si l'approbation est justifiée. Si ce n'est pas le cas, l'approbation doit être retirée.

Généré par CLaiRK, édité par nous.

NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.

1. Par dérogation à l'article 43 et sur demande dûment justifiée, toute autorité de surveillance du marché peut autoriser la mise sur le marché ou la mise en service de systèmes d'IA à haut risque spécifiques sur le territoire de l'État membre concerné, pour des raisons exceptionnelles de sécurité publique ou de protection de la vie et de la santé des personnes, de protection de l'environnement ou de protection d'actifs industriels et d'infrastructures clés. Cette autorisation est accordée pour une période limitée, pendant que les procédures d'évaluation de la conformité nécessaires sont menées à bien, compte tenu des raisons exceptionnelles justifiant la dérogation. L'achèvement de ces procédures est entrepris sans retard injustifié.

2. Dans une situation d'urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique ou en cas de menace spécifique, substantielle et imminente pour la vie ou la sécurité physique de personnes physiques, les services répressifs ou les autorités de protection civile peuvent mettre en service un système d'IA à haut risque spécifique sans l'autorisation visée au paragraphe 1, à condition que cette autorisation soit demandée pendant ou après l'utilisation, sans retard injustifié. Si l'autorisation visée au paragraphe 1 est refusée, l'utilisation du système d'IA à haut risque est interrompue avec effet immédiat et tous les résultats et produits de cette utilisation sont immédiatement mis au rebut.

3. L'autorisation visée au paragraphe 1 n'est délivrée que si l'autorité de surveillance du marché conclut que le système d'IA à haut risque satisfait aux exigences de la section 2. L'autorité de surveillance du marché informe la Commission et les autres États membres de toute autorisation délivrée en vertu des paragraphes 1 et 2. Cette obligation ne s'applique pas aux données opérationnelles sensibles liées aux activités des services répressifs.

4. Lorsque, dans les quinze jours civils suivant la réception des informations visées au paragraphe 3, aucune objection n'a été soulevée par un État membre ou par la Commission à l'égard d'une autorisation délivrée par une autorité de surveillance du marché d'un État membre conformément au paragraphe 1, cette autorisation est réputée justifiée.

5. Lorsque, dans les quinze jours civils suivant la réception de la notification visée au paragraphe 3, des objections sont soulevées par un État membre à l'encontre d'une autorisation délivrée par une autorité de surveillance du marché d'un autre État membre, ou lorsque la Commission considère que l'autorisation est contraire au droit de l'Union, ou que la conclusion des États membres concernant la conformité du système visée au paragraphe 3 n'est pas fondée, la Commission engage sans délai des consultations avec l'État membre concerné. Les opérateurs concernés sont consultés et ont la possibilité de présenter leur point de vue. Compte tenu de ces éléments, la Commission décide si l'autorisation est justifiée. La Commission adresse sa décision à l'État membre concerné et aux opérateurs concernés.

6. Lorsque la Commission estime que l'autorisation est injustifiée, elle est retirée par l'autorité de surveillance du marché de l'État membre concerné.

7. Pour les systèmes d'IA à haut risque liés à des produits couverts par la législation d'harmonisation de l'Union énumérée à l'annexe I, section A, seules les dérogations à l'évaluation de la conformité établies dans cette législation d'harmonisation de l'Union s'appliquent.

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)