Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Contrôle des fournisseurs après la mise sur le marché et plan de contrôle après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.

Article 56 : Codes de pratique

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

1. L'Office AI encourage et facilite l'élaboration de codes de pratique au niveau de l'Union afin de contribuer à la bonne application du présent règlement, en tenant compte des approches internationales.

2. L'Office AI et la Commission s'efforcent de veiller à ce que les codes de pratique couvrent au moins les obligations prévues aux articles 53 et 55, y compris les questions suivantes :

(a) les moyens d'assurer la mise à jour des informations visées à l'article 53, paragraphe 1, points a) et b), en fonction de l'évolution du marché et des technologies ;

(b) le niveau de détail adéquat pour le résumé du contenu utilisé pour la formation ;

(c) l'identification du type et de la nature des risques systémiques au niveau de l'Union, y compris leurs sources, le cas échéant ;

(d) les mesures, procédures et modalités d'évaluation et de gestion des risques systémiques au niveau de l'Union, y compris la documentation y afférente, qui sont proportionnées aux risques, prennent en considération leur gravité et leur probabilité et tiennent compte des défis spécifiques que pose la gestion de ces risques à la lumière des différentes manières dont ils peuvent apparaître et se matérialiser tout au long de la chaîne de valeur de l'IA.

3. L'Office AI peut inviter tous les fournisseurs de modèles d'IA à usage général, ainsi que les autorités nationales compétentes, à participer à l'élaboration des codes de pratique. Les organisations de la société civile, l'industrie, les universités et les autres parties prenantes concernées, telles que les fournisseurs en aval et les experts indépendants, peuvent soutenir le processus.

4. L'Office AI et l'Office veillent à ce que les codes de pratique énoncent clairement leurs objectifs spécifiques et contiennent des engagements ou des mesures, y compris, le cas échéant, des indicateurs clés de performance, pour garantir la réalisation de ces objectifs, et à ce qu'ils tiennent dûment compte des besoins et des intérêts de toutes les parties intéressées, y compris les personnes affectées, au niveau de l'Union.

5. L'Office AI s'efforce de veiller à ce que les participants aux codes de conduite fassent régulièrement rapport à l'Office AI sur la mise en œuvre des engagements, les mesures prises et leurs résultats, y compris par rapport aux indicateurs clés de performance, le cas échéant. Les indicateurs clés de performance et les engagements en matière d'établissement de rapports reflètent les différences de taille et de capacité entre les divers participants.

6. L'office AI et le conseil d'administration contrôlent et évaluent régulièrement la réalisation des objectifs des codes de pratique par les participants et leur contribution à la bonne application du présent règlement. L'office AI et la commission évaluent si les codes de pratique couvrent les obligations prévues aux articles 53 et 55, et contrôlent et évaluent régulièrement la réalisation de leurs objectifs. Ils publient leur évaluation de l'adéquation des codes de pratique. La Commission peut, au moyen d'un acte d'exécution, approuver un code de pratique et lui conférer une validité générale dans l'Union. Cet acte d'exécution est adopté conformément à la procédure d'examen visée à l'article 98, paragraphe 2.

7. L'office AI peut inviter tous les fournisseurs de modèles d'IA à usage général à adhérer aux codes de bonnes pratiques. Pour les fournisseurs de modèles d'IA à usage général ne présentant pas de risques systémiques, cette adhésion peut être limitée aux obligations prévues à l'article 53, à moins qu'ils ne déclarent explicitement leur intérêt à adhérer au code complet.

8. L'office AI encourage et facilite également, le cas échéant, la révision et l'adaptation des codes de conduite, notamment à la lumière des normes émergentes. L'office AI contribue à l'évaluation des normes disponibles.

9. Les codes de pratique sont prêts au plus tard le ... [neuf mois à compter de la date d'entrée en vigueur du présent règlement]. L'Office AI prend les mesures nécessaires, notamment en invitant les prestataires conformément au paragraphe 7. Si, au plus tard le ... [douze mois à compter de la date d'entrée en vigueur], un code de bonnes pratiques ne peut être finalisé, ou si l'office AI estime qu'il n'est pas adéquat à la suite de son évaluation au titre du paragraphe 6 du présent article, la Commission peut prévoir, au moyen d'actes d'exécution, des règles communes pour la mise en œuvre des obligations prévues aux articles 53 et 55, y compris les questions énoncées au paragraphe 2 du présent article. Ces actes d'exécution sont adoptés en conformité avec la procédure d'examen visée à l'article 98, paragraphe 2.

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)