Table des matières

Section 1 : Classification des systèmes d'IA comme étant à haut risque

Article 6 : Règles de classification des systèmes d'IA à haut risque

Article 7 : modifications de l'annexe III

Section 2 : Exigences relatives aux systèmes d'IA à haut risque

Article 8 : Respect des exigences

Article 9 : Système de gestion des risques

Article 10 : Données et gouvernance des données

Article 11 : Documentation technique

Article 12 : Tenue de registres

Article 13 : Transparence et information des entreprises de déploiement

Article 14 : Surveillance humaine

Article 15 : Précision, robustesse et cybersécurité

Section 3 : Obligations des fournisseurs et des déployeurs de systèmes d'IA à haut risque et des autres parties

Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque

Article 17 : Système de gestion de la qualité

Article 18 : Conservation de la documentation

Article 19 : Journaux générés automatiquement

Article 20 : Actions correctives et obligation d'information

Article 21 : Coopération avec les autorités compétentes

Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque

Article 23 : Obligations des importateurs

Article 24 : Obligations des distributeurs

Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA

Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque

Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque

Section 4 : Autorités de notification et organismes notifiés

Article 28 : Autorités de notification

Article 29 : Demande de notification d'un organisme d'évaluation de la conformité

Article 30 : Procédure de notification

Article 31 : Exigences relatives aux organismes notifiés

Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés

Article 33 : Filiales et sous-traitance des organismes notifiés

Article 34 : Obligations opérationnelles des organismes notifiés

Article 35 : Numéros d'identification et listes des organismes notifiés désignés en vertu du présent règlement

Article 36 : Modifications des notifications

Article 37 : Contestation de la compétence des organismes notifiés

Article 38 : Coordination des organismes notifiés

Article 39 : Organismes d'évaluation de la conformité de pays tiers

Section 5 : Normes, évaluation de la conformité, certificats, enregistrement

Article 40 : Normes harmonisées et résultats de la normalisation

Article 41 : Spécifications communes

Article 42 : Présomption de conformité à certaines exigences

Article 43 : Évaluation de la conformité

Article 44 : Certificats

Article 45 : Obligations d'information des organismes notifiés

Article 46 : Dérogation à la procédure d'évaluation de la conformité

Article 47 : Déclaration de conformité de l'UE

Article 48 : Marquage CE

Article 49 : Enregistrement

Section 1 : Surveillance après la mise sur le marché

Article 72 : Contrôle des fournisseurs après la mise sur le marché et plan de contrôle après la mise sur le marché pour les systèmes d'IA à haut risque

Section 2 : Partage d'informations sur les incidents graves

Article 73 : Notification des incidents graves

Section 3 : Exécution

Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union

Article 75 : Assistance mutuelle, surveillance du marché et contrôle des systèmes d'IA à usage général

Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché

Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux

Article 78 : Confidentialité

Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national

Article 80 : Procédure de traitement des systèmes d'IA classés par le fournisseur comme ne présentant pas de risque élevé en application de l'annexe III

Article 81 : Procédure de sauvegarde de l'Union

Article 82 : Systèmes d'IA conformes présentant un risque

Article 83 : Non-respect formel

Article 84 : Structures de soutien aux essais de l'IA de l'Union

Section 4 : Recours

Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché

Article 86 : Droit à l'explication des décisions individuelles

Article 87 : Signalement des infractions et protection des personnes qui les signalent

Section 5 : Supervision, enquête, application et contrôle concernant les fournisseurs de modèles d'IA à usage général

Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général

Article 89 : Actions de suivi

Article 90 : Alertes sur les risques systémiques par le groupe scientifique

Article 91 : Pouvoir de demander des documents et des informations

Article 92 : Pouvoir d'évaluation

Article 93 : Pouvoir de demander des mesures

Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général

Annexes

Recherche dans le cadre de la loi

2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.

Récital 29

Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org

Les techniques de manipulation basées sur l'IA peuvent être utilisées pour persuader les personnes d'adopter des comportements indésirables ou pour les tromper en les incitant à prendre des décisions d'une manière qui porte atteinte à leur autonomie, à leur processus décisionnel et à leur liberté de choix. La mise sur le marché, la mise en service ou l'utilisation de certains systèmes d'IA ayant pour objectif ou pour effet de fausser matériellement le comportement humain, de sorte que des dommages significatifs, notamment des dommages suffisamment importants pour la santé physique et psychologique ou les intérêts financiers, sont susceptibles de se produire, sont particulièrement dangereux et doivent donc être interdits. Ces systèmes d'IA déploient des composants subliminaux tels que des stimuli audio, image ou vidéo que les personnes ne peuvent pas percevoir, car ces stimuli échappent à la perception humaine, ou d'autres techniques de manipulation ou de tromperie qui subvertissent ou altèrent l'autonomie, la prise de décision ou le libre choix des personnes d'une manière telle que les personnes ne sont pas conscientes de ces techniques ou, lorsqu'elles en sont conscientes, peuvent encore être trompées ou ne sont pas en mesure de les contrôler ou de s'y opposer. Cela pourrait être facilité, par exemple, par les interfaces machine-cerveau ou la réalité virtuelle, car elles permettent de mieux contrôler les stimuli présentés aux personnes, dans la mesure où ils peuvent matériellement fausser leur comportement d'une manière significativement préjudiciable. En outre, les systèmes d'IA peuvent également exploiter d'une autre manière les vulnérabilités d'une personne ou d'un groupe spécifique de personnes en raison de leur âge, de leur handicap au sens de la directive (UE) 2019/882 du Parlement européen et du Conseil[16], ou d'une situation sociale ou économique spécifique susceptible de rendre ces personnes plus vulnérables à l'exploitation, telles que les personnes vivant dans l'extrême pauvreté, les minorités ethniques ou religieuses. Ces systèmes d'IA peuvent être mis sur le marché, mis en service ou utilisés dans le but ou avec pour effet de fausser de manière significative le comportement d'une personne et d'une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne, à une autre personne ou à des groupes de personnes, y compris des préjudices qui peuvent s'accumuler dans le temps et qui devraient donc être interdits. Il peut être impossible de supposer qu'il y a une intention de fausser le comportement lorsque la distorsion résulte de facteurs externes au système d'IA qui échappent au contrôle du fournisseur ou du déployeur, à savoir des facteurs qui peuvent ne pas être raisonnablement prévisibles et que le fournisseur ou le déployeur du système d'IA n'a donc pas la possibilité d'atténuer. En tout état de cause, il n'est pas nécessaire que le fournisseur ou le déployeur ait l'intention de causer un préjudice important, pour autant que ce préjudice résulte de pratiques de manipulation ou d'exploitation fondées sur l'IA. Les interdictions relatives à ces pratiques d'IA complètent les dispositions de la directive 2005/29/CE du Parlement européen et du Conseil[17], en particulier les pratiques commerciales déloyales entraînant des préjudices économiques ou financiers pour les consommateurs sont interdites en toutes circonstances, qu'elles soient mises en place par le biais de systèmes d'IA ou d'une autre manière. Les interdictions des pratiques de manipulation et d'exploitation prévues par le présent règlement ne devraient pas affecter les pratiques licites dans le cadre d'un traitement médical tel que le traitement psychologique d'une maladie mentale ou la réadaptation physique, lorsque ces pratiques sont mises en œuvre conformément à la législation et aux normes médicales applicables, par exemple le consentement explicite des personnes ou de leurs représentants légaux. En outre, les pratiques commerciales courantes et légitimes, par exemple dans le domaine de la publicité, qui sont conformes au droit applicable ne devraient pas, en elles-mêmes, être considérées comme constituant des pratiques manipulatrices nuisibles fondées sur l'IA.

[16] Directive (UE) 2019/882 du Parlement européen et du Conseil du 17 avril 2019 relative aux exigences d'accessibilité applicables aux produits et services (JO L 151 du 7.6.2019, p. 70).

[17] Directive 2005/29/CE du Parlement européen et du Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur et modifiant la directive 84/450/CEE du Conseil et les directives 97/7/CE, 98/27/CE et 2002/65/CE du Parlement européen et du Conseil et le règlement (CE) n° 2006/2004 du Parlement européen et du Conseil ("directive sur les pratiques commerciales déloyales") (JO L 149 du 11.6.2005, p. 22).

Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)