Afin de faciliter le travail de la Commission et des États membres dans le domaine de l'IA et d'accroître la transparence vis-à-vis du public, les fournisseurs de systèmes d'IA à haut risque autres que ceux liés à des produits relevant du champ d'application de la législation d'harmonisation pertinente de l'Union, ainsi que les fournisseurs qui considèrent qu'un système d'IA figurant dans les cas d'utilisation à haut risque en annexe du présent règlement n'est pas à haut risque sur la base d'une dérogation, devraient être tenus de s'enregistrer et d'enregistrer les informations relatives à leur système d'IA dans une base de données de l'Union, qui sera établie et gérée par la Commission. Avant d'utiliser un système d'IA figurant dans les cas d'utilisation à haut risque en annexe du présent règlement, les utilisateurs de systèmes d'IA à haut risque qui sont des autorités, des agences ou des organismes publics doivent s'enregistrer dans cette base de données et sélectionner le système qu'ils envisagent d'utiliser. Les autres utilisateurs devraient être autorisés à le faire volontairement. Cette section de la base de données de l'UE devrait être accessible au public, gratuitement, et les informations devraient être facilement navigables, compréhensibles et lisibles par machine. La base de données de l'UE doit également être conviviale, par exemple en offrant des fonctionnalités de recherche, y compris par mots clés, permettant au grand public de trouver les informations pertinentes à soumettre lors de l'enregistrement des systèmes d'IA à haut risque et sur le cas d'utilisation des systèmes d'IA à haut risque, défini dans une annexe au présent règlement, auquel correspondent les systèmes d'IA à haut risque. Toute modification substantielle des systèmes d'IA à haut risque doit également être enregistrée dans la base de données de l'UE. Pour les systèmes d'IA à haut risque dans le domaine du maintien de l'ordre, de la migration, de l'asile et de la gestion des contrôles aux frontières, les obligations d'enregistrement doivent être remplies dans une section non publique sécurisée de la base de données de l'UE. L'accès à cette section non publique sécurisée devrait être strictement limité à la Commission et aux autorités de surveillance du marché en ce qui concerne leur section nationale de cette base de données. Les systèmes d'IA à haut risque dans le domaine des infrastructures critiques ne devraient être enregistrés qu'au niveau national. La Commission devrait être le contrôleur de la base de données de l'UE, conformément au règlement (UE) 2018/1725. Afin de garantir la pleine fonctionnalité de la base de données de l'UE, lorsqu'elle sera déployée, la procédure de mise en place de la base de données devrait inclure l'élaboration de spécifications fonctionnelles par la Commission et un rapport d'audit indépendant. La Commission devrait tenir compte des risques de cybersécurité lorsqu'elle s'acquitte de ses tâches en tant que responsable du traitement des données dans la base de données de l'UE. Afin de maximiser la disponibilité et l'utilisation de la base de données de l'Union par le public, la base de données de l'Union, y compris les informations mises à disposition par son intermédiaire, devrait être conforme aux exigences de la directive (UE) 2019/882.
Table des matières
Section 1 : Classification des systèmes d'IA comme étant à haut risque
Article 6 : Règles de classification des systèmes d'IA à haut risque
Article 7 : modifications de l'annexe III
Section 2 : Exigences relatives aux systèmes d'IA à haut risque
Article 8 : Respect des exigences
Article 9 : Système de gestion des risques
Article 10 : Données et gouvernance des données
Article 11 : Documentation technique
Article 12 : Tenue de registres
Article 13 : Transparence et information des entreprises de déploiement
Article 14 : Surveillance humaine
Article 15 : Précision, robustesse et cybersécurité
Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque
Article 17 : Système de gestion de la qualité
Article 18 : Conservation de la documentation
Article 19 : Journaux générés automatiquement
Article 20 : Actions correctives et obligation d'information
Article 21 : Coopération avec les autorités compétentes
Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque
Article 23 : Obligations des importateurs
Article 24 : Obligations des distributeurs
Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA
Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque
Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque
Section 4 : Autorités de notification et organismes notifiés
Article 28 : Autorités de notification
Article 29 : Demande de notification d'un organisme d'évaluation de la conformité
Article 30 : Procédure de notification
Article 31 : Exigences relatives aux organismes notifiés
Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés
Article 33 : Filiales des organismes notifiés et sous-traitance
Article 34 : Obligations opérationnelles des organismes notifiés
Article 35 : Numéros d'identification et listes des organismes notifiés
Article 36 : Modifications des notifications
Article 37 : Contestation de la compétence des organismes notifiés
Article 38 : Coordination des organismes notifiés
Article 39 : Organismes d'évaluation de la conformité de pays tiers
Section 5 : Normes, évaluation de la conformité, certificats, enregistrement
Article 40 : Normes harmonisées et résultats de la normalisation
Article 41 : Spécifications communes
Article 42 : Présomption de conformité à certaines exigences
Article 43 : Évaluation de la conformité
Article 45 : Obligations d'information des organismes notifiés
Article 46 : Dérogation à la procédure d'évaluation de la conformité
Section 1 : Règles de classification
Section 2 : Obligations des fournisseurs de modèles d'IA à usage général
Article 53 : Obligations des fournisseurs de modèles d'IA à usage général
Article 54 : Représentants autorisés des fournisseurs de modèles d'IA à usage général
Article 57 : Bacs à sable réglementaires en matière d'IA
Article 58 : Modalités et fonctionnement des "bacs à sable" réglementaires en matière d'IA
Section 1 : Gouvernance au niveau de l'Union
Article 65 : Création et structure du Comité européen de l'intelligence artificielle
Article 66 : Tâches du conseil d'administration
Article 67 : Forum consultatif
Article 68 : Groupe scientifique d'experts indépendants
Article 69 : Accès des États membres à la réserve d'experts
Section 2 : Autorités nationales compétentes
Article 70 : Désignation des autorités nationales compétentes et du point de contact unique
Section 1 : Surveillance après la mise sur le marché
Section 2 : Partage d'informations sur les incidents graves
Article 73 : Notification des incidents graves
Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union
Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché
Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux
Article 79 : Procédure au niveau national pour traiter les systèmes d'IA présentant un risque
Article 81 : Procédure de sauvegarde de l'Union
Article 82 : Systèmes d'IA conformes présentant un risque
Article 83 : Non-respect formel
Article 84 : Structures de soutien aux essais de l'IA de l'Union
Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché
Article 86 : Droit à l'explication des décisions individuelles
Article 87 : Signalement des infractions et protection des personnes qui les signalent
Article 88 : Exécution des obligations des fournisseurs de modèles d'IA à usage général
Article 90 : Alertes sur les risques systémiques par le groupe scientifique
Article 91 : Pouvoir de demander des documents et des informations
Article 92 : Pouvoir d'évaluation
Article 93 : Pouvoir de demander des mesures
Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général
Article 95 : Codes de conduite pour l'application volontaire d'exigences spécifiques
Article 96 : Lignes directrices de la Commission sur la mise en œuvre du présent règlement
Article 102 : Modification du règlement (CE) n° 300/2008
Article 103 : Modification du règlement (UE) n° 167/2013
Article 104 : Modification du règlement (UE) n° 168/2013
Article 105 : modification de la directive 2014/90/UE
Article 106 : modification de la directive (UE) 2016/797
Article 107 : Modification du règlement (UE) 2018/858
Article 108 : Modifications du règlement (UE) 2018/1139
Article 109 : Modification du règlement (UE) 2019/2144
Article 110 : modification de la directive (UE) 2020/1828
Récitals
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
Annexes
Annexe I : Liste de la législation d'harmonisation de l'Union
Annexe III : Systèmes d'IA à haut risque visés à l'article 6, paragraphe 2
Annexe IV : Documentation technique visée à l'article 11, paragraphe 1
Annexe V : Déclaration de conformité de l'UE
Annexe VI : Procédure d'évaluation de la conformité basée sur le contrôle interne
Recherche dans le cadre de la loi
Récital 131
NOTE : Cette traduction est une traduction générée par une machine. Il ne s'agit pas de la traduction officielle fournie par le Parlement européen. Lorsque la loi sur l'IA sera publiée au journal officiel, les traductions générées par la machine seront remplacées par les traductions officielles.
Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Taylor Jones à l'adresse suivante : taylor@futureoflife.org
Consultez le texte officiel ou parcourez-le en ligne à l'aide de notre AI Act Explorer. Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle (Règlement (UE) 2024/1689), version du Journal officiel du 13 juin 2024". Dossier interinstitutionnel : 2021/0106(COD)