Conviene establecer una metodología para clasificar los modelos de IA de propósito general como modelos de IA de propósito general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades particularmente elevadas, debe considerarse que un modelo de IA de propósito general presenta riesgos sistémicos si tiene capacidades de alto impacto, evaluadas sobre la base de herramientas técnicas y metodologías adecuadas, o un impacto significativo en el mercado interior debido a su alcance. Por capacidades de alto impacto en los modelos de IA de propósito general se entienden capacidades que igualan o superan las capacidades registradas en los modelos de IA de propósito general más avanzados. La gama completa de capacidades de un modelo podría comprenderse mejor tras su comercialización o cuando los implantadores interactúen con el modelo. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizada para el entrenamiento del modelo de IA de propósito general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes a las capacidades del modelo. La cantidad acumulada de cálculo utilizada para el entrenamiento incluye el cálculo utilizado en todas las actividades y métodos destinados a mejorar las capacidades del modelo antes de su despliegue, como el preentrenamiento, la generación de datos sintéticos y el ajuste. Por lo tanto, debe fijarse un umbral inicial de operaciones en coma flotante que, si es alcanzado por un modelo de IA de propósito general, lleve a presumir que se trata de un modelo de IA de propósito general con riesgos sistémicos. Este umbral debería ajustarse con el tiempo para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debería complementarse con puntos de referencia e indicadores de la capacidad del modelo. Para ello, la Oficina de Inteligencia Artificial debería colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los puntos de referencia para la evaluación de las capacidades de alto impacto, deberían ser sólidos predictores de la generalidad, sus capacidades y el riesgo sistémico asociado de los modelos de IA de propósito general, y podrían tener en cuenta la forma en que el modelo se comercializará o el número de usuarios a los que puede afectar. Para complementar este sistema, debería existir la posibilidad de que la Comisión adoptara decisiones individuales por las que se designara un modelo de IA de propósito general como modelo de IA de propósito general con riesgo sistémico si se constatara que dicho modelo tiene capacidades o un impacto equivalentes a los captados por el umbral establecido. Dicha decisión debe adoptarse sobre la base de una evaluación global de los criterios para la designación de un modelo de IA de propósito general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de empresas y usuarios finales, sus modalidades de entrada y salida, su nivel de autonomía y escalabilidad, o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de propósito general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y puede decidir reevaluar si puede seguir considerándose que el modelo de IA de propósito general presenta riesgos sistémicos.
Índice
Sección 1: Clasificación de los sistemas de IA como de alto riesgo
Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo
Artículo 7: Modificaciones del anexo III
Sección 2: Requisitos de los sistemas de IA de alto riesgo
Artículo 8: Cumplimiento de los requisitos
Artículo 9: Sistema de gestión de riesgos
Artículo 10: Datos y gobernanza de datos
Artículo 11: Documentación técnica
Artículo 12: Mantenimiento de registros
Artículo 13: Transparencia y suministro de información a los empresarios
Artículo 14: Supervisión humana
Artículo 15: Precisión, robustez y ciberseguridad
Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo
Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad
Artículo 18: Conservación de la documentación
Artículo 19: Registros generados automáticamente
Artículo 20: Acciones correctoras y deber de información
Artículo 21: Cooperación con las autoridades competentes
Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo
Artículo 23: Obligaciones de los importadores
Artículo 24: Obligaciones de los distribuidores
Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA
Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo
Sección 4: Autoridades de notificación y organismos notificados
Artículo 28 Autoridades de notificación
Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad
Artículo 30. Procedimiento de notificación Procedimiento de notificación
Artículo 31: Requisitos relativos a los organismos notificados
Artículo 35: Números de identificación y listas de organismos notificados
Artículo 36: Modificaciones de las notificaciones
Artículo 37: Impugnación de la competencia de los organismos notificados
Artículo 38: Coordinación de los organismos notificados
Sección 5: Normas, evaluación de la conformidad, certificados, registro
Artículo 40: Normas armonizadas y productos de normalización
Artículo 41. Especificaciones comunes Especificaciones comunes
Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos
Artículo 43. Evaluación de la conformidad Evaluación de la conformidad
Artículo 44. Certificados Certificados
Artículo 45: Obligaciones de información de los organismos notificados
Artículo 46: Excepción al procedimiento de evaluación de la conformidad
Sección 1: Normas de clasificación
Sección 2: Obligaciones de los proveedores de modelos de IA de propósito general
Artículo 54: Representantes autorizados de los proveedores de modelos de IA de uso general
Sección 1: Gobernanza a escala de la Unión
Artículo 65: Creación y estructura del Consejo Europeo de Inteligencia Artificial
Artículo 66: Funciones del Consejo
Artículo 68: Grupo científico de expertos independientes
Artículo 69: Acceso de los Estados miembros al grupo de expertos
Sección 2: Autoridades nacionales competentes
Artículo 70: Designación de las autoridades nacionales competentes y punto de contacto único
Sección 1: Seguimiento postcomercialización
Sección 2: Intercambio de información sobre incidentes graves
Artículo 73. Notificación de incidentes graves Notificación de incidentes graves
Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión
Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de uso general
Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales
Artículo 78. Confidencialidad Confidencialidad
Artículo 79: Procedimiento a nivel nacional para tratar los sistemas de IA que presenten un riesgo
Artículo 81: Procedimiento de salvaguardia de la Unión
Artículo 82: Sistemas de IA conformes que presentan un riesgo
Artículo 83. Incumplimiento formal Incumplimiento formal
Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión
Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado
Artículo 86: Derecho a la explicación de las decisiones individuales
Artículo 87: Denuncia de infracciones y protección de los denunciantes
Artículo 89 : Acciones de control
Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica
Artículo 91: Facultad de solicitar documentación e información
Artículo 92: Facultad de realizar evaluaciones
Artículo 93: Facultad de solicitar medidas
Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general
Artículo 95: Códigos de conducta para la aplicación voluntaria de requisitos específicos
Artículo 96: Directrices de la Comisión sobre la aplicación del presente Reglamento
Artículo 99. Sanciones Sanciones
Artículo 100: Multas administrativas a las instituciones, órganos y organismos de la Unión
Artículo 101: Multas para proveedores de modelos de IA de uso general
Artículo 102: Modificación del Reglamento (CE) nº 300/2008
Artículo 103: Modificación del Reglamento (UE) nº 167/2013.
Artículo 104: Modificación del Reglamento (UE) nº 168/2013.
Artículo 105: Modificación de la Directiva 2014/90/UE
Artículo 106: Modificación de la Directiva (UE) 2016/797
Artículo 107: Modificación del Reglamento (UE) 2018/858
Artículo 108: Modificaciones del Reglamento (UE) 2018/1139
Artículo 109: Modificación del Reglamento (UE) 2019/2144
Artículo 110: Modificación de la Directiva (UE) 2020/1828
Artículo 112: Evaluación y revisión
Artículo 113. Entrada en vigor y aplicación Entrada en vigor y aplicación
Recitales
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
Anexos
Anexo I: Lista de la legislación de armonización de la Unión
Anexo III: Sistemas de IA de alto riesgo contemplados en el apartado 2 del artículo 6
Anexo IV: Documentación técnica contemplada en el apartado 1 del artículo 11
Anexo V: Declaración de conformidad de la UE
Anexo VI: Procedimiento de evaluación de la conformidad basado en el control interno
Búsqueda en la Ley
Recital 111
NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.
Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org
Consulte el texto oficial o navegue por él en línea con nuestro Explorador de la Ley de IA. El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial (Reglamento (UE) 2024/1689), versión del Diario Oficial de 13 de junio de 2024". Expediente interinstitucional: 2021/0106(COD)