Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Anexos

Búsqueda en la Ley

2 de mayo de 2024 - El AI Act Explorer se ha actualizado con el contenido de la versión "Corrigendum" del Parlamento Europeo del 19 de abril de 2024. Es poco probable que el contenido de la Ley sufra más cambios.

Artículo 7: Modificaciones del anexo III

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Risto Uuk en risto@futureoflife.org

1. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 a fin de modificar el anexo III añadiendo o modificando casos de uso de sistemas de IA de alto riesgo cuando se cumplan las dos condiciones siguientes:

(a) los sistemas de IA están destinados a utilizarse en cualquiera de los ámbitos enumerados en el anexo III;

(b) los sistemas de IA plantean un riesgo de daño para la salud y la seguridad, o un impacto adverso en los derechos fundamentales, y ese riesgo es equivalente o superior al riesgo de daño o de impacto adverso que plantean los sistemas de IA de alto riesgo ya mencionados en el anexo III.

2. Al evaluar la condición prevista en la letra b) del apartado 1, la Comisión tendrá en cuenta los siguientes criterios:

(a) la finalidad prevista del sistema de IA;

(b) la medida en que se ha utilizado o es probable que se utilice un sistema de IA;

(c) la naturaleza y la cantidad de los datos tratados y utilizados por el sistema de IA, en particular si se tratan categorías especiales de datos personales;

(d) la medida en que el sistema de IA actúa de forma autónoma y la posibilidad de que un humano anule una decisión o recomendaciones que puedan provocar un daño potencial;

(e) la medida en que el uso de un sistema de IA ya ha causado daños a la salud y la seguridad, ha tenido repercusiones negativas en los derechos fundamentales o ha suscitado preocupaciones importantes en relación con la probabilidad de que se produzcan tales daños o repercusiones negativas, como demuestran, por ejemplo, informes o alegaciones documentadas presentados a las autoridades nacionales competentes u otros informes, según proceda;

(f) el alcance potencial de dicho daño o impacto adverso, en particular en términos de su intensidad y su capacidad para afectar a múltiples personas o para afectar de forma desproporcionada a un grupo particular de personas;

(g) la medida en que las personas potencialmente perjudicadas o que sufren un impacto adverso dependen del resultado producido con un sistema de IA, en particular porque por razones prácticas o jurídicas no es razonablemente posible excluirse de dicho resultado;

(h) la medida en que existe un desequilibrio de poder, o las personas potencialmente perjudicadas o que sufren un impacto adverso se encuentran en una posición vulnerable en relación con quien despliega un sistema de IA, en particular debido a su estatus, autoridad, conocimientos, circunstancias económicas o sociales, o edad;

(i) la medida en que el resultado producido por un sistema de IA es fácilmente corregible o reversible, teniendo en cuenta las soluciones técnicas disponibles para corregirlo o invertirlo; los resultados que tengan un impacto adverso en la salud, la seguridad o los derechos fundamentales no se considerarán fácilmente corregibles o reversibles;

(j) la magnitud y probabilidad del beneficio del despliegue del sistema de IA para individuos, grupos o la sociedad en general, incluidas las posibles mejoras en la seguridad de los productos;

(k) la medida en que el Derecho de la Unión vigente prevé:

(i) medidas efectivas de reparación en relación con los riesgos que plantea un sistema de IA, con exclusión de las reclamaciones por daños y perjuicios;

(ii) medidas eficaces para prevenir o reducir sustancialmente dichos riesgos.

3. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 97 a fin de modificar la lista del anexo III suprimiendo los sistemas de IA de alto riesgo cuando se cumplan las dos condiciones siguientes:

(a) el sistema de IA de alto riesgo de que se trate ya no plantea riesgos significativos para los derechos fundamentales, la salud o la seguridad, teniendo en cuenta los criterios enumerados en el apartado 2;

(b) la supresión no disminuye el nivel general de protección de la salud, la seguridad y los derechos fundamentales con arreglo al Derecho de la Unión.

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)