Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33. Filiales de los organismos notificados y subcontratistas Filiales de los organismos notificados y subcontratación

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de uso general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento a nivel nacional para tratar los sistemas de IA que presenten un riesgo

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87: Denuncia de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Anexo I: Lista de la legislación de armonización de la Unión

Anexo II: Lista de infracciones penales contempladas en el artículo 5, apartado 1, párrafo primero, letra h), inciso iii)

Anexo III: Sistemas de IA de alto riesgo contemplados en el apartado 2 del artículo 6

Anexo IV: Documentación técnica contemplada en el apartado 1 del artículo 11

Anexo V: Declaración de conformidad de la UE

Anexo VI: Procedimiento de evaluación de la conformidad basado en el control interno

Anexo VII: Conformidad basada en la evaluación del sistema de gestión de la calidad y en la evaluación de la documentación técnica

Anexo VIII: Información que debe presentarse en el momento del registro de los sistemas de IA de alto riesgo de conformidad con el artículo 49

Anexo IX: Información que debe presentarse al registrar los sistemas de IA de alto riesgo enumerados en el anexo III en relación con las pruebas en condiciones reales de conformidad con el artículo 60

Anexo X: Actos legislativos de la Unión sobre sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia

Anexo XI: Documentación técnica a que se refiere la letra a) del apartado 1 del artículo 53 - Documentación técnica para proveedores de modelos de IA de propósito general

Anexo XII: Información sobre transparencia a que se refiere el artículo 53, apartado 1, letra b) - Documentación técnica para proveedores de modelos de IA de propósito general a proveedores intermedios que integren el modelo en su sistema de IA

Anexo XIII: Criterios para la designación de los modelos de IA de propósito general con riesgo sistémico a que se refiere el artículo 51

Búsqueda en la Ley

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Fecha de entrada en vigor:

2 de agosto de 2026

Según:

Artículo 113

Consulte aquí el calendario completo de aplicación.

Resumen

Antes de utilizar un sistema de IA de alto riesgo, los organismos públicos y las entidades privadas que prestan servicios públicos deben evaluar cómo podría afectar el sistema a los derechos fundamentales de las personas. Esto incluye describir cómo y cuándo se utilizará el sistema, a quién puede afectar y qué riesgos puede plantear. También deben describir cómo supervisarán los humanos el sistema y qué medidas se tomarán si se materializan los riesgos. Esta evaluación debe hacerse para el primer uso del sistema, pero puede actualizarse si es necesario. Los resultados deben comunicarse a la autoridad de vigilancia del mercado, a menos que estén exentos. La Oficina de IA proporcionará una plantilla para ayudar en este proceso.

Generado por CLaiRK, editado por nosotros.

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

1. Antes de desplegar un sistema de IA de alto riesgo contemplado en el artículo 6, apartado 2, con excepción de los sistemas de IA de alto riesgo destinados a ser utilizados en el ámbito enumerado en el punto 2 del anexo III, los desplegadores que sean organismos de Derecho público o entidades privadas que presten servicios públicos, y los desplegadores de sistemas de IA de alto riesgo contemplados en el anexo III, punto 5, letras b) y c), realizarán una evaluación del impacto sobre los derechos fundamentales que la utilización de dicho sistema pueda producir. A tal efecto, los implantadores realizarán una evaluación consistente en:

(a) una descripción de los procesos del implantador en los que se utilizará el sistema de IA de alto riesgo de acuerdo con su finalidad prevista;

(b) una descripción del período de tiempo y la frecuencia con que se prevé utilizar cada sistema de IA de alto riesgo;

(c) las categorías de personas físicas y grupos que puedan verse afectados por su uso en el contexto específico;

(d) los riesgos específicos de daños que puedan afectar a las categorías de personas físicas o grupos de personas identificados con arreglo a la letra c) del presente apartado, teniendo en cuenta la información facilitada por el prestador con arreglo al artículo 13;

(e) una descripción de la aplicación de las medidas de supervisión humana, de acuerdo con las instrucciones de uso;

(f) las medidas que deben adoptarse en caso de materialización de dichos riesgos, incluidas las disposiciones en materia de gobernanza interna y mecanismos de denuncia.

2. La obligación establecida en el apartado 1 se aplica al primer uso del sistema de IA de alto riesgo. En casos similares, el implantador podrá basarse en las evaluaciones de impacto sobre los derechos fundamentales realizadas anteriormente o en las evaluaciones de impacto existentes llevadas a cabo por el proveedor. Si, durante la utilización del sistema de IA de alto riesgo, el implantador considera que alguno de los elementos enumerados en el apartado 1 ha cambiado o ya no está actualizado, tomará las medidas necesarias para actualizar la información.

3. Una vez realizada la evaluación a que se refiere el apartado 1 del presente artículo, el responsable del despliegue notificará sus resultados a la autoridad de vigilancia del mercado, presentando como parte de la notificación el modelo cumplimentado a que se refiere el apartado 5 del presente artículo. En el caso contemplado en el apartado 1 del artículo 46, los responsables del despliegue podrán quedar exentos de dicha obligación de notificación.

4. Si alguna de las obligaciones establecidas en el presente artículo ya se cumple mediante la evaluación de impacto relativa a la protección de datos realizada de conformidad con el artículo 35 del Reglamento (UE) 2016/679 o el artículo 27 de la Directiva (UE) 2016/680, la evaluación de impacto relativa a los derechos fundamentales a que se refiere el apartado 1 del presente artículo complementará dicha evaluación de impacto relativa a la protección de datos.

5. La Oficina de AI elaborará un modelo de cuestionario, incluso mediante una herramienta automatizada, para facilitar a los responsables del despliegue el cumplimiento de sus obligaciones en virtud del presente artículo de forma simplificada.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

Consulte el texto oficial o navegue por él en línea con nuestro Explorador de la Ley de IA. El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial (Reglamento (UE) 2024/1689), versión del Diario Oficial de 13 de junio de 2024". Expediente interinstitucional: 2021/0106(COD)