Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33. Filiales de los organismos notificados y subcontratistas Filiales de los organismos notificados y subcontratación

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de uso general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento a nivel nacional para tratar los sistemas de IA que presenten un riesgo

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87: Denuncia de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Anexo I: Lista de la legislación de armonización de la Unión

Anexo II: Lista de infracciones penales contempladas en el artículo 5, apartado 1, párrafo primero, letra h), inciso iii)

Anexo III: Sistemas de IA de alto riesgo contemplados en el apartado 2 del artículo 6

Anexo IV: Documentación técnica contemplada en el apartado 1 del artículo 11

Anexo V: Declaración de conformidad de la UE

Anexo VI: Procedimiento de evaluación de la conformidad basado en el control interno

Anexo VII: Conformidad basada en la evaluación del sistema de gestión de la calidad y en la evaluación de la documentación técnica

Anexo VIII: Información que debe presentarse en el momento del registro de los sistemas de IA de alto riesgo de conformidad con el artículo 49

Anexo IX: Información que debe presentarse al registrar los sistemas de IA de alto riesgo enumerados en el anexo III en relación con las pruebas en condiciones reales de conformidad con el artículo 60

Anexo X: Actos legislativos de la Unión sobre sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia

Anexo XI: Documentación técnica a que se refiere la letra a) del apartado 1 del artículo 53 - Documentación técnica para proveedores de modelos de IA de propósito general

Anexo XII: Información sobre transparencia a que se refiere el artículo 53, apartado 1, letra b) - Documentación técnica para proveedores de modelos de IA de propósito general a proveedores intermedios que integren el modelo en su sistema de IA

Anexo XIII: Criterios para la designación de los modelos de IA de propósito general con riesgo sistémico a que se refiere el artículo 51

Búsqueda en la Ley

Recital 53

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

También es importante aclarar que puede haber casos específicos en los que los sistemas de IA a los que se hace referencia en ámbitos predefinidos especificados en el presente Reglamento no conlleven un riesgo significativo de perjuicio de los intereses jurídicos protegidos en dichos ámbitos porque no influyan materialmente en la toma de decisiones o no perjudiquen sustancialmente dichos intereses. A efectos del presente Reglamento, un sistema de IA que no influye materialmente en el resultado de la toma de decisiones debe entenderse como un sistema de IA que no tiene un impacto en la sustancia, y por tanto en el resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye materialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o más de las siguientes condiciones. La primera de estas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique documentos entrantes en categorías o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. Estas tareas son de naturaleza tan estrecha y limitada que sólo plantean riesgos limitados que no se ven incrementados por el uso de un sistema de IA en un contexto que figura como uso de alto riesgo en un anexo del presente Reglamento. La segunda condición debe ser que la tarea realizada por el sistema de IA tenga por objeto mejorar el resultado de una actividad humana previamente realizada que pueda ser pertinente a efectos de los usos de alto riesgo enumerados en un anexo del presente Reglamento. Teniendo en cuenta estas características, el sistema de IA sólo proporciona una capa adicional a una actividad humana con el consiguiente menor riesgo. Esta condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos previamente redactados, por ejemplo en relación con el tono profesional, el estilo académico del lenguaje o mediante la alineación del texto con un determinado mensaje de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones de patrones de toma de decisiones previos. El riesgo se reduciría porque el uso del sistema de IA sigue a una evaluación humana realizada previamente, a la que no pretende sustituir ni influir, sin una revisión humana adecuada. Estos sistemas de IA incluyen, por ejemplo, los que, dado un determinado patrón de calificación de un profesor, pueden utilizarse para comprobar a posteriori si el profesor puede haberse desviado del patrón de calificación, con el fin de señalar posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que sólo sea preparatoria de una evaluación pertinente a efectos de los sistemas de IA enumerados en un anexo del presente Reglamento, con lo que el posible impacto del resultado del sistema será muy bajo en términos de representar un riesgo para la evaluación posterior. Esa condición abarca, entre otras cosas, las soluciones inteligentes para el tratamiento de archivos, que incluyen diversas funciones de indización, búsqueda, tratamiento de texto y voz o vinculación de datos a otras fuentes de datos, o los sistemas de IA utilizados para la traducción de documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de uso de alto riesgo enumerados en un anexo del presente Reglamento plantean riesgos significativos de daño para la salud, la seguridad o los derechos fundamentales si el sistema de IA implica la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679 o del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, un proveedor que considere que un sistema de IA no es de alto riesgo sobre la base de las condiciones mencionadas anteriormente debe elaborar la documentación de la evaluación antes de que dicho sistema se comercialice o se ponga en servicio y debe facilitar dicha documentación a las autoridades nacionales competentes a petición de estas. Dicho proveedor debe estar obligado a registrar el sistema de IA en la base de datos de la UE creada en virtud del presente Reglamento. Con vistas a proporcionar orientaciones adicionales para la aplicación práctica de las condiciones en las que los sistemas de IA enumerados en un anexo del presente Reglamento son, con carácter excepcional, de riesgo no elevado, la Comisión, previa consulta al Consejo, debe proporcionar directrices que especifiquen dicha aplicación práctica, completadas con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de riesgo elevado y casos de uso que no lo son.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

Consulte el texto oficial o navegue por él en línea con nuestro Explorador de la Ley de IA. El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial (Reglamento (UE) 2024/1689), versión del Diario Oficial de 13 de junio de 2024". Expediente interinstitucional: 2021/0106(COD)