También es importante aclarar que puede haber casos específicos en los que los sistemas de IA a los que se hace referencia en ámbitos predefinidos especificados en el presente Reglamento no conlleven un riesgo significativo de perjuicio de los intereses jurídicos protegidos en dichos ámbitos porque no influyan materialmente en la toma de decisiones o no perjudiquen sustancialmente dichos intereses. A efectos del presente Reglamento, un sistema de IA que no influye materialmente en el resultado de la toma de decisiones debe entenderse como un sistema de IA que no tiene un impacto en la sustancia, y por tanto en el resultado, de la toma de decisiones, ya sea humana o automatizada. Un sistema de IA que no influye materialmente en el resultado de la toma de decisiones podría incluir situaciones en las que se cumplen una o más de las siguientes condiciones. La primera de estas condiciones debe ser que el sistema de IA esté destinado a realizar una tarea de procedimiento limitada, como un sistema de IA que transforme datos no estructurados en datos estructurados, un sistema de IA que clasifique documentos entrantes en categorías o un sistema de IA que se utilice para detectar duplicados entre un gran número de aplicaciones. Estas tareas son de naturaleza tan estrecha y limitada que sólo plantean riesgos limitados que no se ven incrementados por el uso de un sistema de IA en un contexto que figura como uso de alto riesgo en un anexo del presente Reglamento. La segunda condición debe ser que la tarea realizada por el sistema de IA tenga por objeto mejorar el resultado de una actividad humana previamente realizada que pueda ser pertinente a efectos de los usos de alto riesgo enumerados en un anexo del presente Reglamento. Teniendo en cuenta estas características, el sistema de IA sólo proporciona una capa adicional a una actividad humana con el consiguiente menor riesgo. Esta condición se aplicaría, por ejemplo, a los sistemas de IA destinados a mejorar el lenguaje utilizado en documentos previamente redactados, por ejemplo en relación con el tono profesional, el estilo académico del lenguaje o mediante la alineación del texto con un determinado mensaje de marca. La tercera condición debe ser que el sistema de IA esté destinado a detectar patrones de toma de decisiones o desviaciones de patrones de toma de decisiones previos. El riesgo se reduciría porque el uso del sistema de IA sigue a una evaluación humana realizada previamente, a la que no pretende sustituir ni influir, sin una revisión humana adecuada. Estos sistemas de IA incluyen, por ejemplo, los que, dado un determinado patrón de calificación de un profesor, pueden utilizarse para comprobar a posteriori si el profesor puede haberse desviado del patrón de calificación, con el fin de señalar posibles incoherencias o anomalías. La cuarta condición debe ser que el sistema de IA esté destinado a realizar una tarea que sólo sea preparatoria de una evaluación pertinente a efectos de los sistemas de IA enumerados en un anexo del presente Reglamento, con lo que el posible impacto del resultado del sistema será muy bajo en términos de representar un riesgo para la evaluación posterior. Esa condición abarca, entre otras cosas, las soluciones inteligentes para el tratamiento de archivos, que incluyen diversas funciones de indización, búsqueda, tratamiento de texto y voz o vinculación de datos a otras fuentes de datos, o los sistemas de IA utilizados para la traducción de documentos iniciales. En cualquier caso, debe considerarse que los sistemas de IA utilizados en casos de uso de alto riesgo enumerados en un anexo del presente Reglamento plantean riesgos significativos de daño para la salud, la seguridad o los derechos fundamentales si el sistema de IA implica la elaboración de perfiles en el sentido del artículo 4, punto 4, del Reglamento (UE) 2016/679 o del artículo 3, punto 4, de la Directiva (UE) 2016/680 o del artículo 3, punto 5, del Reglamento (UE) 2018/1725. Para garantizar la trazabilidad y la transparencia, un proveedor que considere que un sistema de IA no es de alto riesgo sobre la base de las condiciones mencionadas anteriormente debe elaborar la documentación de la evaluación antes de que dicho sistema se comercialice o se ponga en servicio y debe facilitar dicha documentación a las autoridades nacionales competentes a petición de estas. Dicho proveedor debe estar obligado a registrar el sistema de IA en la base de datos de la UE creada en virtud del presente Reglamento. Con vistas a proporcionar orientaciones adicionales para la aplicación práctica de las condiciones en las que los sistemas de IA enumerados en un anexo del presente Reglamento son, con carácter excepcional, de riesgo no elevado, la Comisión, previa consulta al Consejo, debe proporcionar directrices que especifiquen dicha aplicación práctica, completadas con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA que son de riesgo elevado y casos de uso que no lo son.
Índice
Sección 1: Clasificación de los sistemas de IA como de alto riesgo
Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo
Artículo 7: Modificaciones del anexo III
Sección 2: Requisitos de los sistemas de IA de alto riesgo
Artículo 8: Cumplimiento de los requisitos
Artículo 9: Sistema de gestión de riesgos
Artículo 10: Datos y gobernanza de datos
Artículo 11: Documentación técnica
Artículo 12: Mantenimiento de registros
Artículo 13: Transparencia y suministro de información a los empresarios
Artículo 14: Supervisión humana
Artículo 15: Precisión, robustez y ciberseguridad
Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo
Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad
Artículo 18: Conservación de la documentación
Artículo 19: Registros generados automáticamente
Artículo 20: Acciones correctoras y deber de información
Artículo 21: Cooperación con las autoridades competentes
Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo
Artículo 23: Obligaciones de los importadores
Artículo 24: Obligaciones de los distribuidores
Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA
Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo
Sección 4: Autoridades de notificación y organismos notificados
Artículo 28 Autoridades de notificación
Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad
Artículo 30. Procedimiento de notificación Procedimiento de notificación
Artículo 31: Requisitos relativos a los organismos notificados
Artículo 33: Filiales y subcontratación de los organismos notificados
Artículo 36: Modificaciones de las notificaciones
Artículo 37: Impugnación de la competencia de los organismos notificados
Artículo 38: Coordinación de los organismos notificados
Sección 5: Normas, evaluación de la conformidad, certificados, registro
Artículo 40: Normas armonizadas y productos de normalización
Artículo 41. Especificaciones comunes Especificaciones comunes
Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos
Artículo 43. Evaluación de la conformidad Evaluación de la conformidad
Artículo 44. Certificados Certificados
Artículo 45: Obligaciones de información de los organismos notificados
Artículo 46: Excepción al procedimiento de evaluación de la conformidad
Sección 1: Normas de clasificación
Sección 2: Obligaciones de los proveedores de modelos de IA de propósito general
Sección 1: Gobernanza a escala de la Unión
Artículo 65: Creación y estructura del Consejo Europeo de Inteligencia Artificial
Artículo 66: Funciones del Consejo
Artículo 68: Grupo científico de expertos independientes
Artículo 69: Acceso de los Estados miembros al grupo de expertos
Sección 2: Autoridades nacionales competentes
Artículo 70: Designación de las autoridades nacionales competentes y punto de contacto único
Sección 1: Seguimiento postcomercialización
Sección 2: Intercambio de información sobre incidentes graves
Artículo 73. Notificación de incidentes graves Notificación de incidentes graves
Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión
Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales
Artículo 78. Confidencialidad Confidencialidad
Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional
Artículo 81: Procedimiento de salvaguardia de la Unión
Artículo 82: Sistemas de IA conformes que presentan un riesgo
Artículo 83. Incumplimiento formal Incumplimiento formal
Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión
Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado
Artículo 86: Derecho a la explicación de las decisiones individuales
Artículo 89 : Acciones de control
Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica
Artículo 91: Facultad de solicitar documentación e información
Artículo 92: Facultad de realizar evaluaciones
Artículo 93: Facultad de solicitar medidas
Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general
Artículo 95: Códigos de conducta para la aplicación voluntaria de requisitos específicos
Artículo 96: Directrices de la Comisión sobre la aplicación del presente Reglamento
Artículo 99. Sanciones Sanciones
Artículo 100: Multas administrativas a las instituciones, agencias y organismos de la Unión
Artículo 101: Multas para proveedores de modelos de IA de propósito general
Artículo 102: Modificación del Reglamento (CE) nº 300/2008
Artículo 103: Modificación del Reglamento (UE) nº 167/2013.
Artículo 104: Modificación del Reglamento (UE) nº 168/2013.
Artículo 105: Modificación de la Directiva 2014/90/UE
Artículo 106: Modificación de la Directiva (UE) 2016/797
Artículo 107: Modificación del Reglamento (UE) 2018/858
Artículo 108: Modificación del Reglamento (UE) 2018/1139
Artículo 109: Modificación del Reglamento (UE) 2019/2144
Artículo 110: Modificación de la Directiva (UE) 2020/1828
Artículo 111: Sistemas de IA ya comercializados o puestos en servicio
Artículo 112: Evaluación y revisión
Artículo 113. Entrada en vigor y aplicación Entrada en vigor y aplicación
Anexos
Anexo I: Lista de la legislación de armonización de la Unión
Anexo II: Lista de infracciones penales
Anexo III: Sistemas de IA de alto riesgo
Anexo IV: Documentación técnica
Anexo V: Declaración de conformidad de la UE
Anexo VI: Procedimiento de evaluación de la conformidad basado en el control interno
Anexo VII: Conformidad basada en la evaluación del sistema de gestión de la calidad y la evaluación de la documentación técnica
Anexo VIII: Información que debe presentarse en el momento del registro de los sistemas de IA de alto riesgo
Anexo IX: Información que debe presentarse en el momento del registro de los sistemas de IA de alto riesgo
Anexo X: Legislación de la Unión sobre sistemas informáticos de gran magnitud en el espacio de libertad, seguridad y justicia
Anexo XI: Documentación técnica contemplada en el apartado 1 bis del artículo 53
Anexo XII: Información sobre transparencia contemplada en el artículo 53, apartado 1 ter
Anexo XIII: Criterios para la designación de modelos de IA de propósito general con riesgo sistémico
Búsqueda en la Ley
2 de mayo de 2024 - El AI Act Explorer se ha actualizado con el contenido de la versión "Corrigendum" del Parlamento Europeo del 19 de abril de 2024. Es poco probable que el contenido de la Ley sufra más cambios.
Recital 53
Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Risto Uuk en risto@futureoflife.org
El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)