Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Búsqueda en la Ley

Artículo 14: Supervisión humana

Fecha de entrada en vigor:

Julio de 2026

Según:

Artículo 113

Nota: Esta fecha es una estimación basada en la fecha prevista de entrada en vigor. Consulte aquí el calendario completo de aplicación.

Resumen

Este artículo afirma que los sistemas de IA de alto riesgo deben diseñarse de forma que los seres humanos puedan supervisarlos eficazmente. El objetivo de la supervisión humana es prevenir o minimizar los riesgos para la salud, la seguridad o los derechos fundamentales que puedan derivarse del uso de estos sistemas. Las medidas de supervisión deben ajustarse a los riesgos y al contexto de uso del sistema de IA. Estas medidas pueden ser incorporadas al sistema por el proveedor o aplicadas por el usuario. El sistema de IA debe proporcionarse de forma que permita al supervisor comprender sus capacidades y limitaciones, detectar y abordar los problemas, evitar una dependencia excesiva del sistema, interpretar sus resultados, decidir no utilizarlo o detener su funcionamiento. Para determinados sistemas de IA de alto riesgo, cualquier acción o decisión basada en la identificación del sistema debe ser verificada por al menos dos personas competentes.

Generado por CLaiRK, editado por nosotros.

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

1. Los sistemas de IA de alto riesgo se diseñarán y desarrollarán de tal manera, incluso con herramientas adecuadas de interfaz persona-máquina, que puedan ser supervisados eficazmente por personas físicas durante el período en que estén en uso.

2. La supervisión humana tendrá por objeto prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales que puedan surgir cuando un sistema de IA de alto riesgo se utilice de acuerdo con su finalidad prevista o en condiciones de uso indebido razonablemente previsible, en particular cuando dichos riesgos persistan a pesar de la aplicación de otros requisitos establecidos en la presente
sección.

3. Las medidas de supervisión serán proporcionales a los riesgos, el nivel de autonomía y el contexto de uso del sistema de IA de alto riesgo, y se garantizarán mediante uno o ambos de los siguientes tipos de medidas:

(a) medidas identificadas e incorporadas, cuando sea técnicamente viable, al sistema de IA de alto riesgo por el proveedor antes de su comercialización o puesta en servicio;

(b) medidas identificadas por el proveedor antes de comercializar o poner en servicio el sistema de IA de alto riesgo y que sea conveniente que aplique el implantador.

4. A efectos de la aplicación de los apartados 1, 2 y 3, el sistema de IA de alto riesgo se facilitará a quien lo despliegue de forma que se habilite a las personas físicas a las que se asigne la supervisión humana, según proceda y resulte proporcionado:

(a) comprender adecuadamente las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y poder supervisar debidamente su funcionamiento, incluso con vistas a detectar y abordar anomalías, disfunciones y rendimientos inesperados;

(b) ser conscientes de la posible tendencia a confiar automáticamente o en exceso en los resultados producidos por un sistema de IA de alto riesgo (sesgo de automatización), en particular en el caso de los sistemas de IA de alto riesgo utilizados para proporcionar información o recomendaciones para la toma de decisiones por parte de personas físicas;

(c) interpretar correctamente los resultados del sistema de IA de alto riesgo, teniendo en cuenta, por ejemplo, las herramientas y métodos de interpretación disponibles;

(d) decidir, en cualquier situación concreta, no utilizar el sistema de IA de alto riesgo o hacer caso omiso, anular o invertir el resultado del sistema de IA de alto riesgo;

(e) intervenir en el funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema mediante un botón de "parada" o un procedimiento similar que permita detener el sistema en un estado seguro.

5. En el caso de los sistemas de IA de alto riesgo a que se refiere el anexo III, punto 1, letra a), las medidas a que se refiere el apartado 3 del presente artículo serán tales que garanticen que, además, el responsable del despliegue no tome ninguna medida o decisión sobre la base de la identificación resultante del sistema a menos que dicha identificación haya sido verificada y confirmada por separado por al menos dos personas físicas con la competencia, la formación y la autoridad necesarias. El requisito de verificación por separado por al menos dos personas físicas no se aplicará a los sistemas de IA de alto riesgo utilizados con fines policiales, de migración, de control fronterizo o de asilo, cuando el Derecho de la Unión o nacional considere desproporcionada la aplicación de este requisito.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)