Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Búsqueda en la Ley

Considerando 27

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

Aunque el enfoque basado en el riesgo es la base de un conjunto proporcionado y eficaz de normas vinculantes, es importante recordar las directrices éticas de 2019 para una IA digna de confianza elaboradas por el HLEG independiente de IA nombrado por la Comisión. En esas directrices, el HLEG de IA desarrolló siete principios éticos no vinculantes para la IA que pretenden ayudar a garantizar que la IA sea digna de confianza y éticamente sólida. Los siete principios incluyen la agencia y la supervisión humanas; la solidez técnica y la seguridad; la privacidad y la gobernanza de los datos; la transparencia; la diversidad, la no discriminación y la equidad; el bienestar social y medioambiental y la responsabilidad. Sin perjuicio de los requisitos jurídicamente vinculantes del presente Reglamento y de cualquier otra legislación aplicable de la Unión, esas directrices contribuyen al diseño de una IA coherente, digna de confianza y centrada en el ser humano, en consonancia con la Carta y con los valores en los que se fundamenta la Unión. De acuerdo con las directrices del HLEG sobre IA, la agencia y la supervisión humanas significan que los sistemas de IA se desarrollan y utilizan como una herramienta al servicio de las personas, que respeta la dignidad humana y la autonomía personal, y que funciona de manera que puede ser controlada y supervisada adecuadamente por los seres humanos. Solidez y seguridad técnicas significa que los sistemas de IA se desarrollan y utilizan de forma que sean sólidos en caso de problemas y resistentes frente a los intentos de alterar el uso o el rendimiento del sistema de IA para permitir un uso ilícito por parte de terceros, y minimizar los daños no intencionados. Privacidad y gobernanza de datos significa que los sistemas de IA se desarrollan y utilizan de acuerdo con las normas de privacidad y protección de datos, al tiempo que procesan datos que cumplen altos estándares en términos de calidad e integridad. Transparencia significa que los sistemas de IA se desarrollan y utilizan de forma que permitan una trazabilidad y explicabilidad adecuadas, al tiempo que se informa a los seres humanos de que se comunican o interactúan con un sistema de IA, así como se informa debidamente a los usuarios de las capacidades y limitaciones de ese sistema de IA y a las personas afectadas de sus derechos. Diversidad, no discriminación y equidad significa que los sistemas de IA se desarrollan y utilizan de forma que incluyan a diversos actores y promuevan la igualdad de acceso, la igualdad de género y la diversidad cultural, evitando al mismo tiempo los impactos discriminatorios y los sesgos injustos prohibidos por el Derecho de la Unión o nacional. Bienestar social y medioambiental significa que los sistemas de IA se desarrollan y utilizan de forma sostenible y respetuosa con el medio ambiente, así como de manera que beneficien a todos los seres humanos, al tiempo que se supervisan y evalúan los impactos a largo plazo sobre el individuo, la sociedad y la democracia. La aplicación de estos principios debería traducirse, cuando sea posible, en el diseño y el uso de modelos de IA. En cualquier caso, deben servir de base para la elaboración de códigos de conducta en el marco del presente Reglamento. Se anima a todas las partes interesadas, incluidas la industria, el mundo académico, la sociedad civil y las organizaciones de normalización, a tener en cuenta, según proceda, los principios éticos para el desarrollo de mejores prácticas y normas voluntarias.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)