Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Búsqueda en la Ley

Artículo 10: Datos y gobernanza de datos

Resumen

Este artículo afirma que los sistemas de IA de alto riesgo deben desarrollarse utilizando conjuntos de datos de alta calidad para el entrenamiento, la validación y las pruebas. Estos conjuntos de datos deben gestionarse adecuadamente, teniendo en cuenta factores como los procesos de recopilación de datos, la preparación de los datos, los sesgos potenciales y las lagunas en los datos. Los conjuntos de datos deben ser pertinentes, representativos, sin errores y completos en la medida de lo posible. También deben tener en cuenta el contexto específico en el que se utilizará el sistema de IA. En algunos casos, los proveedores pueden tratar categorías especiales de datos personales para detectar y corregir sesgos, pero deben seguir unas condiciones estrictas para proteger los derechos y libertades de las personas.

Generado por CLaiRK, editado por nosotros.

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

1. Los sistemas de IA de alto riesgo que hagan uso de técnicas que impliquen el entrenamiento de modelos de IA con datos se desarrollarán sobre la base de conjuntos de datos de entrenamiento, validación y prueba que cumplan los criterios de calidad contemplados en los apartados 2 a 5 siempre que se utilicen dichos conjuntos de datos.

2. Los conjuntos de datos de entrenamiento, validación y ensayo estarán sujetos a prácticas de gobernanza y gestión de datos adecuadas a la finalidad prevista del sistema de IA de alto riesgo. Dichas prácticas se referirán en particular a

(a) las opciones de diseño pertinentes;

(b) los procesos de recogida de datos y el origen de los mismos y, en el caso de los datos personales, la finalidad original de la recogida de datos;

(c) operaciones pertinentes de tratamiento de preparación de datos, como anotación, etiquetado, limpieza, actualización, enriquecimiento y agregación;

(d) la formulación de hipótesis, en particular con respecto a la información que se supone que los datos miden y representan;

(e) una evaluación de la disponibilidad, cantidad e idoneidad de los conjuntos de datos necesarios;

(f) el examen a la vista de posibles sesgos que puedan afectar a la salud y la seguridad de las personas, repercutir negativamente en los derechos fundamentales o dar lugar a discriminaciones prohibidas por el Derecho de la Unión, especialmente cuando los resultados de los datos influyan en los insumos para futuras operaciones;

(g) medidas apropiadas para detectar, prevenir y mitigar los posibles sesgos detectados con arreglo a la letra f);

(h) la identificación de las lagunas o deficiencias de datos pertinentes que impidan el cumplimiento del presente Reglamento, y la forma de subsanar dichas lagunas y deficiencias.

3. Los conjuntos de datos de entrenamiento, validación y ensayo serán pertinentes, suficientemente representativos y, en la medida de lo posible, estarán exentos de errores y serán completos con vistas a la finalidad prevista. Tendrán las propiedades estadísticas adecuadas, incluso, en su caso, en lo que se refiere a las personas o grupos de personas en relación con los cuales está previsto utilizar el sistema de IA de alto riesgo. Estas características de los conjuntos de datos podrán cumplirse a nivel de conjuntos de datos individuales o a nivel de una combinación de los mismos.

4. Los conjuntos de datos tendrán en cuenta, en la medida en que lo exija la finalidad perseguida, las características o elementos propios del entorno geográfico, contextual, conductual o funcional específico en el que esté previsto utilizar el sistema de IA de alto riesgo.

5. En la medida en que sea estrictamente necesario para garantizar la detección y corrección de sesgos en relación con los sistemas de IA de alto riesgo de conformidad con el apartado 2, letras f) y g), del presente artículo, los proveedores de dichos sistemas podrán tratar excepcionalmente categorías especiales de datos personales, con sujeción a las garantías adecuadas para los derechos y libertades fundamentales de las personas físicas. Además de las disposiciones establecidas en los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y en la Directiva (UE) 2016/680, deben cumplirse todas las condiciones siguientes para que se produzca dicho tratamiento:

(a) la detección y corrección de sesgos no puede realizarse eficazmente mediante el tratamiento de otros datos, incluidos los datos sintéticos o anonimizados;

(b) las categorías especiales de datos personales estén sujetas a limitaciones técnicas en cuanto a la reutilización de los datos personales, y a medidas de seguridad y de preservación de la intimidad de última generación, incluida la seudonimización;

(c) las categorías especiales de datos personales estén sujetas a medidas que garanticen que los datos personales tratados estén seguros, protegidos, sujetos a las salvaguardias adecuadas, incluidos controles estrictos y documentación del acceso, para evitar usos indebidos y garantizar que sólo las personas autorizadas tengan acceso a dichos datos personales con las obligaciones de confidencialidad adecuadas;

(d) las categorías especiales de datos personales no deben ser transmitidas, transferidas o accesibles de otro modo a otras partes;

(e) las categorías especiales de datos personales se supriman una vez que se haya corregido el sesgo o los datos personales hayan llegado al final de su período de conservación, lo que ocurra primero;

(f) los registros de las actividades de tratamiento de conformidad con los Reglamentos (UE) 2016/679 y (UE) 2018/1725 y la Directiva (UE) 2016/680 incluyen las razones por las que el tratamiento de categorías especiales de datos personales era estrictamente necesario para detectar y corregir sesgos, y por qué ese objetivo no podía alcanzarse mediante el tratamiento de otros datos.

6. Para el desarrollo de sistemas de IA de alto riesgo que no utilicen técnicas que impliquen el entrenamiento de modelos de IA, los apartados 2 a 5 se aplicarán únicamente a los conjuntos de datos de prueba.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)