Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Recitales

Anexos

Búsqueda en la Ley

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Resumen

Este artículo explica cómo clasificar los sistemas de IA de alto riesgo. Un sistema de IA se considera de alto riesgo si se utiliza como componente de seguridad de un producto, o si es un producto en sí mismo que está cubierto por la legislación de la UE. Estos sistemas deben someterse a una evaluación por terceros antes de poder venderse o utilizarse. Algunos sistemas de IA se consideran siempre de alto riesgo, a menos que no supongan un riesgo significativo para la salud, la seguridad o los derechos de las personas. Los proveedores que crean que su sistema de IA no es de alto riesgo deben documentar su evaluación antes de venderlo o utilizarlo. La Comisión Europea proporcionará directrices y ejemplos de sistemas de IA de alto y no alto riesgo. También podrán añadir o eliminar condiciones para la clasificación de alto riesgo basándose en pruebas. Los cambios no deben reducir el nivel de protección de la salud, la seguridad y los derechos.

Generado por CLaiRK, editado por nosotros.

NOTA: Esta traducción es una traducción automática. No es la traducción oficial facilitada por el Parlamento Europeo. Cuando se publique la Ley en el Diario Oficial, las traducciones automáticas serán sustituidas por las traducciones oficiales.

1. Con independencia de que un sistema de IA se comercialice o se ponga en servicio independientemente de los productos contemplados en las letras a) y b), dicho sistema de IA se considerará de alto riesgo cuando se cumplan las dos condiciones siguientes:

(a) el sistema de IA está destinado a utilizarse como componente de seguridad de un producto, o el sistema de IA es en sí mismo un producto, cubierto por la legislación de armonización de la Unión enumerada en el anexo I;

(b) el producto cuyo componente de seguridad con arreglo a la letra a) es el sistema de IA, o el propio sistema de IA como producto, debe someterse a una evaluación de la conformidad por terceros, con vistas a la introducción en el mercado o la puesta en servicio de dicho producto con arreglo a la legislación de armonización de la Unión enumerada en el anexo I.

2. Además de los sistemas de IA de alto riesgo a que se refiere el apartado 1, se considerarán de alto riesgo los sistemas de IA a que se refiere el Anexo III.

3. No obstante lo dispuesto en el apartado 2, un sistema de IA contemplado en el anexo III no se considerará de alto riesgo cuando no plantee un riesgo significativo de perjuicio para la salud, la seguridad o los derechos fundamentales de las personas físicas, incluso por no influir materialmente en el resultado de la toma de decisiones. El párrafo primero se aplicará cuando se cumpla alguna de las condiciones siguientes:

(a) el sistema de IA está destinado a realizar una tarea de procedimiento limitada;

(b) el sistema de IA está destinado a mejorar el resultado de una actividad humana previamente realizada;

(c) el sistema de IA está destinado a detectar patrones de toma de decisiones o desviaciones de patrones de toma de decisiones anteriores y no está destinado a sustituir o influir en la evaluación humana previamente completada, sin la debida revisión humana; o bien

(d) el sistema de IA está destinado a realizar una tarea preparatoria de una evaluación pertinente a efectos de los casos de uso enumerados en el anexo III. No obstante lo dispuesto en el párrafo primero, un sistema de IA mencionado en el anexo III se considerará siempre de alto riesgo cuando el sistema de IA realice la elaboración de perfiles de personas físicas.

4. El proveedor que considere que un sistema de IA contemplado en el anexo III no es de alto riesgo documentará su evaluación antes de que dicho sistema se comercialice o se ponga en servicio. Dicho proveedor estará sujeto a la obligación de registro establecida en el apartado 2 del artículo 49. A petición de las autoridades nacionales competentes, el proveedor facilitará la documentación de la evaluación.

5. La Comisión, previa consulta a la Junta Europea de Inteligencia Artificial (la "Junta"), y a más tardar ... [18 meses a partir de la fecha de entrada en vigor del presente Reglamento], proporcionará directrices que especifiquen la aplicación práctica del presente artículo en consonancia con el artículo 96, junto con una lista exhaustiva de ejemplos prácticos de casos de uso de sistemas de IA de alto riesgo y de no alto riesgo.

6. Se otorgan a la Comisión los poderes para adoptar actos delegados con arreglo al artículo 97 a fin de modificar el apartado 3, párrafo segundo, del presente artículo, añadiendo nuevas condiciones a las establecidas en él o modificándolas, cuando existan pruebas concretas y fiables de la existencia de sistemas de IA que entren en el ámbito de aplicación del anexo III, pero no supongan un riesgo significativo de daño para la salud, la seguridad o los derechos fundamentales de las personas físicas.

7. La Comisión adoptará actos delegados con arreglo al artículo 97 para modificar el apartado 3, párrafo segundo, del presente artículo suprimiendo cualquiera de las condiciones establecidas en el mismo, cuando existan pruebas concretas y fiables de que ello es necesario para mantener el nivel de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento.

8. Cualquier modificación de las condiciones establecidas en el párrafo segundo del apartado 3, adoptada de conformidad con los apartados 6 y 7 del presente artículo, no disminuirá el nivel global de protección de la salud, la seguridad y los derechos fundamentales previsto en el presente Reglamento y garantizará la coherencia con los actos delegados adoptados en virtud del apartado 1 del artículo 7, y tendrá en cuenta la evolución del mercado y de la tecnología.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Taylor Jones en taylor@futureoflife.org

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)