Índice

Sección 1: Clasificación de los sistemas de IA como de alto riesgo

Artículo 6: Normas de clasificación de los sistemas de IA de alto riesgo

Artículo 7: Modificaciones del anexo III

Sección 2: Requisitos de los sistemas de IA de alto riesgo

Artículo 8: Cumplimiento de los requisitos

Artículo 9: Sistema de gestión de riesgos

Artículo 10: Datos y gobernanza de datos

Artículo 11: Documentación técnica

Artículo 12: Mantenimiento de registros

Artículo 13: Transparencia y suministro de información a los empresarios

Artículo 14: Supervisión humana

Artículo 15: Precisión, robustez y ciberseguridad

Sección 3: Obligaciones de los proveedores e implantadores de sistemas de IA de alto riesgo y otras partes interesadas

Artículo 16: Obligaciones de los proveedores de sistemas de IA de alto riesgo

Artículo 17. Sistema de gestión de la calidad Sistema de gestión de la calidad

Artículo 18: Conservación de la documentación

Artículo 19: Registros generados automáticamente

Artículo 20: Acciones correctoras y deber de información

Artículo 21: Cooperación con las autoridades competentes

Artículo 22: Representantes autorizados de los proveedores de sistemas de IA de alto riesgo

Artículo 23: Obligaciones de los importadores

Artículo 24: Obligaciones de los distribuidores

Artículo 25: Responsabilidades a lo largo de la cadena de valor de la IA

Artículo 26: Obligaciones de los implantadores de sistemas de IA de alto riesgo

Artículo 27: Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo

Sección 4: Autoridades de notificación y organismos notificados

Artículo 28 Autoridades de notificación

Artículo 29: Solicitud de notificación de un organismo de evaluación de la conformidad

Artículo 30. Procedimiento de notificación Procedimiento de notificación

Artículo 31: Requisitos relativos a los organismos notificados

Artículo 32. Presunción de conformidad Presunción de conformidad con los requisitos relativos a los organismos notificados

Artículo 33: Filiales y subcontratación de los organismos notificados

Artículo 34. Obligaciones operativas de los organismos notificados Obligaciones operativas de los organismos notificados

Artículo 35: Números de identificación y listas de organismos notificados designados en virtud del presente Reglamento

Artículo 36: Modificaciones de las notificaciones

Artículo 37: Impugnación de la competencia de los organismos notificados

Artículo 38: Coordinación de los organismos notificados

Artículo 39. Organismos de evaluación de la conformidad de terceros países Organismos de evaluación de la conformidad de terceros países

Sección 5: Normas, evaluación de la conformidad, certificados, registro

Artículo 40: Normas armonizadas y productos de normalización

Artículo 41. Especificaciones comunes Especificaciones comunes

Artículo 42. Presunción de conformidad Presunción de conformidad con determinados requisitos

Artículo 43. Evaluación de la conformidad Evaluación de la conformidad

Artículo 44. Certificados Certificados

Artículo 45: Obligaciones de información de los organismos notificados

Artículo 46: Excepción al procedimiento de evaluación de la conformidad

Artículo 47 Declaración de conformidad de la UE

Artículo 48: Marcado CE

Artículo 49. Registro Registro

Sección 1: Seguimiento postcomercialización

Artículo 72: Seguimiento postcomercialización por parte de los proveedores y plan de seguimiento postcomercialización para sistemas de IA de alto riesgo

Sección 2: Intercambio de información sobre incidentes graves

Artículo 73. Notificación de incidentes graves Notificación de incidentes graves

Sección 3: Ejecución

Artículo 74: Vigilancia del mercado y control de los sistemas de IA en el mercado de la Unión

Artículo 75: Asistencia mutua, vigilancia del mercado y control de los sistemas de IA de propósito general

Artículo 76: Supervisión de las pruebas en condiciones reales por las autoridades de vigilancia del mercado

Artículo 77: Competencias de las autoridades de protección de los derechos fundamentales

Artículo 78. Confidencialidad Confidencialidad

Artículo 79: Procedimiento para tratar los sistemas de IA que presenten un riesgo a nivel nacional

Artículo 80: Procedimiento para tratar los sistemas de IA clasificados por el proveedor como de riesgo no elevado en aplicación del Anexo III

Artículo 81: Procedimiento de salvaguardia de la Unión

Artículo 82: Sistemas de IA conformes que presentan un riesgo

Artículo 83. Incumplimiento formal Incumplimiento formal

Artículo 84: Estructuras de apoyo a las pruebas de IA de la Unión

Sección 4: Recursos

Artículo 85: Derecho a presentar una reclamación ante una autoridad de vigilancia del mercado

Artículo 86: Derecho a la explicación de las decisiones individuales

Artículo 87. Notificación de infracciones y protección de los denunciantes Notificación de infracciones y protección de los denunciantes

Sección 5: Supervisión, investigación, aplicación y control de los proveedores de modelos de IA de propósito general

Artículo 88: Cumplimiento de las obligaciones de los proveedores de modelos de IA de propósito general

Artículo 89 : Acciones de control

Artículo 90: Alertas de riesgos sistémicos por la Comisión técnica científica

Artículo 91: Facultad de solicitar documentación e información

Artículo 92: Facultad de realizar evaluaciones

Artículo 93: Facultad de solicitar medidas

Artículo 94: Derechos procesales de los operadores económicos del modelo de IA de propósito general

Anexos

Búsqueda en la Ley

2 de mayo de 2024 - El AI Act Explorer se ha actualizado con el contenido de la versión "Corrigendum" del Parlamento Europeo del 19 de abril de 2024. Es poco probable que el contenido de la Ley sufra más cambios.

Recital 111

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Risto Uuk en risto@futureoflife.org

Conviene establecer una metodología para clasificar los modelos de IA de propósito general como modelos de IA de propósito general con riesgos sistémicos. Dado que los riesgos sistémicos se derivan de capacidades particularmente elevadas, debe considerarse que un modelo de IA de propósito general presenta riesgos sistémicos si tiene capacidades de alto impacto, evaluadas sobre la base de herramientas técnicas y metodologías adecuadas, o un impacto significativo en el mercado interior debido a su alcance. Por capacidades de alto impacto en los modelos de IA de propósito general se entienden capacidades que igualan o superan las capacidades registradas en los modelos de IA de propósito general más avanzados. La gama completa de capacidades de un modelo podría comprenderse mejor tras su comercialización o cuando los implantadores interactúen con el modelo. Según el estado de la técnica en el momento de la entrada en vigor del presente Reglamento, la cantidad acumulada de cálculo utilizada para el entrenamiento del modelo de IA de propósito general, medida en operaciones de coma flotante, es una de las aproximaciones pertinentes a las capacidades del modelo. La cantidad acumulada de cálculo utilizada para el entrenamiento incluye el cálculo utilizado en todas las actividades y métodos destinados a mejorar las capacidades del modelo antes de su despliegue, como el preentrenamiento, la generación de datos sintéticos y el ajuste. Por lo tanto, debe fijarse un umbral inicial de operaciones en coma flotante que, si es alcanzado por un modelo de IA de propósito general, lleve a presumir que se trata de un modelo de IA de propósito general con riesgos sistémicos. Este umbral debería ajustarse con el tiempo para reflejar los cambios tecnológicos e industriales, como las mejoras algorítmicas o el aumento de la eficiencia del hardware, y debería complementarse con puntos de referencia e indicadores de la capacidad del modelo. Para ello, la Oficina de Inteligencia Artificial debería colaborar con la comunidad científica, la industria, la sociedad civil y otros expertos. Los umbrales, así como las herramientas y los puntos de referencia para la evaluación de las capacidades de alto impacto, deberían ser sólidos predictores de la generalidad, sus capacidades y el riesgo sistémico asociado de los modelos de IA de propósito general, y podrían tener en cuenta la forma en que el modelo se comercializará o el número de usuarios a los que puede afectar. Para complementar este sistema, debería existir la posibilidad de que la Comisión adoptara decisiones individuales por las que se designara un modelo de IA de propósito general como modelo de IA de propósito general con riesgo sistémico si se constatara que dicho modelo tiene capacidades o un impacto equivalentes a los captados por el umbral establecido. Dicha decisión debe adoptarse sobre la base de una evaluación global de los criterios para la designación de un modelo de IA de propósito general con riesgo sistémico establecidos en un anexo del presente Reglamento, como la calidad o el tamaño del conjunto de datos de entrenamiento, el número de empresas y usuarios finales, sus modalidades de entrada y salida, su nivel de autonomía y escalabilidad, o las herramientas a las que tiene acceso. Previa solicitud motivada de un proveedor cuyo modelo haya sido designado como modelo de IA de propósito general con riesgo sistémico, la Comisión debe tener en cuenta la solicitud y puede decidir reevaluar si puede seguir considerándose que el modelo de IA de propósito general presenta riesgos sistémicos.

El texto utilizado en esta herramienta es la "Ley de Inteligencia Artificial, Corrección de errores, 19 de abril de 2024". Fichero interinstitucional: 2021/0106(COD)