Consulte el texto íntegro de la Ley de IA en línea a través de nuestroExplorador de la Ley de IA

Verificador del cumplimiento de la Ley de IA de la UE

La Ley de AI de la UE introduce nuevas obligaciones para las entidades situadas dentro y fuera de la UE. Utilice nuestra herramienta interactiva para determinar si su sistema de IA estará sujeto a ellas.

Si desea mantenerse al día sobre sus obligaciones en virtud de la Ley de la UE sobre la IA, le recomendamos que se suscriba al Boletín de la Ley de la UE sobre la IA.

Para mayor claridad, le recomendamos que busque asesoramiento jurídico profesional y siga las orientaciones nacionales. Es probable que en 2024 se facilite más información sobre la aplicación de la Ley de IA de la UE en su país.

Comentarios - Estamos trabajando para mejorar esta herramienta. Por favor, envíe sus comentarios a Risto Uuk en risto@futureoflife.org

11 de marzo de 2024 - Actualizado para reflejar el "Proyecto final" de la Ley de AI.

Registro de cambios

26 de marzo de 2024

  • Se ha corregido un error que impedía a los Desplegadores recibir sus obligaciones en virtud del artículo 29.
  • Eliminado el siguiente aviso en el resultado "Obligaciones de alto riesgo": "Sedefinirá una exclusión adicional para los sistemas que sean "puramente accesorios con respecto a la acción o decisión pertinente que deba tomarse" a más tardar un año después de la introducción de la Ley AI." Esta exclusión ya no está presente en el artículo 7 del proyecto final.

11 de marzo de 2024

  • Se ha actualizado el verificador de la conformidad para reflejar el "proyecto final" de la Ley de IA.

Protección de datos: Estamos obligados a almacenar los datos introducidos en este formulario, incluida su dirección de correo electrónico, para poder enviarle los resultados por correo electrónico. Si no utiliza la función de correo electrónico, no se almacenará ninguno de sus datos. No almacenamos ningún otro dato que pueda utilizarse para identificarle a usted o a su dispositivo. Si desea permanecer en el anonimato, utilice una dirección de correo electrónico que no revele su identidad. No compartimos ninguno de sus datos con terceros. Si desea que sus datos sean eliminados de nuestros servidores, póngase en contacto con taylor@futureoflife.org.

Preguntas frecuentes

¿Quién desarrolló esta herramienta y por qué?

Esta herramienta es desarrollada por el equipo del Future of Life Institute. No estamos afiliados de ninguna manera a la Unión Europea. Hemos desarrollado esta herramienta de forma voluntaria para ayudar a la aplicación efectiva de la Ley de IA, porque creemos que la Ley de IA respalda nuestra misión de garantizar que la tecnología de IA siga siendo beneficiosa para la vida y evite riesgos extremos a gran escala.

¿Puedo integrar esta herramienta en mi propio sitio web?

Nuestra herramienta está construida de una manera que dificulta la implementación en otros sitios. No tenemos una API disponible. Por lo tanto, para casi todos los casos, le sugerimos que ponga esta herramienta a disposición de los usuarios de su sitio web mediante un enlace a esta página web: puede utilizar estas imágenes de maqueta para presentar la herramienta en su sitio.

¿Cuándo entra en vigor la Ley europea de IA?

La Comisión Europea está ayudando al Consejo de la Unión Europea y al Parlamento Europeo a concluir las negociaciones interinstitucionales (trílogo), la última fase de las negociaciones antes de que se apruebe la Ley de AI de la UE. Se espera que finalicen a finales de 2023 o principios de 2024. Una vez aprobado oficialmente el Reglamento, habrá un periodo de aplicación de dos a tres años, dependiendo de cómo se desarrollen las negociaciones entre las instituciones de la UE. Esto significa que la Ley de IA entrará en vigor probablemente en 2026 o más tarde. Además, durante el periodo de aplicación, se espera que los organismos europeos de normalización desarrollen normas para la Ley de IA.

¿Cuáles son las categorías de riesgo definidas por la Ley de AI de la UE?

El marco regulador de la Ley define cuatro niveles de riesgo para los sistemas de IA: inaceptable, alto, limitado y mínimo o nulo. Estarán prohibidos los sistemas que planteen riesgos inaceptables, como amenazar la seguridad, los medios de vida y los derechos de las personas, desde el escrutinio social por parte de los gobiernos hasta los juguetes que utilizan asistencia por voz. Los sistemas de alto riesgo, como los utilizados en infraestructuras críticas o para hacer cumplir la ley, deberán cumplir requisitos estrictos en materia de evaluación de riesgos, calidad de los datos, documentación, transparencia, supervisión humana y precisión. Los sistemas que plantean riesgos limitados, como los chatbots, deben cumplir obligaciones de transparencia para que los usuarios sepan que no están interactuando con seres humanos. Los sistemas de riesgo mínimo, como los juegos y los filtros de spam, pueden utilizarse libremente.

¿Qué proporción de sistemas de IA entrará en la categoría de alto riesgo?

No se sabe con certeza qué proporción de los sistemas de IA entrarán en la categoría de alto riesgo, ya que tanto el campo de la IA como la legislación aún están evolucionando. La Comisión Europea estimó en un estudio de impacto que solo entre el 5 % y el 15 % de las aplicaciones estarían sujetas a normas más estrictas. Un estudio realizado por appliedAI sobre 106 sistemas de IA empresarial concluyó que el 18% eran de alto riesgo, el 42% de bajo riesgo y el 40% no tenía claro si era de alto o bajo riesgo. Los sistemas con clasificación de riesgo poco clara en este estudio se encontraban principalmente en las áreas de infraestructuras críticas, empleo, aplicación de la ley y seguridad de los productos. En una encuesta relacionada de 113 empresas emergentes de IA de la UE, el 33% de las empresas emergentes encuestadas creían que sus sistemas de IA se clasificarían como de alto riesgo, en comparación con el 5-15% evaluado por la Comisión Europea.

 

¿Cuáles son las sanciones de la Ley de AI de la UE?

Sobre la base de la posición adoptada por el Parlamento Europeo, el uso de las prácticas prohibidas de IA indicadas en el artículo 5 puede dar lugar a multas de hasta 40 millones de euros, o el 7% del volumen de negocios anual mundial, si este último es superior. El incumplimiento de los requisitos de gobernanza de datos (en virtud del artículo 10) y de los requisitos de transparencia y suministro de información (en virtud del artículo 13) puede dar lugar a multas de hasta 20 millones de euros, o el 4% del volumen de negocios mundial, si este último es superior. El incumplimiento de cualquier otro requisito u obligación puede dar lugar a multas de hasta 10 millones de euros o el 2% del volumen de negocios mundial, si este último es superior. Las multas se escalonan en función de la disposición infringida: las prácticas prohibidas reciben las sanciones más elevadas y las demás infracciones multas máximas más bajas.

 

¿Qué medidas aplica la Ley de la UE sobre la IA específicamente para las PYME?

La Ley de Inteligencia Artificial de la UE tiene como objetivo apoyar a las PYME y a las nuevas empresas, tal y como se especifica en el artículo 55. Entre las medidas específicas se incluye la concesión de acceso prioritario a los espacios aislados de regulación a las PYME y a las nuevas empresas con sede en la UE que cumplan los criterios de elegibilidad. Además, se organizarán actividades de sensibilización y desarrollo de competencias digitales adaptadas a las necesidades de las organizaciones más pequeñas. Además, se crearán canales de comunicación específicos para ofrecer orientación y responder a las preguntas de las PYME y las nuevas empresas. También se fomentará la participación de las PYME y otras partes interesadas en el proceso de elaboración de normas. Para reducir la carga financiera que supone el cumplimiento de las normas, se reducirán las tasas de evaluación de la conformidad para las PYME y las empresas de nueva creación en función de factores como la fase de desarrollo, el tamaño y la demanda del mercado. La Comisión revisará periódicamente los costes de certificación y cumplimiento para las PYME y las nuevas empresas (con aportaciones de consultas transparentes) y trabajará con los Estados miembros para reducir estos costes cuando sea posible.

 

¿Puedo cumplir voluntariamente la Ley de IA de la UE aunque mi sistema no esté incluido en su ámbito de aplicación?

Sí. La Comisión, la Oficina de Inteligencia Artificial y/o los Estados miembros fomentarán códigos de conducta voluntarios para los requisitos del título III, capítulo 2 (por ejemplo, gestión de riesgos, gobernanza de datos y supervisión humana) para los sistemas de inteligencia artificial que no se consideren de alto riesgo. Estos códigos de conducta proporcionarán soluciones técnicas sobre cómo un sistema de IA puede cumplir los requisitos, de acuerdo con la finalidad prevista del sistema. Se tendrán en cuenta otros objetivos como la sostenibilidad medioambiental, la accesibilidad, la participación de las partes interesadas y la diversidad de los equipos de desarrollo. Las pequeñas empresas y las startups se tendrán en cuenta a la hora de fomentar los códigos de conducta. Véase el artículo 69 sobre códigos de conducta para la aplicación voluntaria de requisitos específicos.