Qué implica la Ley de IA de la UE para las empresas de selección de personal

17 de marzo de 2026

Si su empresa utiliza la inteligencia artificial para seleccionar, clasificar o emparejar candidatos, la UE regula ahora esas herramientas como sistemas de alto riesgo. A continuación le explicamos qué ha cambiado, qué implica esto para su modelo operativo y qué medidas debería tomar al respecto.

Resumen:

  • La Ley de IA de la UE se aplica a los sistemas de inteligencia artificial utilizados en las decisiones laborales, incluyendo la contratación, la selección, la publicidad de empleo dirigida, la evaluación de candidatos, el seguimiento del rendimiento y determinadas decisiones relativas al cumplimiento normativo, las condiciones contractuales o la rescisión de contratos.
  • Tanto los proveedores como los responsables de la implementación de dichos sistemas de inteligencia artificial están sujetos a las obligaciones establecidas en la ley.
  • Las obligaciones incluyen evaluaciones de riesgos obligatorias, documentación técnica, pruebas de sesgo, supervisión humana, divulgación de información para garantizar la transparencia y un seguimiento continuo.
  • La Ley de IA podría aplicarse a los operadores aunque no tengan su sede en la Unión Europea.
  • La fecha límite para que las empresas de trabajo temporal cumplan con la ley es el 2 de agosto de 2026.
  • La ley otorga a las autoridades nacionales la facultad de imponer multas, así como otras facultades de ejecución, como la de retirar o retirar del mercado los sistemas de inteligencia artificial.
  • Es posible que algunos sistemas de inteligencia artificial —aunque no todos— utilizados en el ámbito laboral queden exentos de las obligaciones establecidas en la ley.

El RGPD te obligó a replantearte cómo gestionas los datos personales. La Ley de IA de la UE te obliga a replantearte cómo utilizas las herramientas que los procesan.

Según la Ley de la UE sobre la IA (Reglamento 2024/1689), los sistemas de IA utilizados en la toma de decisiones laborales se clasifican como de alto riesgo. Esto abarca la contratación, la selección, la publicidad de empleo dirigida, la evaluación de candidatos, el seguimiento del rendimiento y determinadas decisiones relativas al cumplimiento normativo, las condiciones contractuales o la rescisión de contratos. A partir del 2 de agosto de 2026, cada una de estas herramientas deberá someterse a evaluaciones de riesgo obligatorias, contar con documentación técnica, someterse a pruebas de sesgo, estar sujeta a supervisión humana, publicar información sobre transparencia y ser objeto de un seguimiento continuo. 

Para las empresas de selección de personal, los «Employers of Record» (EOR) y las plataformas de gestión de personal —que actúan como intermediarios entre las empresas, la tecnología y los trabajadores—, las obligaciones son más exigentes que para el departamento de recursos humanos de una sola empresa. Y no importa si has desarrollado tú mismo la tecnología. Si tu empresa la utiliza, el cumplimiento normativo es tu responsabilidad, aunque el proveedor de la plataforma afirme lo contrario.

Por qué la cadena de suministro de personal complica aún más las cosas

La mayoría de los comentarios sobre las disposiciones laborales de la Ley de IA están dirigidos a los equipos internos de recursos humanos de empresas individuales. Esto no tiene en cuenta la realidad de las empresas de selección de personal.

Piensa en la cadena de suministro típica de la gestión de personal. Una plataforma de gestión de proveedores (VMS) utiliza algoritmos de emparejamiento para seleccionar candidatos. Un proveedor de externalización del proceso de selección (RPO) lleva a cabo una selección basada en IA entre miles de solicitantes. Una agencia de selección de personal utiliza un chatbot para la preselección. Un EOR utiliza la IA para gestionar la incorporación, el cumplimiento normativo, la rescisión de contratos y el rendimiento en múltiples jurisdicciones. En cada etapa, los sistemas de IA toman o influyen en decisiones que afectan al sustento de las personas, y las obligaciones que la Ley impone a los responsables de su implementación no distinguen entre las entidades de la cadena en función de quién sea el propietario de la tecnología.

Según el artículo 3 de la Ley, se entiende por «implementador» cualquier persona física o jurídica que utilice un sistema de inteligencia artificial bajo su autoridad. Si su empresa de selección de personal selecciona, configura o se basa en una herramienta de inteligencia artificial para tomar decisiones relativas a la plantilla, usted es un implementador, incluso aunque no haya desarrollado usted mismo la tecnología e incluso aunque el proveedor de la plataforma le indique que el cumplimiento normativo es responsabilidad suya. La Ley asigna obligaciones tanto a los proveedores (los vendedores que crean los sistemas) como a los implementadores (las empresas que los utilizan). No puede transferir sus obligaciones de cumplimiento a un socio tecnológico, al igual que no puede hacerlo en virtud del RGPD.

Ámbito de aplicación extraterritorial

La ley tiene alcance extraterritorial. Si los resultados de su sistema de IA se utilizan en la UE o afectan a personas ubicadas en la Unión (un candidato seleccionado para un puesto en Berlín, un contratista evaluado en Dublín, un trabajador temporal asignado a un encargo en Ámsterdam), el reglamento se aplica independientemente de dónde tenga su sede su empresa o dónde esté alojada la tecnología.

La supervisión humana no es opcional

Todo sistema de IA de alto riesgo debe utilizarse de manera que permita una supervisión humana efectiva. Ninguna herramienta de IA debe tomar decisiones definitivas de selección, rechazo o evaluación sin la participación de una persona cualificada en el proceso. Sus responsables de selección de personal y gestores de cuentas deben comprender cómo funciona el sistema, cuáles son sus limitaciones y cuándo deben anular sus resultados. El artículo 14 exige que las personas que ejercen la supervisión detecten y corrijan los errores, incluidos los patrones discriminatorios. Un simple documento normativo no basta para cumplir este requisito.

Se debe informar a los candidatos y a los trabajadores

Antes de implementar un sistema de IA de alto riesgo, el artículo 26, apartado 7, exige que se informe a los representantes de los trabajadores y a los trabajadores afectados. En materia de contratación de personal, esto se extiende a los candidatos y a los trabajadores temporales. Tienen derecho a saber que se está utilizando IA, cómo funciona y qué papel desempeña en las decisiones que les afectan. En virtud del artículo 86, las personas sujetas a decisiones tomadas por sistemas de IA de alto riesgo pueden solicitar una explicación de los principales factores que sustentan dichas decisiones. En el caso de contrataciones a gran escala, su proceso de divulgación debe ser operativo y visible, y no quedar oculto en un documento de condiciones de servicio.

La calidad de los datos y el control de los sesgos requieren una atención especial

Si usted tiene control sobre los datos de entrada que se introducen en sistemas de IA de alto riesgo, debe asegurarse de que dichos datos sean pertinentes y representativos. Las agencias de selección de personal, en las que las bases de datos de candidatos suelen estar sesgadas por factores geográficos, lingüísticos o por los efectos de red existentes, se enfrentan a una versión especialmente importante de esta obligación. Es necesario que sepa con qué datos se entrenan sus herramientas de IA, cómo gestionan las características protegidas y si producen resultados equitativos en todos los grupos demográficos.

Los registros y la documentación son un requisito de infraestructura

Las empresas de implementación deben conservar los registros generados por los sistemas de IA de alto riesgo durante al menos seis meses. Esto, sumado a la obligación de supervisar el rendimiento del sistema de forma continua, genera una necesidad de infraestructura operativa que muchas empresas de selección de personal aún no han tenido en cuenta.

La cronología

Consulte el calendario completo de aplicación de la Ley de IA de la UE

La ley entró en vigor el 1 de agosto de 2024. Algunas disposiciones ya se aplican. Desde febrero de 2025, se han prohibido ciertas prácticas relacionadas con la inteligencia artificial, entre ellas la clasificación biométrica y el reconocimiento de emociones en el lugar de trabajo (con algunas excepciones). Además, entraron en vigor las obligaciones en materia de alfabetización en inteligencia artificial.

La fecha clave para las empresas de selección de personal es el 2 de agosto de 2026, momento en el que entrará en vigor el conjunto completo de obligaciones aplicables a los sistemas de alto riesgo del anexo III, incluida toda la IA relacionada con el empleo.

Algunos comentarios del sector han sugerido que el paquete «Ómnibus Digital» de la Comisión Europea, presentado en noviembre de 2025, retrasará este plazo. Pero se trata de una propuesta, no de una ley ya promulgada. Debe ser aprobada por el Parlamento y el Consejo.

El régimen sancionador

El régimen sancionador de la Ley sigue un modelo escalonado. En el caso de los operadores que incumplan sus obligaciones relativas a los sistemas de alto riesgo, las multas pueden ascender hasta 15 millones de euros o el 3 % de la facturación anual mundial, el importe que sea mayor. En caso de utilizar prácticas de IA prohibidas, el límite máximo se eleva a 35 millones de euros o el 7 % de la facturación. Por facilitar información incorrecta o engañosa a las autoridades reguladoras, las multas pueden alcanzar los 7,5 millones de euros o el 1 %.

Las autoridades nacionales de vigilancia del mercado, y no un único organismo regulador a escala de la UE, se encargan de la aplicación de la normativa en lo que respecta a los sistemas de IA. En enero de 2026, Finlandia se convirtió en el primer Estado miembro en otorgar competencias de ejecución a su autoridad de vigilancia del mercado, de conformidad con el artículo 99 de la Ley de IA, con lo que dichas competencias entraron plenamente en vigor. Otros Estados miembros están siguiendo su ejemplo. Este modelo descentralizado implica que las prioridades en materia de aplicación y los enfoques interpretativos pueden variar de un Estado miembro a otro. En el caso de las operaciones de dotación de personal en varios países, esa variación plantea retos de planificación y, para quienes colaboran desde el principio con los reguladores nacionales, ofrece posibles ventajas.

Sin embargo, la multa en sí misma suele ser un aspecto en el que no conviene centrarse. Las autoridades reguladoras también tienen la facultad de retirar del mercado los sistemas de IA que incumplan la normativa. Para una empresa de selección de personal cuyo modelo operativo se basa en la selección y el cribado asistidos por tecnología, ese es el riesgo más significativo desde el punto de vista comercial: que se retire una herramienta fundamental en pleno contrato, lo que provocaría una interrupción operativa inmediata.

Es posible que algunas de tus herramientas estén exentas. Probablemente, la mayoría no lo estén.

Hay una disposición en la Ley—el artículo 6, apartado 3— a la que los comentarios del sector prestan muy poca atención, y que las empresas de selección de personal deberían conocer. En ella se establecen cuatro condiciones en las que un sistema de IA utilizado en un contexto laboral podría quedar excluido de la clasificación de alto riesgo, aunque opere en un ámbito de alto riesgo.

El sistema lleva a cabo una tarea procedimental concreta, como clasificar los documentos entrantes por categorías o señalar los duplicados en un lote de solicitudes. O bien mejora el resultado de una actividad realizada previamente por una persona, como pulir la redacción de un borrador de contrato. O detecta patrones en decisiones humanas anteriores, como señalar incoherencias en las evaluaciones de rendimiento anteriores de un directivo. O bien realiza una tarea puramente preparatoria: indexar, buscar o traducir material de referencia antes de que una persona tome una decisión.

Sin embargo, el artículo 6, apartado 3, leído conjuntamente con el considerando 53, establece explícitamente que ninguna de esas excepciones se aplica si el sistema de inteligencia artificial implica la elaboración de perfiles en el sentido del artículo 4, apartado 4, del RGPD. Por «elaboración de perfiles» se entiende cualquier tratamiento automatizado de datos personales que evalúe aspectos personales de una persona física, incluido el análisis o la predicción del rendimiento laboral, la fiabilidad, el comportamiento o la ubicación.

La mayoría de las herramientas de selección de candidatos, los algoritmos de clasificación y los sistemas de asignación de personal hacen precisamente eso. Recogen datos personales, aplican una lógica automatizada y generan predicciones sobre la idoneidad o el encaje. Eso es elaboración de perfiles, y hace que la exención no sea aplicable en estos casos.

La consecuencia práctica es la siguiente: cuando se realiza un inventario de IA y se empieza a clasificar los sistemas, es posible que, al examinar las excepciones del artículo 6, apartado 3, se dé por sentado que varias de las herramientas quedan fuera del ámbito de aplicación. En el caso de las herramientas que se encargan de tareas procedimentales o preparatorias, esto puede ser cierto. Sin embargo, en el caso de cualquier sistema que seleccione, clasifique, evalúe o asigne a los trabajadores en función de características personales, es casi seguro que no lo sea.

Se trata de una cuestión de competitividad, no solo de cumplimiento normativo

La mejor forma de enfocar la Ley de IA de la UE es considerarla un hito que marcará un antes y un después en el mercado y que servirá para diferenciar a las empresas de selección de personal con madurez operativa de aquellas que operan con tecnología no contrastada.

Las empresas con operaciones en la UE, especialmente en sectores regulados, ya están incorporando la gobernanza de la IA en sus criterios de selección de proveedores. Las empresas de selección de personal que puedan demostrar prácticas de IA conformes con la normativa, procesos de selección transparentes y marcos de supervisión documentados contarán con una ventaja clara en las licitaciones y en las negociaciones para convertirse en proveedores preferentes. 

Aquí también se observa una tendencia más general. La Ley de IA de la UE es la primera normativa importante de este tipo, pero no será la última. Se están gestando marcos similares en el Reino Unido, Canadá, Corea del Sur, Brasil, Taiwán y a nivel estatal en EE. UU. Invertir ahora en infraestructura de gobernanza de la IA permite desarrollar capacidades que se pueden transferir entre jurisdicciones. Las empresas que tratan el cumplimiento normativo como un proyecto puntual están resolviendo los problemas del presente. Las que integran la gobernanza en su modelo operativo están resolviendo los de la próxima década.

Qué hacer ahora para preparar tu negocio

1. Identifica todos los sistemas de inteligencia artificial que utiliza tu empresa y que influyen en las decisiones relativas a los candidatos o los trabajadores: selección, emparejamiento, clasificación, chatbots, análisis del rendimiento y algoritmos de programación. Incluye las herramientas integradas en plataformas de terceros que utilices. No puedes cumplir con obligaciones que no sabes que tienes.

2. Para cada herramienta, determine si usted es el responsable de la implementación, si el sistema entra dentro de la categoría de uso del anexo IIIy quién es el proveedor. Documente esta información de manera que sus equipos de cumplimiento normativo y de operaciones puedan trabajar con ella.

3. Ponte en contacto con todos los proveedores de IA de tu entorno y hazles preguntas concretas: ¿Conocen la Ley de IA de la UE? ¿Están llevando a cabo una evaluación de la conformidad? ¿Pueden proporcionar documentación técnica, resultados de auditorías de sesgos y registros de uso? ¿Se comprometerán por contrato a respaldar tus obligaciones como implementador?

4. Identifique quiénes serán, dentro de su organización, los responsables de supervisar cada sistema de IA de alto riesgo. Asegúrese de que esas personas cuenten con la formación y la autoridad necesarias para comprender, supervisar y anular los resultados de la IA. Documente el proceso. Las obligaciones en materia de conocimientos sobre IA ya están en vigor, por lo que se trata de un requisito vigente.

5. Elabora los modelos de notificaciones, declaraciones y explicaciones que necesitarás para informar a los candidatos y a los trabajadores sobre el uso de la IA. En un mercado laboral en el que la experiencia del candidato determina el volumen de contrataciones, ser claro y sincero sobre cómo utilizas la tecnología es un factor diferenciador, no una carga.

Las empresas de selección de personal que mejor gestionarán esta transición serán aquellas que empiecen ahora mismo, actúen con método y consideren la gobernanza de la IA como una capacidad operativa, en lugar de un mero trámite legal. La Ley de IA de la UE es la señal más clara hasta la fecha de que la era del despliegue sin control de la IA en las decisiones relativas a la plantilla está llegando a su fin. Para los operadores dispuestos a adelantarse a los acontecimientos, la recompensa no es solo el cumplimiento normativo, sino también la confianza de los clientes y los candidatos, que cada vez más la exigen.


Este artículo ha sido escrito por Nazareth & Partners. Ponte en contacto con nosotros si te interesa enviarnos un artículo como colaborador invitado.

Nazareth & Partners asesora a agencias de selección de personal, empresas de gestión de personal (EOR), proveedores de servicios de gestión (MSP), proveedores de servicios de contratación (RPO) y plataformas de gestión de proveedores de personal (VMS) en materia de cumplimiento normativo transfronterizo, incluyendo la gobernanza de la inteligencia artificial y la preparación para la normativa de la UE. Este artículo tiene fines meramente informativos y no constituye asesoramiento jurídico.

Esta entrada se publicó el 17 de marzo de 2026

Artículos relacionados

La denuncia de irregularidades y la Ley de AI de la UE

Esta página tiene como objetivo proporcionar una visión general de la Directiva sobre denuncia de irregularidades de la UE (2019) y cómo se relaciona con la Ley de AI de la UE, así como proporcionar recursos útiles para posibles denunciantes. Este recurso ha sido elaborado por Santeri Koivula, investigador de la UE en Future of Life...

Resumen de las directrices para los modelos GPAI

El 18 de julio de 2025, la Comisión Europea publicó un proyecto de Directrices que aclaran las disposiciones clave de la Ley de IA de la UE aplicables a los modelos de IA de propósito general (GPAI). Las Directrices ofrecen orientación interpretativa sobre la definición y el alcance de los modelos GPAI, el ciclo de vida...

Visión general del Código de buenas prácticas

El Código de buenas prácticas ofrece un marco claro para ayudar a los desarrolladores de modelos de IA de propósito general (GPAI) a cumplir los requisitos de la Ley de IA de la UE. Aunque los proveedores pueden optar por seguir el Código, también son libres de demostrar su cumplimiento a través de otros métodos apropiados.....

¿Por qué unirse a la Comisión Científica de la UE sobre IA?

La Comisión Europea ha publicado una convocatoria de candidaturas para un panel científico de expertos independientes. El panel se centra en los modelos y sistemas de IA de propósito general (GPAI). Sus tareas incluyen asesorar a la Oficina de IA de la UE y a las autoridades nacionales sobre riesgos sistémicos,...