Las normas de transparencia de la Ley de IA de la UE: una guía práctica sobre el artículo 50

14 de mayo de 2026

Lo que los proveedores y los operadores deben hacer antes de agosto de 2026

El artículo 50 de la Ley de IA de la UE puede afectar a más organizaciones que casi cualquier otra disposición. Establece obligaciones de transparencia para los proveedores y los responsables de la implementación de determinados sistemas de IA, en virtud de las cuales se debe informar a los usuarios cuando interactúan con un sistema de IA o cuando el contenido ha sido generado por IA. Estas obligaciones se extienden a los proveedores y responsables de la implementación de sistemas de IA de código abierto, que no están exentos.

Las obligaciones de transparencia no se limitan a los sistemas clasificados como «de alto riesgo»: se aplican a cualquier sistema de IA utilizado en las cuatro situaciones contempladas en el artículo. En la práctica, el artículo 50 es relevante para todas las empresas que utilizan IA generativa para producir contenidos. Esto es lo que debe saber antes de la fecha límite de agosto de 2026.

Resumen

El artículo 50 de la Ley de la UE sobre la IA establece obligaciones de transparencia en cuatro situaciones:

  1. cuando la IA interactúa directamente con las personas,
  2. cuando la IA genera contenido sintético,
  3. cuando se utiliza la inteligencia artificial para el reconocimiento de emociones o la clasificación biométrica, y
  4. cuando la IA crea deepfakes o publica textos sobre asuntos de interés público.

Estas obligaciones se aplican a todos los sistemas de inteligencia artificial utilizados en las cuatro situaciones contempladas en el artículo 50, y no solo a los sistemas de alto riesgo.

Estas obligaciones entrarán en vigor el 2 de agosto de 2026. La Comisión ha publicado un proyecto de directrices sobre el ámbito de aplicación y la aplicación del artículo 50, y se está elaborando un código de buenas prácticas sobre los contenidos generados por IA con el fin de ofrecer soluciones prácticas en materia de identificación y etiquetado.

Normas para los proveedores:

Los proveedores de chatbots, asistentes virtuales y otros sistemas destinados a interactuar con las personas deben diseñarlos de tal forma que los usuarios sepan que están interactuando con la inteligencia artificial.

Los proveedores de sistemas de IA generativa —que producen texto, imágenes, audio y vídeo— deben etiquetar los resultados en un formato legible por máquina y garantizar que se pueda identificar que han sido generados o manipulados artificialmente. Se está elaborando una etiqueta normalizada de la UE.

Normas para los instaladores:

Los responsables de la implantación de sistemas de reconocimiento de emociones o de clasificación biométrica deben informar a las personas afectadas.

Los responsables que utilicen la inteligencia artificial para crear deepfakes deben indicar que el contenido ha sido generado o manipulado artificialmente. Los responsables que publiquen textos generados por inteligencia artificial con el fin de informar al público sobre asuntos de interés general deben indicar que el texto ha sido generado por inteligencia artificial, a menos que haya sido revisado por personas y haya sido objeto de una responsabilidad editorial.

Por qué es importante el artículo 50

Gran parte de la Ley de IA se centra en los sistemas de IA de alto riesgo, incluyendo las evaluaciones de conformidad, la documentación técnica y los requisitos del marcado CE. Sin embargo, la calificación de «alto riesgo» solo se aplica a un subconjunto de usos de la IA.

El artículo 50 funciona de manera diferente. Sus obligaciones en materia de transparencia se aplican de forma generalizada a cualquier sistema de IA utilizado en las cuatro situaciones que abarca. Una organización que no utilice IA de alto riesgo puede seguir teniendo obligaciones importantes en virtud del artículo 50: por ejemplo, porque desarrolle un chatbot de atención al cliente, implemente una herramienta de IA que genere contenidos informativos para su publicación o utilice un sistema que produzca imágenes deepfake.

Los datos de nuestro Compliance Checker revelan que las obligaciones en materia de transparencia son el segundo factor más frecuente que da lugar a problemas de cumplimiento, solo por detrás de los conocimientos sobre IA, y afectan a alrededor del 33 % de todos los encuestados (a fecha de publicación). Para muchas organizaciones, el artículo 50 será su principal reto en materia de cumplimiento.


Las cuatro obligaciones en materia de transparencia

1. Informar a las personas de que están interactuando con una IA (artículo 50, apartado 1)

Cuando un sistema de IA está destinado a interactuar directamente con las personas (como los chatbots, los asistentes virtuales y los sistemas telefónicos automatizados), su proveedor debe diseñarlo y desarrollarlo de tal manera que se informe a los usuarios de que están interactuando con una IA. El borrador de las Directrices confirma que los agentes de IA entran en el ámbito de aplicación del artículo 50, apartado 1, y que, cuando el proveedor no pueda predecir con certeza si el agente interactuará con un ser humano, este deberá estar diseñado para revelar su naturaleza de IA en todas esas situaciones.

Existe una excepción cuando resulte «evidente desde el punto de vista de una persona física razonablemente bien informada, atenta y prudente» que se trata de una IA, pero no se debe abusar de esta excepción. El borrador de las Directrices establece un enfoque en dos fases para determinarlo: en primer lugar, evaluar el público destinatario y, en segundo lugar, examinar en qué medida un miembro medio de ese grupo es razonablemente bien informado, atento y prudente.

También existe una excepción para los sistemas de inteligencia artificial que estén legalmente autorizados para detectar, prevenir, investigar o perseguir delitos, salvo que dichos sistemas estén a disposición del público para denunciar un delito.

2. Identificación del contenido sintético generado por IA (artículo 50, apartado 2)

Los proveedores de sistemas de inteligencia artificial (incluidos los sistemas de IA de uso general) que generen audio, imágenes, vídeo o texto sintéticos deben garantizar que los resultados se identifiquen en un formato legible por máquina y que se pueda detectar que han sido generados por IA. Se trata de una obligación técnica relacionada con la procedencia: permitir que las herramientas de detección verifiquen si el contenido ha sido generado por IA.

Las normas técnicas específicas para este etiquetado se están elaborando a través del Código de buenas prácticas y de los trabajos complementarios de normalización de la UE. Los proveedores deben seguir de cerca estos avances, ya que aún se están ultimando los detalles prácticos de su aplicación de cara a agosto de 2026.

Esta obligación no se aplica cuando el sistema de inteligencia artificial desempeña únicamente una función de asistencia en tareas de edición estándar (por ejemplo, la corrección gramatical) o cuando no modifica sustancialmente los datos de entrada ni su semántica. También existe una excepción para los sistemas autorizados por ley para detectar, prevenir, investigar o perseguir delitos penales.

3. Divulgación del reconocimiento de emociones y la clasificación biométrica (artículo 50, apartado 3)

Cuando un sistema de inteligencia artificial se utilice específicamente para reconocer las emociones de las personas o clasificarlas mediante datos biométricos (por ejemplo, para evaluar el estrés, el estado de ánimo o las características demográficas), los responsables del tratamiento deben informar a las personas físicas a las que afecte dicho sistema. El tratamiento debe cumplir con la legislación aplicable, en particular el Reglamento General de Protección de Datos.

Esta obligación es distinta de la prohibición del reconocimiento de emociones en los lugares de trabajo y las instituciones educativas prevista en el artículo 5, que ya está en vigor. Fuera de esos entornos, el reconocimiento de emociones está generalmente permitido y se aplican las obligaciones de información previstas en el artículo 50, apartado 3. Se aplica una excepción a los sistemas autorizados por la ley para detectar, prevenir o investigar delitos penales.

4. Etiquetado de deepfakes y de textos de interés público generados por IA (artículo 50, apartado 4)

Esta es la parte más analizada del artículo 50. Impone obligaciones a los responsables del despliegue (en este contexto, a menudo el editor o el productor de contenidos que utiliza sistemas de inteligencia artificial) y abarca dos casos distintos:

Deepfakes. Los responsables que utilicen la IA para crear deepfakes (definidos en el artículo 3, apartado 60, como contenidos de imagen, audio o vídeo generados o manipulados mediante IA que se asemejen a personas, objetos, lugares, entidades o acontecimientos existentes y que puedan parecer falsos pero auténticos o veraces) deben indicarlo. El proyecto de directrices aclara que los contenidos claramente fantásticos o físicamente imposibles (por ejemplo, dragones o seres humanos volando sin ayuda) quedan excluidos de la definición de deepfake. Los enfoques propuestos incluyen etiquetas visuales permanentes, avisos de exención de responsabilidad al inicio de los vídeos y advertencias audibles en el caso del audio. Cuando el contenido deepfake forme parte de una obra o programa evidentemente artístico, creativo, satírico, ficticio o análogo, la obligación de revelación se reduce: se limita a revelar la existencia del contenido generado o manipulado «de una manera adecuada que no obstaculice la visualización o el disfrute de la obra».

No obstante, esta obligación no se aplica cuando el uso esté autorizado por la ley con el fin de detectar, prevenir, investigar o perseguir delitos.

Texto generado por IA publicado sobre asuntos de interés público. Cuando los editores publiquen texto generado o manipulado por IA con el fin de informar al público sobre asuntos de interés público, deberán indicar que dicho texto ha sido generado o manipulado artificialmente. El criterio determinante es la finalidad del editor, y no únicamente el tema tratado. La obligación no se aplica cuando el contenido generado por IA haya sido sometido a un proceso de revisión humana o control editorial y una persona física o jurídica asuma la responsabilidad editorial de la publicación. Dichas comprobaciones deben ser sustantivas y no limitarse a cuestiones superficiales o a una aprobación somera.


Detalles sobre la información que debe facilitarse

Esta notificación relativa al uso de la IA en estos cuatro casos debe facilitarse, a más tardar, en el momento de la primera interacción o exposición (es decir, antes o durante la primera interacción o exposición). Por ejemplo, en el caso de un chatbot de IA, esta notificación debe proporcionarse antes o justo al inicio de la conversación; en el caso de un clip de audio o vídeo generado por IA, la notificación debe proporcionarse al inicio del clip. En algunos contextos delicados, una única divulgación puede resultar insuficiente, por lo que puede ser necesario repetirla.

Debe transmitirse de forma clara y diferenciada, cumpliendo con los requisitos de accesibilidad aplicables. Lo que esto significa en la práctica variará significativamente en función del contexto, incluyendo el tipo de medio y el caso de uso. Es más fácil describir lo contrario y lo que no se consideraría claro y distinguible: un fragmento de texto muy pequeño oculto en el pie de página de un sitio web; una etiqueta difusa en una imagen; una breve etiqueta que parpadea solo un instante en un videoclip. Del mismo modo, las divulgaciones ocultas en los términos y condiciones o las etiquetas vagas no cumplirán el umbral.

Directrices de la Comisión

La Comisión ha publicado un borrador de directrices sobre el artículo 50 para someterlo a consulta con las partes interesadas, en el que se ofrece una interpretación práctica del ámbito de aplicación, las definiciones, las excepciones y las cuestiones horizontales. Se espera que la versión definitiva esté lista antes de la fecha límite de agosto de 2026.

El Código de buenas prácticas sobre contenidos generados por IA

La Comisión Europea comenzó a trabajar en un código de buenas prácticas sobre el cumplimiento del artículo 50 a finales de 2025, con la participación de proveedores, operadores, la sociedad civil y expertos técnicos. El código se centra en el artículo 50, apartado 2 (marcado y detección) y en el artículo 50, apartado 4 (etiquetado). En marzo de 2026 se publicó un segundo borrador, y se espera que la versión definitiva esté lista en junio de 2026, antes de la fecha límite de agosto de 2026. Consulte aquí para obtener más información sobre el proceso de redacción.

Entre los elementos clave que se están elaborando en el Código se incluyen:

  • Una etiqueta normalizada de la UE para los contenidos generados por IA —actualmente propuesta como una etiqueta visual «AI» (adaptada como «KI» en alemán, «IA» en francés, etc.)
  • Una clasificación que distingue entre el contenido«generado íntegramente por IA» y el contenido«asistido por IA», con distintos requisitos de divulgación para cada uno
  • Normas técnicas para herramientas de marcas de agua, metadatos y procedencia
  • Orientaciones sobre el etiquetado específico para cada formato (etiquetas permanentes para el vídeo, etiquetas visibles para las imágenes y avisos audibles para el audio)

Aunque el Código de buenas prácticas es de carácter voluntario, se espera que se convierta en el punto de referencia práctico para la evaluación normativa. Las organizaciones que cumplan el Código estarán en una posición idónea para demostrar el cumplimiento del artículo 50.

Lo que deberías hacer ahora

Si ofreces un chatbot o un asistente virtual dirigido a los clientes: revisa tus prácticas actuales de información al usuario. Asegúrate de que los usuarios sepan que están interactuando con una IA al inicio de cada interacción. Revisa el diseño de tu interfaz: la información debe ser clara y no quedar oculta.

Si ofrece sistemas de IA generativa: comience a evaluar su capacidad técnica para el marcado de resultados legible por máquina. Participe en el proceso del Código de buenas prácticas y asegúrese de que sus sistemas generen marcados de resultados conformes a gran escala.

Si implementa sistemas de reconocimiento de emociones o de clasificación biométrica: compruebe primero que no se incumplan las prohibiciones del artículo 5, luego redacte un aviso claro para las personas afectadas y asegúrese de que el tratamiento cumple los demás requisitos legales.

Si publicas contenido generado por IA: haz un inventario de tus procesos de producción de contenidos. Identifica dónde se publica externamente el contenido generado por IA (sitio web, redes sociales, informes, materiales de marketing). En el caso de imágenes, audio o vídeo deepfake, planifica su divulgación desde el principio. En cuanto al texto, evalúa si se publica con el propósito de informar al público sobre asuntos de interés público y si puedes acogerte a la excepción relativa a la revisión humana y la responsabilidad editorial.

Fechas importantes

FechaLo que se aplica
2 de febrero de 2025Prohibiciones relativas a las prácticas inaceptables en materia de inteligencia artificial (artículo 5) en vigor
Junio de 2026Se espera que se ultime el código de buenas prácticas sobre contenidos generados por IA
2 de agosto de 2026Las obligaciones de transparencia del artículo 50 se aplican a los proveedores y a los operadores

Lista de verificación práctica

Todas las organizaciones

  • Realizar un inventario de todos los sistemas de IA que se utilizan en la organización e identificar aquellos que entran en el ámbito de aplicación del artículo 50.
  • Comprueba si se aplica alguna exención o excepción.
  • Estar al tanto del Código de buenas prácticas sobre contenidos generados por IA (cuya versión definitiva está prevista para junio de 2026) y de las directrices de la Comisión.
  • Exigir el cumplimiento de las normas a los proveedores de IA mediante contrato.

Proveedores

  • En el caso de los sistemas que interactúan directamente con las personas, asegúrese de que se informe claramente sobre el uso de la inteligencia artificial en el momento de la primera interacción, de manera que se cumplan los requisitos de accesibilidad.
  • En el caso de los sistemas de IA generativa (incluida la IA generativa general), se debe implementar un etiquetado legible por máquina de los resultados sintéticos en todas las modalidades (audio, imagen, vídeo y texto).

Implementadores

  • En lo que respecta al reconocimiento de emociones o a la clasificación biométrica, se debe evaluar cada caso concreto a la luz de la prohibición establecida en el artículo 5 antes de considerar la divulgación prevista en el artículo 50, apartado 3.
  • En lo que respecta a los usos permitidos, se deben diseñar mecanismos de notificación que informen a las personas expuestas de forma clara y fácilmente identificable.
  • En el caso de los sistemas susceptibles de generar deepfakes, se deben identificar todos los casos de uso que generen contenido de imagen, audio o vídeo que pueda ajustarse a la definición de «deepfake» y diseñar las medidas de información adecuadas.
  • Se debe realizar un inventario de los textos publicados e identificar aquellos que se hayan publicado con el fin de informar al público sobre asuntos de interés general. En el caso de los textos incluidos en el ámbito de aplicación, se deberá proceder a su divulgación o establecer un proceso de revisión humana y responsabilidad editorial para acogerse a la excepción.

Consulte el artículo 50 en el «AI Act Explorer» para ver el texto legal completo, o utilice nuestra herramienta de verificación del cumplimiento para saber qué obligaciones de transparencia se aplican a su situación concreta.

Esta entrada se publicó el 14 de mayo de 2026

Artículos relacionados

Aplicación del capítulo V de la Ley de la UE sobre la IA

El objetivo de esta página es ofrecer una visión general de las disposiciones de aplicación de la Ley de IA de la UE relativas al capítulo V, es decir, las disposiciones que imponen obligaciones a los proveedores de modelos de IA de uso general (GPAI). También pretende analizar el papel que pueden desempeñar otros actores en...

Qué implica la Ley de IA de la UE para las empresas de selección de personal

Si su empresa utiliza la inteligencia artificial para seleccionar, clasificar o emparejar candidatos, la UE regula ahora esas herramientas como sistemas de alto riesgo. A continuación le explicamos qué ha cambiado, qué implica esto para su modelo operativo y qué medidas debería tomar al respecto.

La denuncia de irregularidades y la Ley de AI de la UE

Esta página tiene como objetivo proporcionar una visión general de la Directiva sobre denuncia de irregularidades de la UE (2019) y cómo se relaciona con la Ley de AI de la UE, así como proporcionar recursos útiles para posibles denunciantes. Este recurso ha sido elaborado por Santeri Koivula, investigador de la UE en Future of Life...

Resumen de las directrices para los modelos GPAI

El 18 de julio de 2025, la Comisión Europea publicó un proyecto de Directrices que aclaran las disposiciones clave de la Ley de IA de la UE aplicables a los modelos de IA de propósito general (GPAI). Las Directrices ofrecen orientación interpretativa sobre la definición y el alcance de los modelos GPAI, el ciclo de vida...