Introducción al Código de buenas prácticas para la IA de propósito general

03 Jul, 2024

Última actualización: 14 de agosto de 2025.

A medida que se desarrolla gradualmente la aplicación de la Ley de AI, es importante comprender los distintos mecanismos de aplicación incluidos en el Reglamento. Uno de los más importantes es el Código de Buenas Prácticas de la IA, de carácter general, elaborado por la Oficina de la IA y un amplio abanico de partes interesadas.

Este resumen, en el que se detalla el Código de buenas prácticas para los proveedores de modelos de IA de uso general, ha sido elaborado por Jimmy Farrellcodirector de la política de IA de la UE en Pour Demainy Tekla Emborginvestigadora política del Instituto del Futuro de la Vida. Para más información, póngase en contacto con jimmy.farrell@pourdemain.eu.


A medida que se desarrolla gradualmente la aplicación de la Ley de IA, es importante comprender los distintos mecanismos de aplicación incluidos en el Reglamento. Uno de los más importantes es el Código de buenas prácticas de la IA de propósito general (GPAI), elaborado por la Oficina de IA y un amplio abanico de partes interesadas y publicado en julio de 2025.

Próximamente en este post:


Resumen rápido del Código de buenas prácticas:

  • Objeto: El Código de buenas prácticas de la Ley de IA (introducido en el artículo 56) es un conjunto de directrices para el cumplimiento de la Ley de IA. Es una herramienta crucial para garantizar el cumplimiento de las obligaciones de la Ley de IA de la UE, especialmente en el periodo intermedio entre la entrada en vigor de las obligaciones de los proveedores modelo de IA para fines generales (GPAI) (agosto de 2025) y la adopción de las normas (agosto de 2027 o después). Aunque no son jurídicamente vinculantes, los proveedores de modelos GPAI pueden adherirse al Código de buenas prácticas para demostrar el cumplimiento de las obligaciones de los proveedores de modelos GPAI hasta que entren en vigor las normas europeas.
  • Proceso: El Código se elaboró a través de un proceso multilateral en el que participaron expertos académicos e independientes, proveedores de modelos GPAI, usuarios finales, miembros de la sociedad civil, etc.
  • Contenido: El Código consta de tres capítulos. Los dos primeros, Transparencia y Derechos de autor, se aplican a todos los proveedores de modelos GPAI. El tercero, Seguridad, sólo se aplica a los proveedores de modelos GPAI con riesgo sistémico. Para cada capítulo, el Código establece determinados compromisos y las medidas correspondientes para que los proveedores puedan cumplirlos.
  • Aplicación: La Comisión y el Consejo de IA de la UE han confirmado que el Código GPAI es una herramienta voluntaria adecuada para que los proveedores de modelos GPAI demuestren el cumplimiento de la Ley de IA. En concreto, el Código cubre adecuadamente las obligaciones previstas en los artículos 53 y 55 de la Ley de IA pertinentes para los proveedores de modelos IPCVM y de modelos IPCVM con riesgo sistémico.

Introducción

Esta entrada del blog explica el concepto, el proceso y la importancia del Código de buenas prácticas, una herramienta de la Ley de IA para salvar el período intermedio entre la entrada en vigor de las obligaciones para los proveedores de modelos de IA de propósito general (GPAI) y la eventual adopción de normas europeas armonizadas para los modelos GPAI. Tras la publicación del Código de buenas prácticas definitivo el 10 de julio, y la confirmación por la Comisión y el Consejo de Administración de la IA de la idoneidad del Código definitivo, este post resume la información más importante y actualizada. En otra entrada del blog se ofrece un resumen exhaustivo del contenido del Código.

Normas y necesidad de un código de buenas prácticas

Tras la entrada en vigor de la Ley de IA el 1 de agosto de 2024, las obligaciones del Reglamento se introducen gradualmente, como se detalla en una entrada anterior del blog, con disposiciones sobre sistemas de IA prohibidos en vigor desde febrero de 2025 y disposiciones relativas a los modelos GPAI en vigor desde el 2 de agosto de 2025. Mientras tanto, ha comenzado el complejo proceso de elaboración de normas europeas armonizadas que hagan operativas las obligaciones de la Ley de IA. Si bien la Comisión ha adoptado una solicitud oficial de normalización y el CEN-CENELEC la ha aprobado en relación con las normas para los sistemas de IA1aún no se ha elaborado una solicitud equivalente sobre las normas modelo GPAI. El momento en que se emita dicha solicitud de normalización dependerá en gran medida de la eficacia con que el Código de Buenas Prácticas aplique las obligaciones pertinentes en virtud de la Ley de IA. El proceso de normalización se detalla en otra entrada del blog

En virtud de la Ley de IA, las obligaciones de los modelos GPAI, detalladas en los artículos 50-55, son exigibles doce meses2 después de la entrada en vigor de la Ley (2 de agosto de 2025). Sin embargo, el proceso europeo de normalización, en el que participan sobre todo3 el Comité Europeo de Normalización (CEN) y el Comité Europeo de Normalización Electrotécnica (CENELEC), suele durar hasta tres años.4. Este proceso puede durar aún más con normas más técnicas, como las de GPAI, y si se redactan en coordinación con normas internacionales5como prescribe la Ley de AI6. La participación de múltiples partes interesadas y los enfoques de creación de consenso característicos del establecimiento de normas prolongan aún más los plazos. Así pues, no es probable que las obligaciones de los proveedores del modelo GPAI se conviertan pronto en normas técnicas.

El artículo 56 de la Ley de IA describe el Código de buenas prácticas como un modo de cumplimiento provisional para salvar la distancia entre la entrada en vigor de las obligaciones de los proveedores modelo del GPAI (doce meses) y la adopción de las normas (tres años o más). Aunque no es jurídicamente vinculante, los proveedores del modelo GPAI pueden basarse en el Código de buenas prácticas para demostrar el cumplimiento de las obligaciones de los proveedores del modelo GPAI en los siguientes casos artículos 53 y 55 hasta que se elaboren las normas. Estas obligaciones incluyen7:

  • Suministro de documentación técnica a la Oficina de la IA y a las autoridades nacionales competentes.
  • Suministro de información pertinente a los proveedores posteriores que deseen integrar modelos en su sistema de IA o GPAI (por ejemplo, capacidades y limitaciones).
  • Resúmenes de los datos de formación utilizados
  • Políticas de cumplimiento de la legislación de la Unión vigente en materia de derechos de autor

Para los modelos GPAI con riesgo sistémico (modelos entrenados por encima del umbral de 10^25 operaciones en coma flotante, o FLOP), otras obligaciones incluyen8:

  • Evaluaciones de los modelos más avanzados
  • Evaluación y mitigación de riesgos
  • Notificación de incidentes graves, incluidas las medidas correctoras
  • Protección adecuada de la ciberseguridad

Los proveedores que no demuestren el cumplimiento del Código de buenas prácticas tendrán que demostrar a la Comisión el cumplimiento de las obligaciones anteriores por medios alternativos, posiblemente más gravosos y lentos.9

Breve resumen del contenido del Código de buenas prácticas

Desde que se inició el proceso de redacción en octubre de 2024, se han publicado tres borradores del Código de Buenas Prácticas antes de la versión final de julio de 2025. Los Presidentes y Vicepresidentes de redacción han creado una página web interactiva con el texto completo, preguntas frecuentes y resúmenes. En otra entrada del blog se ofrece también una visión general del contenido del Código. A continuación encontrará un breve resumen.

En general, el Código consta de tres capítulos. Los dos primeros, Transparencia y Derechos de autor, se aplican a todos los proveedores de modelos GPAI. El tercero, Seguridad y protección, sólo se aplica a los proveedores de modelos GPAI con riesgo sistémico (por encima del umbral de 10^25 FLOP), actualmente un pequeño grupo de entre 5 y 15 empresas de todo el mundo.10. El Código establece un total de 12 compromisos -uno para cada uno de los dos primeros capítulos y 10 para el capítulo de Seguridad- y las medidas correspondientes para que los proveedores puedan cumplir los compromisos.

Capítulo de transparencia (todos los proveedores del modelo GPAI)

En virtud de este capítulo, los firmantes se comprometen a mantener una documentación actualizada y completa para cada modelo GPAI que distribuyan en la UE (excepto para los modelos que sean gratuitos, de código abierto y no planteen ningún riesgo sistémico). Esta documentación debe seguir un formulario estandarizado de documentación de modelos, en el que se detallen las licencias, las especificaciones técnicas, los casos de uso, los conjuntos de datos, el cálculo y el uso de la energía, y mucho más. Esta documentación debe almacenarse de forma segura durante al menos diez años y ponerse a disposición, previa solicitud, de la Oficina de Inteligencia Artificial y los usuarios intermedios. Se anima a hacer pública esta información para fomentar la transparencia.

Capítulo de derechos de autor (todos los proveedores de modelos GPAI)

Los firmantes se comprometen a desarrollar y actualizar periódicamente una sólida política de derechos de autor que defina claramente las responsabilidades internas y cumpla las normas legales. Deben asegurarse de que los datos recopilados a través del rastreo web sean accesibles legalmente, respeten las señales de derechos legibles por máquina como robots.txt y eviten acceder a sitios web señalados por infringir los derechos de autor. Las salvaguardias técnicas deben minimizar la generación de contenidos infractores, y las condiciones del servicio deben prohibir claramente el uso no autorizado. Debe existir un punto de contacto designado para que los titulares de derechos de autor presenten reclamaciones, con procesos eficientes y justos para tramitarlas. 

Capítulo Seguridad y protección (único modelo GPAI con proveedores de riesgo sistémico)

Este capítulo sólo afecta a los proveedores de modelos GPAI con riesgo sistémico. Los firmantes deben desarrollar un marco de seguridad y protección de última generación antes de la publicación del modelo, en el que se describan los desencadenantes de la evaluación, las categorías de riesgo, las estrategias de mitigación, los métodos de previsión y las responsabilidades organizativas. Los riesgos sistémicos deben identificarse mediante procesos estructurados, como inventarios, análisis de escenarios y consultas con expertos internos y externos. Antes de progresar con el desarrollo o el despliegue, los firmantes deben evaluar si los riesgos identificados son aceptables, aplicando marcos definidos de niveles de riesgo con márgenes de seguridad incorporados. Se debe presentar un informe obligatorio sobre el modelo de seguridad y protección antes del lanzamiento y se debe actualizar a medida que evolucionan los riesgos. Para garantizar la responsabilidad de la organización, los firmantes deben asignar claramente las funciones de supervisión, propiedad, control y garantía dentro de sus estructuras de gobierno y garantizar los recursos adecuados, una sólida cultura del riesgo y la protección de los denunciantes. Los incidentes graves deben rastrearse, documentarse y notificarse rápidamente a los reguladores en función de la gravedad y de los plazos ajustados. Por último, los firmantes deben conservar registros detallados de las actividades de seguridad y gestión de riesgos durante un mínimo de diez años.

Alcance del modelo GPAI Definición de proveedor

Proveedores del modelo GPAI

Los capítulos de Transparencia y Derechos de autor del Código son pertinentes para todos los proveedores de modelos de IA de propósito general. Los "modelos de IA de propósito general" se definen en la Ley de IA como modelos que muestran una generalidad significativa y son capaces de realizar de forma competente una amplia gama de tareas distintas y que pueden integrarse en diversos sistemas o aplicaciones posteriores.11 Como criterio indicativo, las Directrices GPAI sugieren que se consideren GPAI los modelos entrenados en más de 10^23 FLOP que puedan generar lenguaje, texto a imagen o texto a vídeo.12 El modo de publicación del modelo (pesos abiertos, API, etc.) no importa a efectos de la definición de modelo GPAI, excepto cuando el modelo se utiliza para actividades de investigación, desarrollo o creación de prototipos antes de su comercialización.13 Sin embargo, el modo de publicación sí importa para las obligaciones aplicables, ya que los proveedores de modelos GPAI que se publican con una licencia libre y de código abierto están exentos de las obligaciones previstas en el artículo 53, apartado 1, letras a) y b).14 Los proveedores de modelos GPAI son personas físicas o jurídicas, autoridades públicas, agencias u otros organismos que desarrollan un modelo GPAI o mandan desarrollar un modelo GPAI y lo comercializan con su propio nombre o marca, ya sea a título oneroso o gratuito.15

Es posible que un modificador posterior se convierta en el proveedor de un modelo GPAI proporcionado por primera vez por un agente anterior. Las directrices de la Comisión sugieren que esto sólo ocurrirá si la modificación da lugar a un "cambio significativo en la generalidad, las capacidades o el riesgo sistémico del modelo".16 Se presume que se produce tal cambio si el modificador intermedio utiliza más de un tercio del cálculo para la modificación en relación con el cálculo utilizado para el modelo original.17 Si el proveedor posterior desconoce este valor, este umbral se sustituye por un tercio del umbral para que se presuma que el modelo es un modelo GPAI, que actualmente es de 10^23 FLOP.18 

Las directrices GPAI ofrecen ejemplos para aclarar el ámbito de aplicación. Por ejemplo, un modelo entrenado utilizando más de 10^24 FLOP para la estrecha tarea de aumentar la resolución de las imágenes no se considera un modelo GPAI.19 Aunque el modelo del ejemplo satisface el umbral de cálculo, sólo puede realizar de forma competente un conjunto limitado de tareas, por lo que no se considera de uso general.

Modelo GPAI con proveedores de riesgo sistémico

El capítulo del Código relativo a la seguridad es pertinente para las entidades que proporcionan modelos GPAI de riesgo sistémico. El "riesgo sistémico" se define como específico de las capacidades de alto impacto de los modelos GPAI, que tienen un impacto significativo en el mercado de la Unión.20 Esto puede deberse a su alcance o a efectos negativos reales o razonablemente previsibles sobre la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que pueden propagarse a escala en toda la cadena de valor. Se presume que los modelos tienen capacidades de alto impacto cuando la cantidad acumulada de cálculo utilizada para su formación es superior a 10^25 FLOP. Se trata de una presunción refutable. Actualmente, se calcula que 11 proveedores de todo el mundo ofrecen modelos que superan este umbral.

Es posible que los modificadores posteriores se conviertan en proveedores de un nuevo modelo GPAI con riesgo sistémico, basado en consideraciones similares a las descritas anteriormente para los modificadores posteriores GPAI. Es decir, si el modificador descendente utiliza más de un tercer cálculo para la modificación en relación con el cálculo de formación para el modelo GPAI original con riesgo sistémico, el modificador descendente se convierte en el proveedor.21 Si la cantidad original de cómputo de formación es desconocida para el proveedor descendente, el umbral se sustituye por un tercio del umbral para el modelo que se presume que es un modelo GPAI con riesgo sistémico, que actualmente es 10^25 FLOP.

Los proveedores de modelos GPAI con riesgo sistémico pueden impugnar la clasificación demostrando que, a pesar de superar el umbral de computación, su modelo no posee "capacidades de alto impacto" que igualen o superen a los modelos más avanzados.22

Firmas: Quién firma y qué significa

La Comisión ha publicado en su sitio web el formulario de adhesión, la descripción del proceso y la lista de firmantes. Entre los firmantes se encuentran la mayoría de las empresas que desarrollan los modelos GPAI más avanzados, con las notables excepciones de META y las empresas con sede en China. En la fecha de esta actualización, las siguientes empresas han firmado el Código de buenas prácticas:

  • Accexible
  • Soluciones de alineación de IA
  • Aleph Alfa
  • Almawave
  • Amazon
  • Antrópico
  • Bria AI
  • Cohere
  • Instituto Cibernético
  • Domyn
  • Dweve
  • Euc Inovação Portugal
  • Fastweb
  • Google
  • Tecnología humana
  • IBM
  • Lawise
  • Microsoft
  • Mistral AI
  • Hipopótamo abierto
  • OpenAI
  • Pleias
  • re-inventa
  • ServiceNow
  • Virtuo Turing
  • ESCRITOR

Las Directrices GPAI especifican que los proveedores de modelos GPAI (con riesgo sistémico) pueden demostrar el cumplimiento de sus obligaciones en virtud de la Ley de IA adhiriéndose al Código de buenas prácticas, ahora que el Consejo de IA y la Oficina de IA han publicado sus evaluaciones confirmatorias del Código. En el caso de los signatarios, la Comisión centrará sus actividades coercitivas en el control de la adhesión al Código, lo que demuestra esta mayor confianza, y podrá tener en cuenta los compromisos con el Código como factores atenuantes a la hora de fijar el importe de las multas.23 De los no signatarios, en cambio, se espera que demuestren su cumplimiento por otros medios adecuados.24 Estos pueden recibir un mayor número de solicitudes de información, y normalmente tendrán que proporcionar información más detallada.

Aplicación del Código de buenas prácticas

Las normas GPAI entraron en vigor el 2 de agosto de 2025, lo que significa que todos los nuevos modelos comercializados a partir de esa fecha deben cumplirlas. Sin embargo, las medidas coercitivas de la Comisión -como las solicitudes de información, el acceso a los modelos o las retiradas de modelos- no empezarán hasta un año después, el 2 de agosto de 2026. Este periodo de gracia da tiempo a los proveedores para trabajar con la Oficina de AI a fin de garantizar que cumplen las normas. Para los modelos comercializados antes del 2 de agosto de 2025, los proveedores tienen hasta el 2 de agosto de 2027 para cumplir las normas.

De acuerdo con las Directrices del PAMC, la Comisión adoptará un enfoque colaborativo, escalonado y proporcionado en su supervisión, investigación, aplicación y control de las disposiciones del PAMC.25

La Comisión puede decidir aprobar el Código mediante un acto de ejecución, lo que le daría "validez general" en la Unión.26 No está claro si la Comisión decidirá hacerlo y cuáles serían las implicaciones jurídicas de tal acto de ejecución.

Académicos y organizaciones de la sociedad civil, así como expertos independientes que participaron en la redacción del código, han señalado que una aplicación adecuada del código requeriría muchos más recursos y personal que los asignados actualmente. En concreto, casi se triplicaría, en comparación con los niveles de mediados de 2025, el personal de la unidad de Regulación y Cumplimiento y de las unidades de Seguridad AI de la Oficina de AI. Aún no está claro si se asignarán tales recursos.

Historia: El proceso de elaboración del Código de buenas prácticas

El proceso de redacción comenzó en octubre de 2024 e incluyó a más de mil partes interesadas, tras una convocatoria abierta de manifestaciones de interés. Estas partes interesadas realizaron aportaciones por escrito a tres borradores diferentes del Código. Entre los participantes se encontraban diversos agentes, como proveedores de modelos de GPAI, proveedores de servicios derivados, asociaciones comerciales, académicos, expertos independientes y organizaciones de la sociedad civil. Este proceso multilateral estuvo dirigido por trece presidentes y vicepresidentes independientes. 

Estructura del grupo de trabajo

Los Presidentes dividieron la redacción en cuatro categorías de contenido diferentes, de acuerdo con la sección del modelo GPAI de la Ley AI:

  • Grupo de trabajo 1: Transparencia y normas relacionadas con los derechos de autor

Detallar la documentación a los proveedores posteriores y a la Oficina de AI sobre la base de los anexos XI y XII de la Ley de AI, las políticas que deben establecerse para cumplir la legislación de la Unión sobre derechos de autor y derechos afines, y poner a disposición del público un resumen sobre el contenido de la formación.

  • Grupo de trabajo 2: Medidas de identificación y evaluación del riesgo sistémico

Detallar la taxonomía de riesgos basada en una propuesta de la Oficina de Inteligencia Artificial e identificar y detallar las medidas técnicas pertinentes de evaluación de riesgos, incluidas la evaluación de modelos y las pruebas de adversarios.

  • Grupo de trabajo 3: Medidas de reducción del riesgo sistémico

Identificar y detallar las medidas técnicas pertinentes de mitigación de riesgos, incluida la protección de la ciberseguridad para el modelo de IA de propósito general y la infraestructura física del modelo.

  • Grupo de trabajo 4: Gestión interna de riesgos y gobernanza para proveedores de modelos de IA de uso general

Identificar y detallar políticas y procedimientos para hacer operativa la gestión de riesgos en la gobernanza interna de los proveedores de modelos de IA de uso general, incluido el seguimiento, la documentación y la notificación de incidentes graves y posibles medidas correctoras.

Fuente: Comisión Europea

Sesión plenaria

Después de cada nueva iteración del borrador, los Presidentes organizaron sesiones plenarias para responder a las preguntas y permitir las presentaciones de las partes interesadas. Las sesiones plenarias se dividieron en cuatro grupos de trabajo, basados en las diferentes categorías de contenido descritas anteriormente, y sólo se permitió un representante de cada organización en cada grupo de trabajo. El 30 de septiembre de 2024 se celebró la sesión plenaria inaugural, una reunión virtual en la que participaron casi mil personas.27 de la industria, los titulares de derechos, la sociedad civil y el mundo académico.28 Se celebraron otras tres sesiones plenarias para todos los grupos de trabajo. Paralelamente a los cuatro grupos de trabajo, se celebraron talleres dedicados a los proveedores de modelos GPAI y a los presidentes y vicepresidentes de los grupos de trabajo para informar sobre cada ronda de redacción iterativa, ya que estas partes interesadas se consideraban los principales destinatarios de la CoP. Además, se organizó otro taller para organizaciones de la sociedad civil.

Las primeras fases del proceso de redacción se ciñeron al calendario inicialmente establecido. En la última fase, hubo un retraso de dos semanas en la publicación del tercer borrador y la ronda plenaria, y de un mes en la publicación del Código definitivo, presentado en una sesión plenaria de clausura el 3 de julio de 2025 y publicado el 10 de julio.

Figura 1: Proceso de elaboración de la CoP - Fuente: Comisión Europea

Presidentes y Vicepresidentes

Los Presidentes y Vicepresidentes fueron un componente crucial del proceso de redacción del Código de buenas prácticas. Fueron designados sobre la base de su experiencia demostrada en las áreas pertinentes, su capacidad para desempeñar el papel (compromisos de tiempo y experiencia operativa) y su independencia, refiriéndose a "ningún interés financiero o de otro tipo que pudiera afectar a su independencia, imparcialidad y objetividad". Los presidentes son los responsables de recopilar las aportaciones de todas las partes interesadas en un Código de buenas prácticas sucinto. A continuación se enumeran los Presidentes y sus respectivas trayectorias:

Grupo de trabajo 1: Transparencia y normas relacionadas con los derechos de autor

NombrePapelExperienciaPaís
Nuria OliverCopresidenciaDirector de la Fundación ELLIS AlicanteEspaña
Alexander Peukert CopresidenciaProfesor de Derecho Civil, Mercantil y de la Información en la Universidad Goethe de Fráncfort del MenoAlemania
Rishi BommasaniVicepresidenteResponsable de Sociedad en el Stanford Center for Research on Models, que forma parte del Stanford Institute for Human-Centered AI.US
Céline Castets-RenardVicepresidenteCatedrático de Derecho en la Facultad de Derecho Civil de la Universidad de Ottawa y Titular de la Cátedra de Investigación Accountable AI in a Global ContextFrancia

Grupo de trabajo 2: Identificación y evaluación de riesgos, incluidas las evaluaciones

NombrePapelExperienciaPaís
Matthias Samwald SillaProfesor asociado del Instituto de Inteligencia Artificial de la Universidad Médica de VienaAustria
Marta ZiosiVicepresidenteInvestigador postdoctoral en la Iniciativa de Gobernanza de la IA de Oxford MartinItalia
Alexander ZacherlVicepresidenteDiseñador de sistemas independiente. Anteriormente en el UK AI Safety Institute y DeepMind.Alemania

Grupo de trabajo 3: Reducción de riesgos técnicos

NombrePapelExperienciaPaís
Yoshua BengioSillaCatedrático de la Universidad de Montreal, fundador y director científico de Mila - Instituto Quebequense de Inteligencia Artificial (ganador del premio Turing).Canadá
Daniel PriviteraVicepresidenteFundador y Director Ejecutivo del Centro KIRAItalia y Alemania
Nitarshan RajkumarVicepresidenteDoctorando en investigación sobre IA en la Universidad de CambridgeCanadá

Grupo de trabajo 4: Gestión interna de riesgos y gobernanza de los proveedores de IA polivalente

NombrePapelExperienciaPaís
Marietje SchaakeSillaBecario del Centro de Política Cibernética de Stanford y del Instituto de IA Centrada en el Ser HumanoPaíses Bajos
Markus AnderljungVicepresidenteDirector de Política e Investigación del Centro para la Gobernanza de la IASuecia
Anka ReuelVicepresidenteDoctorando en Informática por la Universidad de StanfordAlemania

La dedicación a estos cargos consecuentes fue considerable. Sin embargo, por razones de independencia financiera, los cargos de Presidente o Vicepresidente no fueron remunerados (lo mismo se aplicó a todos los participantes en la Plenaria), pero contaron con el apoyo de contratistas externos, a saber, un consorcio de consultoras entre las que figuraba la consultora francesa Wavestone.


Notas y referencias

  1. Solicitud de normalización para los sistemas de IA
  2. Artículo 113, letra b)
  3.  También puede participar el Instituto Europeo de Normas de Telecomunicaciones (ETSI).
  4.  CEN-CENELEC
  5. ISO
  6.  Artículo 40, apartado 3
  7.  Artículo 53
  8.  Artículo 55
  9.  Artículo 53, apartado 4, y artículo 55, apartado 2
  10.  Preguntas frecuentes sobre seguridad
  11.  Artículo 3(63)
  12.  Directrices de la Comisión, apartado 17
  13.  No obstante, tenga en cuenta que el modo de publicación sí importa para las obligaciones aplicables, ya que los proveedores de modelos GPAI que se publican con una licencia libre y de código abierto están exentos de las obligaciones previstas en el artículo 53, apartado 1, letras a) y b) (véase el artículo 53, apartado 2, y el capítulo 4 de las Directrices GPAI)
  14.  Artículo 53, apartado 2, y Directrices GPAI, capítulo 4
  15.  Artículo 3, apartado 3
  16.  Directrices de la Comisión, apartado 62
  17.  Directrices de la Comisión, apartado 63
  18.  Directrices de la Comisión, apartado 64
  19.  Directrices de la Comisión, apartado 20
  20.  Artículo 3(65)
  21.  Directrices de la Comisión, apartado 63
  22.  Artículo 52, apartado 2
  23.  Directrices de la Comisión, apartado 94
  24.  Directrices de la Comisión, apartado 95
  25.  Directrices de la Comisión, apartado 102
  26.  Artículo 56, apartado 6
  27.  Número divulgado en el comunicado de prensa de la Comisión
  28.  Artículo de Euractiv sobre la diversidad de los participantes
Este post ha sido publicado el 3 Jul, 2024

Artículos relacionados

La denuncia de irregularidades y la Ley de AI de la UE

Esta página tiene como objetivo proporcionar una visión general de la Directiva sobre denuncia de irregularidades de la UE (2019) y cómo se relaciona con la Ley de AI de la UE, así como proporcionar recursos útiles para posibles denunciantes. Este recurso ha sido elaborado por Santeri Koivula, investigador de la UE en Future of Life...

Resumen de las directrices para los modelos GPAI

El 18 de julio de 2025, la Comisión Europea publicó un proyecto de Directrices que aclaran las disposiciones clave de la Ley de IA de la UE aplicables a los modelos de IA de propósito general (GPAI). Las Directrices ofrecen orientación interpretativa sobre la definición y el alcance de los modelos GPAI, el ciclo de vida...

Visión general del Código de buenas prácticas

El Código de buenas prácticas ofrece un marco claro para ayudar a los desarrolladores de modelos de IA de propósito general (GPAI) a cumplir los requisitos de la Ley de IA de la UE. Aunque los proveedores pueden optar por seguir el Código, también son libres de demostrar su cumplimiento a través de otros métodos apropiados.....

¿Por qué unirse a la Comisión Científica de la UE sobre IA?

La Comisión Europea ha publicado una convocatoria de candidaturas para un panel científico de expertos independientes. El panel se centra en los modelos y sistemas de IA de propósito general (GPAI). Sus tareas incluyen asesorar a la Oficina de IA de la UE y a las autoridades nacionales sobre riesgos sistémicos,...