El 22 de abril de 2025, la Oficina de AI publicó unas directrices preliminares en las que se aclara el alcance de las obligaciones de los proveedores de modelos GPAI. En ellas se esbozan siete temas que se espera tratar en las directrices definitivas, junto con algunas respuestas preliminares. La Comisión también abrió una consulta para recibir aportaciones de las partes interesadas sobre las directrices.
Este post ofrece una visión general de por qué es importante la categoría de proveedor del modelo GPAI y resume el contenido de las directrices preliminares de abril de 2025.
La cadena de valor de la IA de propósito general es notoriamente compleja y definir las categorías apropiadas para las entidades de toda la cadena de valor no fue tarea fácil durante el proceso de redacción de la Ley de IA.1 La Ley de la IA establece obligaciones diferentes para los proveedores de modelos de IA de propósito general (modelos GPAI) y los proveedores de sistemas de IA que incluyan sistemas de IA de propósito general (sistemas GPAI). Por lo tanto, será importante que los agentes que desarrollen, construyan o integren modelos GPAI identifiquen si pueden considerarse proveedores de un modelo de este tipo y cuándo, en contraposición a un proveedor o implantador posterior de un sistema de IA.
Directrices preliminares PDF | Comisión Europea, 22 de abril de 2025 - Ver documento
Resumen rápido: las directrices preliminares para los modelos GPAI
- Contexto: El 22 de abril de 2025, la Oficina de AI publicó una serie de directrices preliminares que aclaran el alcance de las obligaciones de los proveedores de modelos GPAI.
- Contenido: Se espera que las directrices finales traten siete temas:
- ¿Qué es un modelo GPAI?
- ¿Quiénes son los proveedores de los modelos GPAI y cuándo un modificador posterior es un proveedor?
- Clarificación de la "comercialización de modelos GPAI" y de las exenciones de código abierto.
- Estimación del cómputo de formación
- Normas transitorias, derechos adquiridos y cumplimiento retroactivo
- Efectos de la adhesión al Código de buenas prácticas y de su firma
- Supervisión y aplicación de las normas modelo del GPAI
- Plazo de consulta: Todas las partes interesadas pueden dar su opinión sobre las directrices preliminares mediante una consulta abierta hasta el 22 de mayo.
Por qué es importante la categoría de proveedor del modelo GPAI
La Ley de la IA establece en su artículo 53 obligaciones específicas para los proveedores de modelos de IA de propósito general (modelos GPAI). Entre ellas figuran mantener actualizada la documentación de los modelos y aplicar una política de derechos de autor. Los proveedores de los denominados modelos GPAI con riesgo sistémico (modelos GPAISR) deben cumplir el artículo 53, así como el artículo 55. Este último implica la realización de evaluaciones de los modelos para detectar adversarios. Este último implica la realización de evaluaciones de modelos, pruebas contradictorias, el seguimiento y la notificación de incidentes graves y la garantía de protecciones de ciberseguridad. La forma en que los agentes pueden cumplir estas obligaciones en la práctica se detalla en el Código de buenas prácticas, como se explica en otra entrada del blog. En cambio, los agentes posteriores, como proveedores de sistemas, implantadores, importadores, etc., no están sujetos a estas obligaciones. Más bien, estos agentes deben considerar si se aplican las obligaciones basadas en el riesgo de los artículos 5, 16 a 27 y 50.
1) ¿Qué es un modelo GPAI?
Un "modelo de IA de propósito general" se define en el artículo 3 (63) como un modelo de IA que muestra una generalidad significativa y es capaz de realizar de forma competente una amplia gama de tareas distintas. Además, puede integrarse en diversos sistemas o aplicaciones posteriores.2 El modo de liberación del modelo (pesos abiertos, API, etc.) no importa a efectos de esta definición, salvo si el modelo se utiliza exclusivamente para actividades de investigación, desarrollo o creación de prototipos antes de su comercialización.3 El considerando 97 subraya que, si bien los modelos de IA pueden ser partes esenciales de los sistemas de IA, no constituyen sistemas de IA en sí mismos, ya que los modelos requieren otros componentes, como una interfaz de usuario, para convertirse en sistemas de IA.
El planteamiento preliminar de la Oficina de IA consiste en fijar un umbral en términos de recursos computacionales utilizados para entrenar o modificar un modelo (computación de entrenamiento). En concreto, la Oficina de IA propone combinar el número de parámetros y la cantidad de datos de entrenamiento en una sola cifra. Si un modelo que puede generar texto y/o imágenes utiliza un cómputo de entrenamiento superior a 10^22 operaciones en coma flotante (FLOP), la Oficina de IA presumiría que se trata de un modelo GPAI.
La Oficina de Inteligencia Artificial considera que la fase de preentrenamiento es el principio del ciclo de vida de los modelos GPAI. Más adelante en el ciclo de vida, los modelos GPAI pueden "modificarse", incluso mediante un "ajuste fino". Dichas modificaciones pueden ser realizadas por la misma entidad que proporcionó el modelo GPAI original o por "modificadores posteriores". En el considerando 97, la Ley de IA establece que los modelos IPPAM "podrán ser modificados o ajustados para crear nuevos modelos". Esto nos lleva a preguntarnos: ¿qué tipo de modificaciones pueden considerarse un nuevo modelo de IPPAM? Las directrices preliminares nos dan respuestas, tanto en lo que respecta a la misma entidad como a los modificadores posteriores (véase la sección 2).
Modificación por la misma entidad que proporciona el modelo GPAI original: se considera que conduce a un modelo distinto si esas modificaciones utilizan más de ⅓ del cómputo requerido para que un modelo se presuma modelo GPAI. Con los umbrales actuales, eso sería 3*10^21 FLOP.
2) ¿Quién es el proveedor de un modelo de IA de propósito general y cuándo lo es un modificador posterior?
Con arreglo al artículo 3, apartado 3, son "proveedores" las personas físicas o jurídicas, autoridades públicas, agencias u otros organismos que desarrollen un sistema de IA o un modelo de IPGV o hagan desarrollar tal sistema o modelo y lo comercialicen bajo su propio nombre o marca, ya sea a título oneroso o gratuito.4 Así pues, en virtud de la Ley de IA, un proveedor puede suministrar dos tipos de productos: sistemas de IA o modelos GPAI. Las obligaciones del proveedor dependen de si su producto es un sistema o un modelo. El documento preliminar sólo se refiere a los proveedores de modelos GPAI, incluidos los modelos GPAI con riesgo sistémico, y no a los proveedores de sistemas de IA.
Modificaciones por parte de un modificador intermedio: La Oficina de AI sugiere que sólo aquellas modificaciones que tengan una relación significativa con las razones subyacentes a las obligaciones de los modelos IPPAS deberían llevar a considerar al modificador intermedio como proveedor de un nuevo modelo IPPAS. Por ejemplo, en el caso de los modelos IPPAS con riesgo sistémico, sólo las modificaciones que den lugar a un cambio significativo en el riesgo sistémico deberían convertir a los modificadores posteriores en proveedores de modelos IPPAS con riesgo sistémico. Para proporcionar orientaciones concretas y aumentar la seguridad jurídica, la Oficina de IA propone umbrales computacionales con las correspondientes presunciones de la condición de proveedor.
Modelos GPAI: se presume que un modificador posterior es el proveedor de un modelo GPAI si las modificaciones superan ⅓ del cómputo necesario para que se presuma que un modelo es un modelo GPAI. Con los umbrales actuales, eso sería 3*10^21 FLOP. Esto es similar al umbral para la misma entidad que proporciona el modelo original. Sin embargo, las obligaciones del proveedor se limitan a la modificación realizada de acuerdo con el considerando 109 de la Ley AI.
Modelos GPAI con riesgo sistémico:5 En este caso, la Oficina de AI propone dos condiciones, de las cuales sólo debe cumplirse una.
- Cuando se presume que el modelo original es un modelo GPAI con riesgo sistémico, se presume que un modificador descendente se convierte en proveedor si la cantidad de cómputo es mayor que ⅓ del umbral de cómputo para que un modelo se presuma que es un modelo GPAI con riesgo sistémico. Con el umbral actual, esto es 3*10^24 FLOP.
- Cuando el modelo original no era un modelo GPAI con riesgo sistémico, se presume que un modificador posterior se convierte en proveedor si la cantidad acumulada de cómputo del modelo original y la modificación supera el umbral para la presunción de que un modelo es un modelo GPAI con riesgo sistémico. El umbral actual es de 10^25 FLOP.
A día de hoy, la Oficina de AI asume que ninguna modificación posterior cambia significativamente el riesgo sistémico. La Oficina de AI asume además que pocas o ninguna modificación alcanzan el umbral especificado. Así pues, el umbral del punto 1 está orientado al futuro y se ajusta al enfoque basado en el riesgo de la Ley AI.
Obsérvese que si un modificador posterior de un modelo GPAI se convierte en el proveedor de un modelo GPAI con riesgo sistémico basado en uno de los criterios anteriores, sus obligaciones no se limitan a la modificación realizada.
3) ¿Qué constituye la comercialización de un modelo de IA de uso general y cuándo se aplican las exenciones de código abierto?
La Oficina de IA ofrece una lista de ejemplos de lo que se considera comercialización de un modelo GPAI, incluida su puesta a disposición a través de bibliotecas de software, interfaces de programación de aplicaciones (API), servicios de computación en nube y canales de distribución similares.
Las directrices preliminares también aclaran cuándo se aplican las exenciones para determinadas versiones de código abierto, proponiendo definiciones para los conceptos centrales de "acceso", "uso", "modificación", "distribución" y "código libre y abierto". El documento subraya que los modelos GPAI con riesgo sistémico no están exentos independientemente de su método de publicación.
4) Estimación de los recursos informáticos utilizados para entrenar o modificar un modelo.
Varios de los temas anteriores dependen en gran medida de la estimación de los recursos informáticos utilizados para entrenar o modificar un modelo (es decir, el cómputo). Por lo tanto, es importante que las directrices preliminares incluyan una sección sobre la estimación de los recursos informáticos. La Oficina de Inteligencia Artificial propone dos enfoques: el basado en el hardware y el basado en la arquitectura. En el anexo A.1 se explican con fórmulas y ejemplos concretos de la industria.
Qué debe contabilizarse: las directrices preliminares proponen que el cómputo acumulativo del entrenamiento se limite a las actividades y métodos realizados como parte del entrenamiento del modelo o que alimentan directamente el entrenamiento. De este modo, se excluyen las actividades previas a la gran tirada de preentrenamiento o que mejoran las capacidades del modelo en el momento de la inferencia.
Cuándo debe contabilizarse el cómputo: la Oficina de AI espera que los proveedores hagan una estimación de la cantidad de cómputo de preentrenamiento antes de comenzar su gran tirada de preentrenamiento y lo notifiquen a la Comisión en el plazo de dos semanas a partir de la estimación.
5) Normas transitorias, derechos adquiridos y cumplimiento retroactivo
La Oficina de AI reconoce que las obligaciones en materia de PAMI previstas en la Ley de AI pueden plantear dificultades a las empresas que deseen cumplirlas, especialmente en las primeras fases. El planteamiento preliminar de la Oficina de IA es animar a los proveedores de modelos de IPPAS a entablar un diálogo y obtener apoyo de la Oficina de IA en una fase temprana si prevén dificultades para cumplir. Por ejemplo, cuando las empresas deban proporcionar un modelo GPAI con riesgo sistémico por primera vez en el mercado europeo, la Oficina de IA prestará especial atención a su difícil situación y a la hora de fijar posibles plazos.
6) Efectos de la adhesión al Código de buenas prácticas y de su firma
El enfoque preliminar de la Oficina de AI indica que los signatarios del Código de buenas prácticas se beneficiarán de una mayor confianza por parte de la Comisión. Además, los compromisos contraídos en virtud del Código de buenas prácticas podrán tenerse en cuenta como factor atenuante a la hora de fijar el importe de las multas.
Los no signatarios deberán demostrar cómo cumplen sus obligaciones en virtud de la Ley de AI a través de otros medios adecuados, eficaces y proporcionados. También pueden ser objeto de más solicitudes de información y acceso para realizar evaluaciones de modelos, ya que habrá menos claridad sobre cómo garantizan el cumplimiento.
7) Supervisión y aplicación de las normas generales de la IA
La Oficina de AI se encarga de supervisar y hacer cumplir las obligaciones relacionadas con los proveedores de modelos GPAI. Las directrices preliminares hacen hincapié en un enfoque colaborativo y proporcionado. Esto incluye una estrecha cooperación informal con los proveedores durante la formación para agilizar el cumplimiento y garantizar la colocación en el mercado sin retrasos, especialmente para los proveedores de modelos GPAI con riesgo sistémico. La Oficina de Inteligencia Artificial espera que los proveedores de modelos GPAI con riesgo sistémico informen proactivamente sin solicitudes.
El camino hacia una mayor claridad
Las directrices preliminares son un primer paso importante, ya que confirman que la industria transformadora está fuera del ámbito de aplicación de las obligaciones relativas a los modelos GPAI con riesgo sistémico con los umbrales actuales. Ningún modelo disponible públicamente cumple el umbral de modificación de un tercio de los umbrales de clasificación de los modelos GPAI. Con este enfoque específico de los modelos GPAI, la Comisión elimina las incertidumbres centrales y garantiza a las empresas europeas de transformación que es poco probable que entren en el ámbito de aplicación del Código de buenas prácticas.
Se espera que las directrices evolucionen con el tiempo y se actualicen según sea necesario, en particular a la luz de la evolución de los avances tecnológicos. A medida que las obligaciones para los proveedores de modelos de IGPC empiecen a aplicarse a partir del 2 de agosto de 2025, la aplicación pragmática y cooperativa por parte de la Oficina de AI de los artículos 53 y 55 aportará más claridad. En última instancia, la interpretación autorizada de la Ley de IA solo podrá darla el Tribunal de Justicia de la Unión Europea.
Notas y referencias
- Las categorías cambiaron varias veces durante la redacción. Por ejemplo, la noción de "usuario" se incluyó en la propuesta original de la Comisión, pero se sustituyó por la de "implantador" en la versión final de la Ley de IA, y la noción de "proveedor a pequeña escala" se eliminó por completo. Además, "proveedor a pequeña escala" no figuraba en ninguna de las propuestas de las tres instituciones de la UE y sólo aparece en la versión final. ︎
- Artículo 3(63) ︎
- Considerando 97 ︎
- Artículo 3, apartado 3 ︎
- De conformidad con el artículo 3, apartado 65, el "riesgo sistémico" se define como específico de las capacidades de alto impacto de los modelos de PAMI, que tienen un impacto significativo en el mercado de la Unión. Esto puede deberse a su alcance o a efectos negativos reales o razonablemente previsibles sobre la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que pueden propagarse a escala a través de la cadena de valor. Se presume que los modelos tienen capacidades de alto impacto cuando la cantidad acumulada de cálculo utilizada para su formación es superior a 10(^25) operaciones en coma flotante (FLOP). Se trata de una presunción refutable que no califica automáticamente a los modelos. Actualmente, se calcula que 11 proveedores de todo el mundo ofrecen modelos que superan este umbral. ︎