En esta panorámica, ofrecemos un resumen de los elementos clave de la Oficina de la IA relevantes para los interesados en la gobernanza de la IA. Hemos destacado las responsabilidades de la Oficina de IA, su papel dentro de la Comisión Europea, su relación con el Consejo de IA, sus reguladores nacionales, el grupo científico de expertos independientes y su función como voz de la UE en la cooperación mundial en materia de IA. Para más detalles, consulte el último texto jurídico de la Ley de IA, en el que se creó la Oficina de IA, y la Decisión de la Comisión por la que se establece formalmente como entidad jurídica.
(Expirado) La Oficina de AI está contratando
La Comisión Europea está contratando agentes contractuales que sean especialistas en tecnología de IA para gobernar los modelos de IA más punteros. Consulte aquí un resumen de las funciones y actividades de la Oficina de IA.
Compartimos esta oportunidad porque creemos que la Oficina de la IA será un actor clave en la regulación de las tecnologías de la IA en un futuro próximo. Aportar talento de alta calidad a esta función es esencial para regular eficazmente la tecnología de la IA en la UE y para inspirar una regulación similar en todo el mundo.
La fecha límite para presentar solicitudes es el 27 de marzo de 2024 a las 12:00 CET.
La Comisión Europea ha creado un nuevo regulador a escala de la UE, la Oficina Europea de IA, que dependerá de la Dirección General de Redes de Comunicación, Contenidos y Tecnología (DG CNECT) de la Comisión Europea.
La Oficina de IA controlará, supervisará y hará cumplir los requisitos de la Ley de IA sobre modelos y sistemas de IA de propósito general (GPAI) en los 27 Estados miembros de la UE. Esto incluye el análisis de los riesgos sistémicos imprevistos que surjan del desarrollo y despliegue de GPAI, así como el desarrollo de evaluaciones de capacidades, la realización de evaluaciones de modelos y la investigación de incidentes de posible infracción e incumplimiento. Para facilitar el cumplimiento de los proveedores de modelos GPAI y tener en cuenta sus perspectivas, la Oficina de IA elaborará códigos de prácticas voluntarios, cuya adhesión crearía una presunción de conformidad.
La Oficina de la IA también liderará la cooperación internacional de la UE en materia de IA y reforzará los lazos entre la Comisión Europea y la comunidad científica, incluido el próximo grupo científico de expertos independientes. La Oficina ayudará a los 27 Estados miembros a cooperar en la aplicación de la normativa, incluidas las investigaciones conjuntas, y actuará como Secretaría del Consejo de IA, el foro intergubernamental para la coordinación entre los reguladores nacionales. Apoyará la creación de "sandboxes" reguladores donde las empresas puedan probar sistemas de IA en un entorno controlado. También proporcionará información y recursos a las pequeñas y medianas empresas (PYME) para ayudarlas a cumplir las normas.
Mecanismo central de coordinación y control
¿Qué hará la Oficina de AI para coordinar y supervisar la aplicación de la Ley de AI de la UE?
- La Oficina de IA supervisará la aplicación de las normas por parte de los creadores de modelos GPAI, exigiéndoles que adopten medidas correctoras cuando las incumplan.
- Cuando el mismo proveedor desarrolle el modelo y el sistema GPAI (aplicación de cara al usuario), la Oficina de AI también supervisará el cumplimiento del sistema GPAI.
- Cuando un sistema GPAI sea utilizado directamente por los implantadores en un contexto de alto riesgo (anexo II o III), y se sospeche que no cumple las normas, la Oficina de IA cooperará con las autoridades de vigilancia del mercado para evaluar el cumplimiento e informar al Consejo de IA.
- La Oficina de AI facilitará la aplicación uniforme de la Ley de AI en todos los Estados miembros.
- La Oficina apoyará la aplicación coordinada de las IA prohibidas y de alto riesgo agilizando la comunicación entre los organismos sectoriales y las autoridades nacionales, y creando bases de datos centrales, sobre todo cuando un modelo o sistema GPAI se integre en un sistema de IA de alto riesgo.
- Garantizará la coordinación de la supervisión de los sistemas de IA que entren en el ámbito de aplicación de la Ley de IA, así como de la Ley de Servicios Digitales (DSA) y la Ley de Mercados Digitales (DMA).
- Coordinará la creación de un sistema de gobernanza, lo que incluye preparar el establecimiento de órganos consultivos a nivel de la UE y supervisar la creación de las autoridades nacionales pertinentes.
- Por último, la Oficina actuará como secretaría de la Junta de AI y sus subgrupos, prestando apoyo administrativo al foro consultivo y al grupo científico de expertos independientes, incluida la organización de reuniones y la preparación de los documentos pertinentes.
Junta AI
¿Qué es el Consejo de AI y cuál es su papel en relación con la Oficina de AI?
- Compuesto por un representante por Estado miembro, con la participación del SEPD y de la Oficina de AI en las reuniones como observadores sin derecho a voto, el Consejo debe garantizar la coherencia y la coordinación de la aplicación entre las autoridades nacionales competentes.
- La Oficina de AI se encargará de la Secretaría del Consejo, convocará las reuniones a petición del Presidente y preparará el orden del día.
- El Consejo de IA ayudará a la Oficina de IA a apoyar a las autoridades nacionales competentes en el establecimiento y desarrollo de los compartimentos estancos de regulación y facilitará la cooperación y el intercambio de información entre los compartimentos estancos de regulación.
Investigaciones conjuntas
¿Qué papel desempeñará la Oficina de Inteligencia Artificial en las "investigaciones conjuntas"?
- La Oficina de IA prestará apoyo a la coordinación de las investigaciones conjuntas realizadas por una o varias autoridades de vigilancia del mercado para detectar incumplimientos, cuando se constate que los sistemas de IA de alto riesgo presentan un riesgo grave en varios Estados miembros.
Ejecución
La Oficina de AI apoyará el papel de la Comisión como principal responsable de la aplicación de la Ley de AI preparando:
- Decisiones (actos jurídicos que sólo se aplican a destinatarios concretos, de forma general o individual);
- Actos de ejecución para establecer normas detalladas de aplicación de la Ley de IA;
- Actos delegados para completar o modificar elementos no esenciales de la Ley de IA;
- Orientaciones y directrices para apoyar la aplicación práctica de la Ley de IA, como protocolos normalizados y buenas prácticas, en consulta con los servicios pertinentes de la Comisión y las instituciones, organismos y agencias de la UE;
- Solicitudes de normalización: evaluación de las normas existentes y preparación de especificaciones comunes para apoyar la aplicación de la Ley de IA.
Códigos de buenas prácticas
¿Cómo aplicará la Oficina de Inteligencia Artificial los códigos de buenas prácticas en materia de inteligencia artificial en la UE?
- Para el segundo trimestre de 2025, la Oficina de AI y la Junta de AI deben facilitar el desarrollo de códigos de prácticas que cubran las obligaciones del GPAI y las técnicas de marca de agua para etiquetar los contenidos como generados artificialmente, teniendo en cuenta los enfoques internacionales. Los códigos deben tener objetivos específicos y mensurables, incluidos indicadores clave de rendimiento (KPI), que tengan en cuenta las diferencias de tamaño y capacidad de los distintos proveedores.
- La Oficina de AI debe supervisar y evaluar la aplicación y eficacia de los códigos, lo que implica informes de los proveedores del GPAI, al tiempo que se estudian adaptaciones a la luz de las nuevas normas. Esto incluye la creación de foros para que los proveedores de modelos y sistemas de PAMI intercambien las mejores prácticas. Puede implicar la consulta con las autoridades nacionales competentes, la sociedad civil, la industria, el mundo académico, los proveedores posteriores y los expertos independientes, a los que se debe consultar periódicamente.
- Todos los proveedores de modelos GPAI pueden demostrar el cumplimiento de sus obligaciones si se adhieren voluntariamente a los códigos de buenas prácticas hasta que se publiquen las normas armonizadas europeas, cuyo cumplimiento también dará lugar a una presunción de conformidad.
- La Oficina de IA creará un foro de cooperación con la comunidad de código abierto para identificar y desarrollar las mejores prácticas para el desarrollo y uso seguros de modelos y sistemas de IA de código abierto.
- La Comisión puede dar validez general en la UE a un código de buenas prácticas mediante actos de ejecución. Si un código de buenas prácticas no puede ultimarse cuando las normas sean legalmente aplicables, o la Oficina de AI lo considera inadecuado, la Comisión puede establecer normas comunes de aplicación mediante actos de ejecución.
Evaluaciones de modelos: Capacidades y riesgos
Para evaluar las capacidades y los riesgos de los modelos de IA, la Oficina de IA:
- Desarrollar herramientas, metodologías y puntos de referencia para la evaluación de las capacidades de los modelos GPAI, en particular los de mayor impacto que presentan posibles riesgos sistémicos.
- Supervisar los riesgos imprevistos emergentes de los modelos GPAI, incluida la respuesta a las alertas cualificadas del panel científico de expertos independientes. Los proveedores sistémicos de modelos GPAI también están obligados a notificar los incidentes graves y las medidas correctoras a la Oficina de IA.
- Investigar posibles infracciones y riesgos sistémicos de los modelos y sistemas GPAI anteriores, incluida la recopilación de denuncias de proveedores e implantadores posteriores, así como alertas cualificadas del panel científico de expertos independientes.
- Exigir a los proveedores de modelos GPAI que, cuando sea necesario, faciliten documentación técnica sobre los procesos de formación y ensayo y los resultados de la evaluación, así como cualquier otra información adicional necesaria para evaluar la conformidad o para que el grupo científico de expertos independientes pueda llevar a cabo su trabajo.
- Iniciar diálogos estructurados con el proveedor del modelo GPAI, cuando sea útil, para recabar más información sobre las pruebas internas del modelo, las salvaguardias para prevenir riesgos sistémicos y otros procedimientos y medidas que el proveedor haya adoptado para mitigar tales riesgos.
- Realizar evaluaciones de modelos, previa consulta a la Junta de IA, a través de API u otros medios, como el código fuente, cuando la documentación y la información sean insuficientes para evaluar la conformidad.
Cuando estas evaluaciones del modelo hayan detectado una preocupación grave y justificada de riesgo sistémico, la Oficina de IA puede exigir al proveedor que aplique medidas de mitigación, que pueden ser vinculantes mediante una Decisión de la Comisión. Si dichas medidas de mitigación no son capaces de abordar el riesgo, la Oficina de IA puede restringir, recuperar o retirar del mercado el modelo GPAI.
Gobernanza de datos
La Oficina de AI también desarrollará una plantilla para que los proveedores de GPAI la utilicen al publicar un resumen suficientemente detallado sobre el contenido utilizado para la formación del modelo de GPAI, que debe ser ampliamente exhaustivo en su alcance, en lugar de técnicamente detallado, para facilitar a las partes con intereses legítimos el ejercicio de sus derechos. Los resúmenes del contenido de los datos de formación pueden enumerar las principales colecciones o conjuntos de datos utilizados, como grandes bases de datos privadas o públicas o archivos de datos, al tiempo que proporcionan una explicación narrativa sobre otras fuentes de datos utilizadas.
Comité científico de expertos independientes
La Comisión seleccionará a expertos que demuestren experiencia, independencia de los desarrolladores de IA y capacidad para desempeñar sus funciones con diligencia, precisión y objetividad.
El grupo asesorará y apoyará a la Oficina de AI en los siguientes ámbitos
- Implantación y aplicación de modelos y sistemas GPAI.
- Desarrollo de herramientas, metodologías y puntos de referencia para evaluar las capacidades del GPAI.
- Clasificación de los distintos modelos y sistemas de GPAI, incluidos los modelos sistémicos de GPAI.
- Desarrollo de herramientas y plantillas.
El panel puede proporcionar una alerta cualificada a la Oficina de IA cuando sospeche que un modelo GPAI plantea un riesgo concreto identificable a nivel de la UE, o alcanza el umbral para clasificar los modelos GPAI como de riesgo sistémico.Sobre esa base, la Oficina de IA, tras informar al Consejo de IA, puede designar un modelo GPAI como de riesgo sistémico y, por tanto, sujeto a más obligaciones.
Colaboración
Por lo que respecta a la colaboración, la Oficina de Inteligencia Artificial también:
- Cooperar con las instituciones, organismos y agencias pertinentes de la UE, incluida la Empresa Común Europea de Computación de Altas Prestaciones (Empresa Común EuroHPC), fomentando la inversión en el desarrollo de GPAI para su despliegue en aplicaciones beneficiosas;
- Colaborar con las autoridades de los Estados miembros en nombre de la Comisión;
- Colaboración con las Direcciones Generales y los servicios de la Comisión pertinentes, en particular el Centro Europeo para la Transparencia Algorítmica, para la evaluación del modelo GPAI y la sensibilización sobre los riesgos emergentes dentro de la Comisión;
- Evaluar y promover la convergencia de las mejores prácticas en los procedimientos de contratación pública de sistemas de IA;
- Contribuir a la cooperación internacional en materia de gobernanza de la IA, abogar por una IA responsable y promover el enfoque de la UE.
Cajas de arena
La Oficina aportará apoyo técnico, asesoramiento y herramientas para la creación y el funcionamiento de los espacios aislados de regulación de la IA, coordinándose con las autoridades nacionales cuando sea necesario para fomentar la cooperación entre los Estados miembros. Dos años después de la entrada en vigor, los Estados miembros deberán crear al menos un espacio aislado de regulación de la IA, ya sea de forma independiente o adhiriéndose a los de otros Estados miembros.
Esto debería fomentar la innovación, en particular para las PYME, facilitando la formación, las pruebas y la validación de la IA, antes de la comercialización del sistema o de su puesta en servicio bajo la supervisión de los reguladores. Con esta supervisión se pretende aportar claridad jurídica, mejorar la experiencia reguladora y el aprendizaje político, y permitir el acceso al mercado. Las autoridades nacionales notifican a la Oficina de Inteligencia Artificial cualquier suspensión de las pruebas en la zona de pruebas debido a riesgos significativos. Las autoridades nacionales presentan informes anuales públicos a la Oficina de Inteligencia Artificial y a la Junta de Inteligencia Artificial en los que se detallan los avances, incidentes y recomendaciones de la "caja de arena".
Apoyo a las PYME
¿Qué hará la Oficina de la IA para ayudar a las PYME de la UE?
- La Oficina de Inteligencia Artificial desarrollará y mantendrá una plataforma única de información que proporcionará información fácil de usar sobre este Reglamento para todos los operadores de la UE.
- La Oficina de AI organizará campañas de comunicación adecuadas para dar a conocer los requisitos del Reglamento.
Consulte
¿Cómo se revisarán y actualizarán las funciones y responsabilidades de la Oficina de AI?
- 2 años después de la entrada en vigor (junio de 2026), la Comisión evaluará si se han otorgado a la Oficina de AI poderes y competencias suficientes para cumplir sus tareas, y si es necesario reforzarlos con mayores recursos.
(Expirado) La Oficina de AI está contratando
La Comisión Europea está contratando agentes contractuales que sean especialistas en tecnología de IA para gobernar los modelos de IA más punteros. Consulte aquí un resumen de las funciones y actividades de la Oficina de IA.
Compartimos esta oportunidad porque creemos que la Oficina de la IA será un actor clave en la regulación de las tecnologías de la IA en un futuro próximo. Aportar talento de alta calidad a esta función es esencial para regular eficazmente la tecnología de la IA en la UE y para inspirar una regulación similar en todo el mundo.
La fecha límite para presentar solicitudes es el 27 de marzo de 2024 a las 12:00 CET.