¿Por qué trabajar en la Oficina de Inteligencia Artificial de la UE? Probablemente no sea para todo el mundo, pero hay muchas razones de peso.
Resumen
- Encabezar la gobernanza responsable de la IA a nivel mundial mediante la aplicación de la primera normativa vinculante y exhaustiva sobre IA. Su trabajo influirá directamente en la evolución de la gobernanza y la supervisión de la IA en todo el mundo.
- Aprovechar la ventaja inicial de la Oficina de Inteligencia Artificial, como primer regulador de este tipo que supervisa un mercado de consumo amplio y próspero, para dar forma a las normas mundiales sobre evaluación de modelos de inteligencia artificial.
- Fomentar la seguridad de la IA en los 27 países de la UE y fuera de ella investigando, analizando y señalando los riesgos sistémicos.
- Colaborar con socios internacionales a través de los institutos de seguridad de la IA y representar la posición de la UE en este campo en la escena mundial.
- A diferencia de los institutos de seguridad de la IA u otros comités de ética de la IA, la Oficina de la IA tiene competencias reales de ejecución para obligar a los proveedores de modelos a tomar medidas correctoras o retirar los modelos de IA de uso general que no cumplan las normas.
- Trabaja con especialistas en un entorno multidisciplinar, que incluye tecnología, derecho, ética y mucho más, tanto dentro de la Oficina como con las comunidades científicas y de código abierto externas. Esto le permite aprovechar las últimas investigaciones sobre IA, al tiempo que es pionero en la investigación de vanguardia sobre evaluaciones y mitigación de riesgos, evaluaciones, notificación de incidentes y ciberseguridad.
- Consiga un gran impacto en el servicio público, donde podrá contribuir a políticas que afectan directamente a millones de vidas.
- Como nueva organización, con considerables planes de crecimiento para 2024-25, ahora es un buen momento para participar. Habrá muchas oportunidades para desarrollar tu carrera y asumir funciones de liderazgo en la gobernanza mundial de la IA.
Tareas, poderes y competencias de la Oficina de AI más detalladamente
Visión general
- La Comisión Europea ha creado la Oficina de IA de la UE dentro de la Dirección General CONNECT Dirección A para controlar, supervisar y hacer cumplir los requisitos de la Ley de IA sobre modelos de IA de propósito general (GPAI) (y sistemas, la aplicación de cara al usuario, cuando sea el mismo proveedor que el modelo) en toda la UE.
- La Oficina de AI contará con 140 empleados, incluidos los 60 actuales de la Comisión. Se espera cubrir los 80 puestos restantes a finales de 2025. En las próximas semanas y meses se contratarán más especialistas en tecnología, abogados, economistas y administradores.
- La Oficina de AI:
- Analizar y concienciar sobre los riesgos emergentes del desarrollo y despliegue de GPAI.
- Realizar evaluaciones de modelos.
- Investigar los incumplimientos.
- Elaborar códigos de prácticas voluntarios para los proveedores modelo.
- Liderar la cooperación internacional en materia de gobernanza de la IA.
- Reforzar las redes entre la Comisión, los institutos de seguridad de la IA de otras jurisdicciones y la comunidad científica mundial, incluso a través del Grupo Científico de Expertos Independientes de la UE.
- Apoyar la cooperación policial y las investigaciones conjuntas de los Estados miembros.
- Ayudar a la Comisión a preparar decisiones vinculantes y legislación derivada en relación con la Ley de AI.
Estructura
La Ley de IA es la primera normativa dura horizontal de este tipo en todo el mundo. A diferencia de otros institutos de seguridad de la IA, como los de EE.UU. y el Reino Unido, la Oficina de la IA tiene competencias coercitivas para obligar a los proveedores incumplidores a adoptar medidas correctoras. Sus competencias más amplias se reflejan en su estructura:
- Jefe de la Oficina: Lucilla Sioli
- 5 unidades:
- Excelencia en inteligencia artificial y robótica:
- Dirigida por Cecile Huet.
- Este equipo se centrará en I+D y en la intersección de software y hardware.
- Normativa y cumplimiento:
- Encabezado por Kilian Gross.
- Este equipo colaborará estrechamente con los Estados miembros para garantizar una aplicación coherente de la Ley de IA en toda la UE.
- Seguridad de la IA:
- No se ha nombrado líder.
- Este equipo se centrará en las evaluaciones de los modelos GPAI con riesgo sistémico y trabajará con el sector y otras partes interesadas para identificar los riesgos sistémicos y las medidas de mitigación adecuadas.
- Innovación en IA y coordinación de políticas:
- A cargo de Malgorzata Nikowska.
- Este equipo vigilará las tendencias y las inversiones para fomentar la innovación.
- IA para el bien de la sociedad:
- Encabezado por Martin Bailey.
- Este equipo se centrará en aplicaciones beneficiosas, como la modelización meteorológica, el diagnóstico del cáncer y los gemelos digitales para la reconstrucción.
- Excelencia en inteligencia artificial y robótica:
- 2 asesores:
- El Asesor Científico Principal aún no ha sido nombrado, pero se centrará en la experiencia para la supervisión del modelo GPAI.
- Juha Heikkilä, Consejero de Asuntos Internacionales, representará a la Oficina de AI en las conversaciones mundiales sobre la convergencia hacia planteamientos comunes.
Acceso a modelos para evaluaciones
- La Oficina de AI puede solicitar documentación y resultados de evaluación a los proveedores del modelo GPAI para evaluar el cumplimiento.
- Si no es adecuada, puede iniciar un diálogo estructurado para recabar más información sobre las pruebas internas, las salvaguardias contra los riesgos sistémicos y las medidas para mitigarlos.
- Si sigue siendo insuficiente, puede llevar a cabo evaluaciones de modelos para evaluar el cumplimiento, o investigar los riesgos sistémicos, especialmente tras una alerta cualificada del panel científico, pero también posiblemente tras un cumplidor de un implantador posterior.
- Los proveedores pueden ser multados por no facilitar el acceso.
- La Oficina de IA también puede solicitar a los proveedores que adopten medidas correctoras, apliquen medidas de mitigación de los riesgos sistémicos o restrinjan, retiren o recuperen modelos del mercado único.
- La Oficina de IA desarrollará herramientas, metodologías y puntos de referencia para la evaluación de las capacidades de los modelos GPAI, en particular los sistémicos.
Liderar las normas de IA de uso general en todo el mundo a través de los códigos de buenas prácticas.
- De aquí a abril de 2025, la Oficina de Inteligencia Artificial elaborará códigos de buenas prácticas que explicarán cómo los creadores de modelos GPAI pueden cumplir los requisitos del Reglamento.
- Todos los proveedores de modelos GPAI pueden demostrar el cumplimiento de sus obligaciones si se adhieren voluntariamente a los códigos de buenas prácticas hasta que se publiquen las normas armonizadas europeas, cuyo cumplimiento también dará lugar a una presunción de conformidad.
- Para elaborar los códigos de buenas prácticas, la Oficina de AI podrá consultar a los proveedores de modelos GPAI, a las autoridades nacionales competentes, a la sociedad civil, a la industria, al mundo académico, a los proveedores intermedios y a expertos independientes.
Los códigos de buenas prácticas abarcarán:
- Evaluaciones de modelos, incluida la realización y documentación de pruebas contradictorias, para identificar riesgos sistémicos.
- La identificación del tipo y la naturaleza de los riesgos sistémicos a escala de la UE, incluidas sus fuentes.
- Las medidas, procedimientos y modalidades para evaluar, gestionar y documentar los riesgos sistémicos, de forma proporcional a su gravedad y probabilidad, y dando cuenta de cómo se materializan a lo largo de la cadena de valor.
- Seguimiento, documentación y notificación de incidentes graves y posibles medidas correctoras.
- Garantizar que el modelo cuenta con las protecciones físicas y de ciberseguridad adecuadas.
- La documentación que los desarrolladores deben facilitar a la Oficina de IA y a las autoridades nacionales competentes para que puedan evaluar la conformidad, como las tareas que el modelo está destinado a realizar, las principales opciones de diseño, los datos y las metodologías de conservación, las políticas de uso aceptable, etc. En el caso de los modelos sistémicos (más de 10^25 FLOPS), esta información también incluye los resultados de la evaluación, una descripción de las pruebas de adversarios internos y/o externos, las adaptaciones del modelo, incluida la alineación y el ajuste fino, etc.
- La documentación que los desarrolladores deben suministrar a sus clientes o a los responsables de su implantación para garantizar la transparencia sobre las capacidades y limitaciones del modelo, como la forma en que el modelo interactúa con otros programas informáticos, las instrucciones de uso o los medios técnicos para integrarlo en las aplicaciones.
- Los códigos también cubrirán los medios para garantizar que la documentación anterior se mantiene actualizada a la luz de la evolución del mercado y la tecnología.
- Políticas que los desarrolladores pueden establecer para respetar la Directiva de la UE sobre derechos de autor, que permite a los titulares de derechos optar por no participar en la extracción de textos y datos (TDM) de sus obras.
- Los desarrolladores del modelo de datos de formación deben utilizarlo para publicar un resumen suficientemente detallado sobre el contenido utilizado para la formación del modelo, que debe ser generalmente exhaustivo en su alcance, en lugar de técnicamente detallado, para facilitar a las partes con intereses legítimos el ejercicio de sus derechos, especialmente en relación con los derechos de autor.
- Técnicas de marca de agua para etiquetar contenidos generados por IA.
Colaboración con socios de la UE e internacionales
- La Oficina de Inteligencia Artificial representa a la Comisión Europea en todos los asuntos relacionados con la inteligencia artificial y actúa de enlace con las autoridades de los Estados miembros, otras Direcciones Generales competentes y los servicios de la Comisión, en particular el Centro Europeo de Transparencia Algorítmica para la evaluación de modelos GPAI.
- Liderará los esfuerzos europeos para contribuir a la cooperación internacional en materia de gobernanza y seguridad de la IA.
Trabajar con las comunidades científica y de código abierto
- La Comisión seleccionará un grupo científico de expertos independientes que asesorará y apoyará a la Oficina de AI en los siguientes ámbitos:
- Implantación y aplicación de modelos y sistemas GPAI.
- Desarrollo de herramientas, metodologías y puntos de referencia para evaluar las capacidades del GPAI.
- Clasificación de los distintos modelos y sistemas de GPAI, incluidos los modelos sistémicos de GPAI.
- Desarrollo de herramientas y plantillas.
- El panel puede alertar a la Oficina de AI si un modelo GPAI alcanza el umbral de riesgo sistémico, o plantea un riesgo sistémico incluso sin alcanzar el umbral. La Oficina de IA puede entonces decidir designar el modelo como tal, imponiendo obligaciones adicionales al proveedor.
- La Oficina de IA también creará un foro para colaborar con la comunidad de código abierto en el desarrollo de mejores prácticas para el uso y desarrollo seguros de modelos y sistemas de IA de código abierto.