La Comisión Europea ha publicado una convocatoria de candidaturas para un panel científico de expertos independientes. El panel se centrará en los modelos y sistemas de IA de propósito general (GPAI). Entre sus tareas figura asesorar a la Oficina de IA de la UE y a las autoridades nacionales sobre riesgos sistémicos, clasificación de modelos, metodologías de evaluación y vigilancia de mercados transfronterizos. Además, el panel está facultado para alertar a la Oficina de IA sobre riesgos emergentes.
Las solicitudes están abiertas hasta el 14 de septiembre.
Resumen
- La comisión científica desempeña un papel importante en la aplicación de la Ley de la UE sobre la IA en relación con la IA de uso general. Lo hace, entre otras cosas, proporcionando asesoramiento, una visión actualizada de los avances técnicos y adoptando alertas cualificadas de riesgos sistémicos emergentes.
- El panel estará compuesto por un máximo de 60 expertos independientes, geográficamente representativos de los Estados miembros y equilibrados en cuanto a género. Hasta un 20% de los expertos podrán proceder de terceros países.
- Los criterios de selección incluyen experiencia multidisciplinar, independencia, imparcialidad y objetividad, y capacidad profesional.
- Las áreas de especialización requeridas comprenden la evaluación de modelos, la evaluación de riesgos, las mitigaciones técnicas, los riesgos de uso indebido y sistémicos, los riesgos de ciberdelincuencia, la ciberseguridad, los riesgos emergentes y la medición informática.
- Hay tres requisitos de elegibilidad: Doctorado en un campo relevante O experiencia equivalente; experiencia profesional demostrada e impacto científico en investigación sobre IA/GPAI o estudios de impacto de IA; e independencia demostrada de los proveedores de sistemas de IA o modelos GPAI.
- Los expertos recibirán una remuneración por la realización de determinadas tareas y es posible que se cubran los gastos de viaje.
¿Por qué trabajar en el Grupo Científico de Expertos Independientes?
Hay muchas razones para contribuir como experto independiente en el panel científico. Este panel contribuirá directamente a la aplicación de la Ley de IA de la UE, el marco de gobernanza de la IA más completo a nivel mundial, con poderes sancionadores para garantizar la seguridad de las potentes tecnologías de IA de propósito general (GPAI) en todo el mercado único más grande del mundo.
- Proporcionar asesoramiento basado en pruebas a la Oficina de la IA y a las autoridades nacionales para fomentar y permitir intervenciones públicas concretas de seguridad de la IA para prevenir y mitigar los daños en el mundo real de los modelos y sistemas GPAI.
- Desempeñar un papel central en la identificación y evaluación de modelos GPAI de alto impacto que justifiquen una mayor supervisión debido a su escala, capacidades técnicas o implicaciones sociales de gran alcance.
- Dirigir el enfoque proactivo de seguridad de la IA de la UE, abordando las amenazas sistémicas emergentes que plantean los modelos GPAI incluso antes de que se activen los umbrales reguladores formales.
- Dar forma a la gobernanza de la UE y a la comprensión técnica de la rápida evolución de las capacidades GPAI y los riesgos sistémicos relacionados, informando sobre los aprendizajes políticos y los futuros enfoques reguladores en Europa y fuera de ella.
- Contribuir al desarrollo de puntos de referencia, herramientas y metodologías que establezcan las normas de la UE en materia de seguridad, solidez y cumplimiento normativo de la IA.
- Obtenga reconocimiento profesional y visibilidad como asesor de confianza a la vez que influye en el desarrollo, despliegue e impacto de la GPAI avanzada en Europa.
- Colabore y trabaje con los mejores expertos de toda la UE y de fuera de ella en un entorno multidisciplinar de alto nivel.
- Participar en una labor de interés público impulsada por una misión que promueva el desarrollo y la implantación responsables y seguros de las tecnologías de IA en toda Europa.
Tareas, poderes y competencias de la comisión científica más detalladamente
Visión general
La Comisión Técnica Científica, creada por la Ley de la UE sobre la IA(artículo 68, punto 1), proporciona asesoramiento técnico a la Oficina de la IA y a las autoridades nacionales sobre el cumplimiento de los requisitos de la Ley de la IA para los modelos y sistemas de IA de uso general. Entre sus principales tareas figuran las siguientes
- Desarrollo de herramientas y metodologías de evaluación,
- Asesoramiento sobre la clasificación de modelos, incluida la determinación del riesgo sistémico,
- Creación de herramientas y plantillas, y
- Apoyo a las actividades de vigilancia del mercado.
El panel puede solicitar información a los proveedores de modelos de IA a través de la Comisión, protegiendo al mismo tiempo los secretos comerciales, y los expertos de la Comisión pueden realizar evaluaciones de modelos para la Oficina de IA.
Descripciones cualificadas
El panel puede emitir alertas(artículo 90) que pueden exigir a los proveedores que realicen evaluaciones de seguridad y apliquen medidas de protección cuando los modelos creen riesgos a escala de la UE, afecten a varios Estados miembros o cumplan criterios de riesgo sistémico (que se detallan en el artículo 51: exigir 10^25+ FLOPS para entrenar, demostrar capacidades de alto impacto o capacidades equivalentes basadas en parámetros, tamaño del conjunto de datos, alcance de mercado de más de 10.000 usuarios empresariales de la UE, etc.).
Las alertas requieren la aprobación por mayoría simple y deben incluir información de contacto del proveedor, justificación y hechos relevantes. La Oficina de IA dispone de dos semanas para procesar las alertas y puede designar modelos de riesgo sistémico, sometiendo a los proveedores a requisitos adicionales(artículo 55), como evaluaciones de riesgo, notificación de incidentes y obligaciones de ciberseguridad.
Estructura y composición
El panel estará compuesto por un máximo de 60 expertos independientes con mandatos renovables de dos años. Se garantizará el equilibrio entre hombres y mujeres y la representación geográfica mediante la presencia de al menos un experto por Estado miembro de la UE y país de la AELC/EEE (un máximo de tres por país). Como mínimo, el 80% de los expertos procederán de países de la UE, la AELC y el EEE.
La estructura incluye una Secretaría de apoyo administrativo, un Presidente y un Vicepresidente para todo el mandato, y ponentes y colaboradores remunerados para tareas específicas. El panel funciona de forma transparente, compartiendo públicamente información de expertos, opiniones, recomendaciones y registros de audiencias de las partes interesadas, al tiempo que protege la información comercial confidencial.
Criterios de selección
Según la Ley de IA, los expertos deben demostrar:
- Conocimientos multidisciplinares - Conocimientos científicos, técnicos o sociotécnicos actualizados relacionados con los sistemas de IA, los modelos de IA de propósito general o las repercusiones de la IA pertinentes para la aplicación de la Ley de IA;
- Independencia - Sin conflictos de intereses con sistemas de IA o proveedores de modelos de IA de uso general;
- Imparcialidad y objetividad - Capacidad para trabajar sin prejuicios, como exige la Ley de AI;
- Capacidad profesional - Capacidad para realizar el trabajo con diligencia, precisión y objetividad.
Áreas de especialización requeridas
Según la convocatoria de candidaturas, los candidatos deben poseer una experiencia acreditada en al menos un área:
- Evaluación de modelos - Benchmarking, red teaming, estudios de impacto humano, evaluaciones de despliegue, evaluaciones de derechos fundamentales, análisis de impacto económico, previsión de capacidades de IA;
- Evaluación de riesgos - Identificación de riesgos, análisis, modelización, evaluación, casos de seguridad, taxonomías de riesgo para modelos de IA y GPAI;
- Mitigación técnica - Ajuste de la seguridad, filtros, guardarraíles, marcas de agua, tratamiento de datos, políticas de gestión de riesgos, políticas de escalado, respuesta a incidentes;
- Uso indebido y riesgos sistémicos: riesgos QBRN, manipulación de la población, pérdida de control, discriminación, riesgos para la salud/seguridad pública, riesgos para los derechos fundamentales;
- Riesgos de ciberdelincuencia - Explotación de vulnerabilidades, generación de días cero, ingeniería social, operaciones cibernéticas autónomas, ataques contra infraestructuras;
- Ciberseguridad - Prevención del robo de peso de modelos, liberaciones no autorizadas, elusión de medidas de seguridad;
- Riesgos emergentes - Desalineación, comportamientos engañosos, pérdida de control, capacidades emergentes como la autorreplicación;
- Medición del cóm puto - Metodologías para medir el cómputo de formación, marcos de información, protocolos de verificación.
Requisitos
- Doctorado en el campo correspondiente O experiencia equivalente;
- Experiencia profesional demostrada y repercusión científica en investigación sobre IA/GPAI o estudios de impacto de la IA;
- Independencia demostrada de los proveedores del sistema de IA o del modelo GPAI.
Remuneración
Los expertos serán remunerados si son nombrados ponentes o colaboradores para la realización de tareas que hayan sido solicitadas por la Oficina de AI. La Comisión podrá reembolsar los gastos de viaje de los expertos y, en caso necesario, los gastos de estancia relacionados con las tareas del grupo, dentro de los límites presupuestarios disponibles.