La Commission européenne a publié un appel à candidatures pour un groupe scientifique d'experts indépendants. Le groupe se concentre sur les modèles et systèmes d'IA à usage général (GPAI). Il a notamment pour mission de conseiller l'Office européen de l'IA et les autorités nationales sur les risques systémiques, la classification des modèles, les méthodes d'évaluation et la surveillance des marchés transfrontaliers. En outre, le groupe est habilité à alerter l'Office de l'IA sur les risques émergents.
Les candidatures Les candidatures sont ouvertes jusqu'au 14 septembre.
Résumé
- Le groupe scientifique joue un rôle important dans l'application de la loi européenne sur l'IA en ce qui concerne l'IA à usage général. Il le fait notamment en fournissant des conseils, des informations actualisées sur les développements techniques et en adoptant des alertes qualifiées pour les risques systémiques émergents.
- Le groupe sera composé d'un maximum de 60 experts indépendants, géographiquement représentatifs des États membres et respectant l'équilibre entre les hommes et les femmes. Jusqu'à 20 % des experts peuvent provenir de pays tiers.
- Les critères de sélection comprennent l'expertise pluridisciplinaire, l'indépendance, l'impartialité et l'objectivité, ainsi que la capacité professionnelle.
- Les domaines d'expertise requis comprennent l'évaluation des modèles, l'évaluation des risques, l'atténuation technique, les risques d'abus et les risques systémiques, les risques de cybercriminalité, la cybersécurité, les risques émergents et la mesure des calculs.
- Les conditions d'éligibilité sont au nombre de trois: Un doctorat dans un domaine pertinent OU une expérience équivalente ; une expérience professionnelle et un impact scientifique avérés dans la recherche sur l'IA/GPAI ou les études d'impact de l'IA ; et une indépendance démontrée par rapport aux fournisseurs de systèmes d'IA ou de modèles GPAI.
- Les experts seront rémunérés pour l'exécution de certaines tâches et les frais de déplacement pourront être pris en charge.
Pourquoi travailler au sein du groupe scientifique d'experts indépendants ?
Il y a de nombreuses raisons de participer au panel scientifique en tant qu'expert indépendant. Ce groupe contribuera directement à l'application de la loi européenne sur l'IA, le cadre de gouvernance de l'IA le plus complet au monde, avec des pouvoirs de sanction pour garantir la sûreté et la sécurité des puissantes technologies d'IA à usage général (GPAI) sur le plus grand marché unique du monde.
- Fournir des conseils fondés sur des données probantes à l'Office de l'IA et aux autorités nationales afin d'encourager et de permettre des interventions publiques concrètes en matière de sécurité de l'IA pour prévenir et atténuer les préjudices réels causés par les modèles et systèmes GPAI.
- Jouer un rôle central dans l'identification et l'évaluation des modèles GPAI à fort impact qui justifient une surveillance accrue en raison de leur ampleur, de leurs capacités techniques ou de leurs implications sociétales profondes.
- Orienter l'approche proactive de l'UE en matière de sécurité de l'IA, en s'attaquant aux menaces systémiques émergentes posées par les modèles GPAI avant même que les seuils réglementaires formels ne soient déclenchés.
- Façonner la gouvernance de l'UE et la compréhension technique de l'évolution rapide des capacités du GPAI et des risques systémiques qui y sont liés, en informant sur les enseignements politiques et les futures approches réglementaires en Europe et au-delà.
- Contribuer à l'élaboration de critères de référence, d'outils et de méthodologies qui définissent les normes européennes en matière de sécurité, de robustesse et de conformité réglementaire de l'IA.
- Obtenir une reconnaissance professionnelle et une visibilité en tant que conseiller de confiance tout en influençant le développement, le déploiement et l'impact de la GPAI avancée en Europe.
- Collaborer et travailler avec les meilleurs experts de l'UE et d'ailleurs dans un cadre multidisciplinaire de haut niveau.
- S'engager dans un travail d'intérêt public axé sur une mission qui promeut le développement et le déploiement responsables et sûrs des technologies de l'IA dans toute l'Europe.
Les tâches, pouvoirs et compétences du groupe scientifique en détail
Vue d'ensemble
Le groupe scientifique, établi par la loi européenne sur l'IA(article 68, point 1), fournit des conseils techniques à l'Office de l'IA et aux autorités nationales sur l'application des exigences de la loi sur l'IA pour les modèles et systèmes d'IA à usage général. Ses principales tâches sont les suivantes
- Développer des outils et des méthodologies d'évaluation,
- Conseils sur la classification des modèles, y compris la détermination du risque systémique,
- Création d'outils et de modèles, et
- Soutenir les activités de surveillance du marché.
Le groupe peut demander des informations aux fournisseurs de modèles d'IA par l'intermédiaire de la Commission tout en protégeant les secrets commerciaux, et les experts de la Commission peuvent effectuer des évaluations de modèles pour l'Office de l'IA.
Alertes qualifiées
Le panel peut émettre des alertes(article 90) qui peuvent obliger les fournisseurs à effectuer des évaluations de sécurité et à mettre en œuvre des mesures de protection lorsque les modèles créent des risques au niveau de l'UE, affectent plusieurs États membres ou répondent aux critères de risque systémique (qui sont détaillés à l'article 51: exiger 10^25+ FLOPS pour la formation, démontrer des capacités à fort impact, ou des capacités équivalentes basées sur des paramètres, la taille de l'ensemble de données, la portée du marché de 10 000+ utilisateurs commerciaux de l'UE, etc.)
Les alertes doivent être approuvées à la majorité simple et doivent inclure les coordonnées du fournisseur, une justification et des faits pertinents. L'Office AI dispose de deux semaines pour traiter les alertes et peut désigner des modèles comme présentant un risque systémique, soumettant ainsi les fournisseurs à des exigences supplémentaires(article 55), notamment en matière d'évaluation des risques, de déclaration des incidents et d'obligations de cybersécurité.
Structure et composition
Le panel sera composé d'un maximum de 60 experts indépendants dont le mandat sera de deux ans et renouvelable. L'équilibre entre les sexes et la représentation géographique sont assurés par la présence d'au moins un expert par État membre de l'UE et par pays de l'AELE/EEE (trois au maximum par pays). Au minimum, 80 % des experts seront issus des pays de l'UE/AELE/EEE.
La structure comprend un secrétariat pour le soutien administratif, un président et un vice-président pour toute la durée du mandat, ainsi que des rapporteurs et des collaborateurs rémunérés pour des tâches spécifiques. Le groupe fonctionne de manière transparente en partageant publiquement les informations, les avis et les recommandations des experts, ainsi que les comptes rendus des auditions des parties prenantes, tout en protégeant les informations commerciales confidentielles.
Critères de sélection
Selon la loi sur l'IA, les experts doivent démontrer
- Expertise pluridisciplinaire - Connaissances scientifiques, techniques ou sociotechniques actualisées relatives aux systèmes d'IA, aux modèles d'IA à usage général ou aux incidences de l'IA sur l'application de la loi sur l'IA ;
- Indépendance - Pas de conflits d'intérêts avec des systèmes d'IA ou des fournisseurs de modèles d'IA à usage général ;
- Impartialité et objectivité - Capacité à travailler sans parti pris, comme l'exige la loi sur l'IA ;
- Capacité professionnelle - Capacité à effectuer un travail avec diligence, précision et objectivité.
Domaines d'expertise requis
Selon l'appel à candidatures, les candidats doivent justifier d'une expertise dans au moins un domaine :
- Évaluation des modèles - Analyse comparative, red teaming, études d'impact humain, évaluations du déploiement, évaluations des droits fondamentaux, analyse de l'impact économique, prévision de la capacité de l'IA ;
- Évaluation des risques - Identification des risques, analyse, modélisation, évaluation, dossiers de sécurité, taxonomies des risques pour les modèles d'IA et de GPAI ;
- Atténuations techniques - Mise au point de la sécurité, filtres, garde-fous, filigrane, traitement des données, politiques de gestion des risques, politiques de mise à l'échelle, réponse aux incidents ;
- Mauvaise utilisation et risques systémiques - risques CBRN, manipulation de la population, perte de contrôle, discrimination, risques pour la santé et la sécurité publiques, risques pour les droits fondamentaux ;
- Risques de cyberdélinquance - Exploitation des vulnérabilités, génération de zero-day, ingénierie sociale, cyberopérations autonomes, ciblage d'infrastructures ;
- Cybersécurité - Prévention du vol de poids des modèles, des diffusions non autorisées, du contournement des mesures de sécurité ;
- Risques émergents - Désalignement, comportements trompeurs, perte de contrôle, capacités émergentes telles que l'autoreproduction ;
- Mesure du calcul - Méthodes de mesure du calcul de la formation, cadres de rapport, protocoles de vérification.
Conditions d'éligibilité
- Doctorat dans le domaine concerné OU expérience équivalente ;
- Expérience professionnelle et impact scientifique avérés dans la recherche sur l'IA/GPAI ou les études d'impact de l'IA ;
- Indépendance démontrée par rapport aux fournisseurs de systèmes d'IA ou de modèles GPAI.
Rémunération
Les experts seront rémunérés s'ils sont nommés rapporteur ou contributeur pour l'exécution des tâches demandées par l'Office AI. La Commission peut rembourser les frais de voyage des experts et, si nécessaire, les frais de séjour liés aux fonctions de panel, dans les limites du budget disponible.