Pourquoi travailler à l'Office AI de l'UE ?

07 juin 2024

Pourquoi travailler à l'Office AI de l'UE ? Ce n'est probablement pas pour tout le monde, mais il y a beaucoup d'excellentes raisons de s'y intéresser.

Résumé

  • Soyez le fer de lance d'une gouvernance responsable de l'IA à l'échelle mondiale en appliquant la première réglementation contraignante complète au monde en matière d'IA. Votre travail influencera directement l'évolution de la gouvernance et de la surveillance de l'IA dans le monde.
  • Tirer parti de l'avantage du pionnier que constitue l'Office de l'IA, premier régulateur de ce type à superviser un marché de consommation vaste et prospère, pour définir des normes mondiales en matière d'évaluation des modèles d'IA.
  • Promouvoir la sécurité de l'IA dans les 27 pays de l'UE et au-delà en recherchant, analysant et signalant les risques systémiques.
  • Collaborer avec des partenaires internationaux par l'intermédiaire d'instituts de sécurité de l'IA et représenter la position de l'UE en matière d'IA sur la scène mondiale.
  • Contrairement aux instituts de sécurité de l'IA ou à d'autres comités d'éthique de l'IA, l'Office de l'IA dispose de réels pouvoirs d'exécution pour obliger les fournisseurs de modèles à prendre des mesures correctives ou à rappeler les modèles d'IA à usage général qui ne sont pas conformes.
  • Travaillez avec des spécialistes dans un environnement pluridisciplinaire, notamment dans les domaines de la technologie, du droit, de l'éthique et autres, tant au sein de l'Office qu'avec les communautés scientifiques et open source à l'extérieur. Cela vous permet d'exploiter les dernières recherches en matière d'IA, tout en étant à l'avant-garde de la recherche sur l'évaluation et l'atténuation des risques, les évaluations, le signalement des incidents et la cybersécurité.
  • Avoir un impact important sur le service public, en contribuant à des politiques qui affectent directement des millions de vies.
  • En tant que nouvelle organisation, avec des plans de croissance considérables pour 2024-25, c'est le bon moment pour s'impliquer. Vous aurez de nombreuses occasions de développer votre carrière et de jouer un rôle de premier plan dans la gouvernance mondiale de l'IA.

Les tâches, pouvoirs et compétences de l'Office AI en détail

Vue d'ensemble

  • La Commission européenne a créé l'Office de l'IA de l'UE au sein de la Direction générale CONNECT Direction A pour contrôler, superviser et faire respecter les exigences de la loi sur l'IA concernant les modèles d'IA à usage général (GPAI) (et les systèmes, l'application orientée vers l'utilisateur, lorsqu'il s'agit du même fournisseur que le modèle) dans l'ensemble de l'UE.
  • L'Office AI comptera 140 employés, dont 60 membres du personnel actuel de la Commission. L'objectif est de pourvoir les 80 postes restants d'ici à la fin de l'année 2025. Des spécialistes en technologie, des juristes, des économistes et des administrateurs supplémentaires seront embauchés dans les semaines et les mois à venir.
  • L'Office AI devra :
    • Analyser et sensibiliser aux risques émergents liés au développement et au déploiement du GPAI.
    • Procéder à l'évaluation des modèles.
    • Enquêter sur les cas de non-conformité.
    • Élaborer des codes de pratique volontaires pour les fournisseurs de modèles.
    • Diriger la coopération internationale en matière de gouvernance de l'IA. 
    • Renforcer les réseaux entre la Commission, les instituts de sécurité de l'IA dans d'autres juridictions et la communauté scientifique mondiale, notamment par l'intermédiaire du groupe scientifique d'experts indépendants de l'UE. 
    • Soutenir la coopération entre les États membres en matière d'application de la loi et les enquêtes conjointes.
    • Assister la Commission dans la préparation des décisions contraignantes et de la législation secondaire en rapport avec la loi sur l'IA.

Structure

La loi sur l'IA est la première réglementation horizontale contraignante de ce type dans le monde. Contrairement à d'autres instituts de sécurité de l'IA, comme aux États-Unis et au Royaume-Uni, l'Office de l'IA dispose de pouvoirs d'exécution pour obliger les fournisseurs qui ne respectent pas les règles à prendre des mesures correctives. Ses compétences élargies se reflètent dans sa structure :

  • Chef de bureau: Lucilla Sioli
  • 5 unités :
    • Excellence en matière d'IA et de robotique:
      • Dirigé par Cécile Huet.
      • Cette équipe se concentrera sur la R&D et sur l'intersection des logiciels et du matériel.  
    • Réglementation et conformité:
      • Tête de Kilian Gross. 
      • Cette équipe travaillera en étroite collaboration avec les États membres afin de garantir une application cohérente de la loi sur l'IA dans l'ensemble de l'UE. 
    • Sécurité de l'IA:
      • Le chef de file n'a pas été désigné.
      • Cette équipe se concentrera sur l'évaluation des modèles GPAI présentant un risque systémique et travaillera avec le secteur et d'autres parties prenantes pour identifier les risques systémiques et les mesures d'atténuation appropriées. 
    • Innovation en matière d'IA et coordination des politiques:
      • Tête de Malgorzata Nikowska. 
      • Cette équipe suivra les tendances et les investissements pour favoriser l'innovation.
    • L'IA au service de la société:
      • Tête de Martin Bailey.
      • Cette équipe se concentrera sur des applications bénéfiques, telles que la modélisation météorologique, le diagnostic du cancer et les jumeaux numériques pour la reconstruction.
  • 2 conseillers :
    • Le conseiller scientifique principal n'a pas encore été nommé, mais il se concentrera sur l'expertise pour la supervision du modèle GPAI. 
    • Juha Heikkilä, conseiller pour les affaires internationales, représentera l'Office AI dans les conversations mondiales sur la convergence vers des approches communes. 

Accès aux modèles d'évaluation 

  • L'office AI peut demander aux fournisseurs de modèles GPAI de lui fournir de la documentation et des résultats d'évaluation afin d'évaluer la conformité. 
  • En cas d'insuffisance, elle peut entamer un dialogue structuré afin de recueillir davantage d'informations sur les tests internes, les mesures de protection contre les risques systémiques et les mesures d'atténuation des risques systémiques.
  • Si cela reste insuffisant, elle peut procéder à des évaluations de modèles pour déterminer la conformité, ou enquêter sur les risques systémiques, en particulier après une alerte qualifiée du groupe scientifique, mais aussi éventuellement à la suite d'une plainte d'un utilisateur en aval.
  • Les fournisseurs peuvent se voir infliger une amende s'ils ne fournissent pas l'accès. 
  • L'Office AI peut également demander aux fournisseurs de prendre des mesures correctives, de mettre en œuvre des mesures d'atténuation des risques systémiques, ou de restreindre, rappeler ou retirer des modèles du marché unique.
  • L'Office AI développera des outils, des méthodologies et des critères d'évaluation des capacités pour les modèles GPAI, en particulier les modèles systémiques.

Diriger l'élaboration de normes générales en matière d'IA à l'échelle mondiale par le biais de codes de bonnes pratiques.

  • D'ici à avril 2025, l'AI Office élaborera des codes de pratique qui préciseront comment les concepteurs de modèles GPAI peuvent mettre en œuvre leurs exigences au titre du règlement. 
  • Tous les fournisseurs de modèles GPAI peuvent prouver qu'ils respectent leurs obligations en adhérant volontairement aux codes de pratique jusqu'à la publication de normes européennes harmonisées, dont le respect entraînera également une présomption de conformité. 
  • Pour élaborer les codes de pratique, l'office AI peut consulter les fournisseurs de modèles GPAI, les autorités nationales compétentes, la société civile, l'industrie, le monde universitaire, les fournisseurs en aval et des experts indépendants.

Les codes de pratique couvriront

  • Évaluations de modèles, y compris la réalisation et la documentation de tests contradictoires, afin d'identifier les risques systémiques.
  • L'identification du type et de la nature des risques systémiques au niveau de l'UE, y compris leurs sources.
  • Les mesures, procédures et modalités d'évaluation, de gestion et de documentation des risques systémiques, proportionnelles à leur gravité et à leur probabilité, et tenant compte de la manière dont ils se matérialisent tout au long de la chaîne de valeur. 
  • Suivre, documenter et signaler les incidents graves et les éventuelles mesures correctives.
  • S'assurer que le modèle dispose d'une cybersécurité et de protections physiques adéquates. 
  • La documentation que les développeurs doivent fournir à l'AI Office et aux autorités nationales compétentes pour leur permettre d'évaluer la conformité, comme les tâches que le modèle est censé accomplir, les principaux choix de conception, les données et les méthodologies de conservation, les politiques d'utilisation acceptables, etc. Pour les modèles systémiques (plus de 10^25 FLOPS), ces informations comprennent également les résultats de l'évaluation, une description des tests contradictoires internes et/ou externes, les adaptations du modèle, y compris l'alignement et la mise au point, etc.  
  • La documentation que les développeurs doivent fournir à leurs clients ou aux utilisateurs en aval pour garantir la transparence des capacités et des limites du modèle, comme la manière dont le modèle interagit avec d'autres logiciels, les instructions d'utilisation, les moyens techniques pour l'intégrer dans des applications. 
  • Les codes couvriront également les moyens de garantir la mise à jour de la documentation susmentionnée à la lumière de l'évolution du marché et des technologies. 
  • Les politiques que les développeurs peuvent mettre en place pour respecter la directive européenne sur le droit d'auteur qui permet aux détenteurs de droits de refuser l'exploration de textes et de données (TDM) de leurs œuvres. 
  • Le modèle de données de formation doit être utilisé par les développeurs pour publier un résumé suffisamment détaillé du contenu utilisé pour la formation au modèle, qui doit être généralement complet dans sa portée, plutôt que techniquement détaillé, afin de permettre aux parties ayant des intérêts légitimes d'exercer leurs droits, en particulier en ce qui concerne les droits d'auteur.
  • Techniques de filigrane pour l'étiquetage des contenus générés par l'IA. 

Travailler avec des partenaires européens et internationaux

  • L'Office AI représente la Commission européenne pour toutes les questions relatives à l'IA, en liaison avec les autorités des États membres, les autres DG concernées et les services de la Commission, en particulier le Centre européen pour la transparence algorithmique pour l'évaluation des modèles GPAI. 
  • Elle dirigera les efforts européens visant à contribuer à la coopération internationale en matière de gouvernance et de sécurité de l'IA.

Travailler avec les communautés scientifique et open source

  • La Commission sélectionnera un groupe scientifique d'experts indépendants qui conseillera et soutiendra l'Office AI dans les domaines suivants :
    • Mise en œuvre et application des modèles et systèmes GPAI. 
    • Développement d'outils, de méthodologies et de critères de référence pour l'évaluation des capacités du GPAI. 
    • Classification des différents modèles et systèmes GPAI, y compris les modèles GPAI systémiques.
    • Développement d'outils et de modèles. 
  • Le panel peut alerter l'office AI si un modèle GPAI atteint le seuil de risque systémique ou présente un risque systémique même sans atteindre le seuil. L'office AI peut alors décider de désigner le modèle comme tel, en imposant des obligations supplémentaires au fournisseur. 
  • L'Office de l'IA mettra également en place un forum pour collaborer avec la communauté des logiciels libres à l'élaboration de meilleures pratiques pour l'utilisation et le développement en toute sécurité de modèles et de systèmes d'IA en libre accès.
Cet article a été publié le 7 juin 2024

Articles connexes

L'AI Office recrute un conseiller scientifique principal pour l'IA

Un poste très important est à pourvoir à l'Office européen de l'IA : Il s'agit du poste de conseiller scientifique principal pour l'IA. La date limite de candidature est fixée au 13 décembre 2024. Selon le conseiller en emploi de l'Union européenne, le salaire de base mensuel pour ce poste (niveau AD13)...

La loi sur l'IA : Responsabilités de la Commission européenne (AI Office)

Si vous ne savez pas qui est chargé de mettre en œuvre et d'appliquer la nouvelle loi sur le numérique et quels sont les délais spécifiques, cet article et notre article sur les responsabilités des États membres de l'UE pourraient vous être très utiles. Les tableaux ci-dessous fournissent une liste complète de toutes les...

La loi sur l'IA : Responsabilités des États membres de l'UE

Si vous ne savez pas qui est chargé de la mise en œuvre et de l'application de l'Acte de l'UE sur l'IA et quels sont les délais spécifiques, cet article et notre article sur les responsabilités de la Commission européenne (Office de l'IA) pourraient vous être très utiles. Les tableaux ci-dessous vous donnent un aperçu...

Introduction aux codes de pratique de la loi sur l'IA

Mise à jour : 30 octobre 2024. Ce billet sera mis à jour au fur et à mesure que de nouvelles informations seront disponibles. Ce résumé, qui détaille le Code de pratique pour les fournisseurs de modèles d'IA à usage général, a été élaboré par Jimmy Farrell, responsable de la politique européenne en matière d'IA chez Pour Demain, et Pour Demain...