Le bureau de l'IA : Qu'est-ce que c'est et comment cela fonctionne-t-il ?

21 mars 2024

Dans cette vue d'ensemble, nous proposons un résumé des éléments clés de l'Office de l'IA pertinents pour ceux qui s'intéressent à la gouvernance de l'IA. Nous avons mis en évidence les responsabilités du Bureau de l'IA, son rôle au sein de la Commission européenne, ses relations avec le Conseil de l'IA, ses régulateurs nationaux, le groupe scientifique d'experts indépendants et sa fonction en tant que voix de l'UE dans la coopération mondiale en matière d'IA. Pour plus de détails, veuillez consulter le dernier texte juridique de la loi sur l'IA, dans lequel le Bureau de l'IA a été créé, et la décision de la Commission l'établissant formellement en tant qu'entité juridique.  

La Commission européenne a créé un nouveau régulateur au niveau de l'UE, l'Office européen de l'IA, qui fera partie de la Direction générale des réseaux de communication, du contenu et de la technologie (DG CNECT) de la Commission européenne. 

L'Office de l'IA contrôlera, supervisera et appliquera les exigences de la loi sur l'IA concernant les modèles et systèmes d'IA à usage général (GPAI) dans les 27 États membres de l'UE. Il s'agit notamment d'analyser les risques systémiques imprévus découlant du développement et du déploiement de l'IAAG, d'évaluer les capacités, d'évaluer les modèles et d'enquêter sur les cas d'infraction et de non-conformité potentielles. Pour faciliter la mise en conformité des fournisseurs de modèles GPAI et tenir compte de leurs points de vue, l'Office AI produira des codes de pratique volontaires, dont le respect créera une présomption de conformité. 

L'Office de l'IA dirigera également l'UE dans la coopération internationale sur l'IA et renforcera les liens entre la Commission européenne et la communauté scientifique, y compris le futur groupe scientifique d'experts indépendants. Le Bureau aidera les 27 États membres à coopérer en matière d'application de la législation, notamment dans le cadre d'enquêtes conjointes, et fera office de secrétariat du Conseil de l'IA, le forum intergouvernemental chargé de la coordination entre les régulateurs nationaux. Il soutiendra la création de "bacs à sable" réglementaires où les entreprises pourront tester les systèmes d'IA dans un environnement contrôlé. Elle fournira également des informations et des ressources aux petites et moyennes entreprises (PME) pour les aider à se conformer aux règles. 

Mécanisme central de coordination et de suivi

Que fera l'Office AI pour coordonner et contrôler la mise en œuvre de la loi européenne sur l'IA ?

  • L'Office AI contrôlera la mise en œuvre des règles par les concepteurs de modèles GPAI et exigera d'eux qu'ils prennent des mesures correctives en cas de non-conformité. 
  • Lorsque le même fournisseur développe le modèle et le système GPAI (application orientée vers l'utilisateur), l'Office AI contrôlera également la conformité du système GPAI.
  • Lorsqu'un système GPAI est utilisé directement par des déployeurs dans un contexte à haut risque (annexe II ou III) et qu'il est soupçonné de ne pas être conforme, l'office AI coopère avec les autorités de surveillance du marché afin d'évaluer la conformité et d'informer la commission AI.
  • L'Office AI facilitera l'application uniforme de la loi sur l'AI dans les États membres.
  • L'Office soutiendra la mise en œuvre coordonnée de l'IA interdite et à haut risque en rationalisant la communication entre les organismes sectoriels et les autorités nationales, et en créant des bases de données centrales, en particulier lorsqu'un modèle ou un système GPAI est intégré dans un système d'IA à haut risque.
  • Elle assurera la coordination de la surveillance des systèmes d'IA qui relèvent de la loi sur l'IA ainsi que de la loi sur les services numériques (DSA) et de la loi sur les marchés numériques (DMA).
  • Elle coordonnera la création d'un système de gouvernance, notamment en préparant la mise en place d'organes consultatifs au niveau de l'UE et en contrôlant la mise en place des autorités nationales compétentes.
  • Enfin, le Bureau assurera le secrétariat de la commission AI et de ses sous-groupes, en fournissant un soutien administratif au forum consultatif et au groupe scientifique d'experts indépendants, notamment en organisant des réunions et en préparant les documents pertinents.

Commission AI

Qu'est-ce que la commission de l'IA et quel est son rôle par rapport à l'office de l'IA ?

  • Composé d'un représentant par État membre, le CEPD et l'Office AI participant aux réunions en tant qu'observateurs sans droit de vote, le conseil d'administration devrait assurer la cohérence et la coordination de la mise en œuvre entre les autorités nationales compétentes.
  • Le bureau AI assure le secrétariat de la commission, convoque les réunions à la demande du président et prépare l'ordre du jour. 
  • La commission de l'IA aidera l'office de l'IA à soutenir les autorités nationales compétentes dans la mise en place et le développement de bacs à sable réglementaires et facilitera la coopération et le partage d'informations entre les bacs à sable réglementaires.

Enquêtes conjointes

Quel sera le rôle de l'Office AI dans les "enquêtes conjointes" ?

  • L'office AI assurera la coordination des enquêtes conjointes menées par une ou plusieurs autorités de surveillance du marché afin d'identifier les cas de non-conformité, lorsqu'il s'avère que les systèmes d'IA à haut risque présentent un risque grave dans plusieurs États membres.

Application de la loi

L'Office AI soutiendra le rôle de la Commission en tant que principal responsable de l'application de la loi sur l'AI en préparant : 

  • Décisions (actes juridiques qui ne s'appliquent qu'à des destinataires spécifiques, de manière générale ou individuelle) ; 
  • Des actes d'exécution pour fournir des règles détaillées pour l'application de la loi sur l'IA ;
  • Actes délégués visant à compléter ou à modifier des éléments non essentiels de la loi sur l'IA ; 
  • des orientations et des lignes directrices pour soutenir la mise en œuvre pratique de la loi sur l'IA, telles que des protocoles normalisés et des meilleures pratiques, en consultation avec les services compétents de la Commission et les institutions, organes et agences de l'UE ;
  • Demandes de normalisation : évaluation des normes existantes et préparation de spécifications communes pour soutenir la mise en œuvre de la loi sur l'IA.

Codes de pratique

Comment l'Office de l'IA mettra-t-il en œuvre les codes de pratique de l'IA dans l'UE ?

  • D'ici au deuxième trimestre 2025, l'Office de l'IA et la Commission de l'IA doivent faciliter l'élaboration de codes de pratique couvrant les obligations du GPAI et les techniques de filigrane permettant d'étiqueter les contenus comme étant générés artificiellement, tout en tenant compte des approches internationales. Les codes doivent avoir des objectifs spécifiques et mesurables, y compris des indicateurs clés de performance (ICP), en tenant compte des différences de taille et de capacité des divers fournisseurs. 
  • L'Office AI doit contrôler et évaluer la mise en œuvre et l'efficacité des codes, ce qui implique des rapports de la part des fournisseurs de GPAI, tout en envisageant des adaptations à la lumière des normes émergentes. Il s'agit notamment de mettre en place des forums permettant aux fournisseurs de modèles et de systèmes GPAI d'échanger les meilleures pratiques. Cela peut impliquer la consultation des autorités nationales compétentes, de la société civile, de l'industrie, du monde universitaire, des fournisseurs en aval et des experts indépendants, qui devraient être régulièrement consultés.
  • Tous les fournisseurs de modèles GPAI peuvent prouver qu'ils respectent leurs obligations en adhérant volontairement aux codes de pratique jusqu'à la publication de normes européennes harmonisées, dont le respect entraînera également une présomption de conformité.
  • Le Bureau IA créera un forum de coopération avec la communauté des logiciels libres afin d'identifier et de développer les meilleures pratiques pour le développement et l'utilisation en toute sécurité de modèles et de systèmes d'IA libres.
  • La Commission peut conférer une validité européenne générale à un code de bonnes pratiques par le biais d'actes d'exécution. Si un code de bonnes pratiques ne peut être finalisé lorsque les règles sont légalement applicables, ou si l'Office AI le juge inadéquat, la Commission peut fournir des règles communes pour la mise en œuvre par le biais d'actes d'exécution.

Évaluation des modèles : Capacités et risques

Pour évaluer les capacités et les risques des modèles d'IA, l'Office de l'IA :

  • Développer des outils, des méthodologies et des critères de référence pour l'évaluation des capacités des modèles GPAI, en particulier les modèles les plus performants ayant le plus d'impact et présentant des risques systémiques potentiels.
  • surveiller les nouveaux risques imprévus liés aux modèles GPAI, notamment en répondant aux alertes qualifiées du groupe scientifique d'experts indépendants. Les fournisseurs systémiques de modèles GPAI sont également tenus de signaler les incidents graves et les mesures correctives à l'Office AI. 
  • Enquêter sur les éventuelles infractions et les risques systémiques liés aux modèles et systèmes GPAI en amont, notamment en recueillant les plaintes des fournisseurs et déployeurs en aval, ainsi que les alertes qualifiées émanant du groupe scientifique d'experts indépendants. 
  • exiger des fournisseurs de modèles GPAI, le cas échéant, qu'ils fournissent une documentation technique sur les processus de formation et d'essai et les résultats de l'évaluation, ainsi que toute autre information supplémentaire nécessaire pour évaluer la conformité ou pour permettre au groupe scientifique d'experts indépendants de mener à bien ses travaux. 
  • entamer un dialogue structuré avec le fournisseur du modèle GPAI, lorsque cela s'avère utile, afin de recueillir davantage d'informations sur les tests internes du modèle, les mesures de sauvegarde visant à prévenir les risques systémiques et les autres procédures et mesures prises par le fournisseur pour atténuer ces risques.
  • Procéder à des évaluations de modèles, après consultation de la commission AI, par le biais d'API ou d'autres moyens, tels que le code source, lorsque la documentation et les informations sont insuffisantes pour évaluer la conformité.

Lorsque ces évaluations de modèles ont mis en évidence un risque systémique grave et avéré, l'office AI peut exiger du fournisseur qu'il mette en œuvre des mesures d'atténuation, qui peuvent être rendues contraignantes par une décision de la Commission. Si ces mesures d'atténuation ne permettent pas de faire face au risque, l'office AI peut restreindre, rappeler ou retirer le modèle GPAI du marché. 

Gouvernance des données

L'office AI élaborera également un modèle que les fournisseurs de GPAI pourront utiliser pour publier un résumé suffisamment détaillé du contenu utilisé pour la formation au modèle GPAI. Ce résumé devra être largement exhaustif, plutôt que techniquement détaillé, afin de permettre aux parties ayant des intérêts légitimes d'exercer leurs droits. Les résumés du contenu des données de formation peuvent énumérer les principales collections ou ensembles de données utilisés, tels que les grandes bases de données privées ou publiques ou les archives de données, tout en fournissant une explication narrative des autres sources de données utilisées.

Groupe scientifique d'experts indépendants

La Commission sélectionnera des experts qui font preuve d'expertise, d'indépendance par rapport aux développeurs d'IA et de capacité à s'acquitter de leurs tâches avec diligence, précision et objectivité. 

Le groupe conseillera et soutiendra l'Office AI dans les domaines suivants 

  • Mise en œuvre et application des modèles et systèmes GPAI. 
  • Développement d'outils, de méthodologies et de critères de référence pour l'évaluation des capacités du GPAI. 
  • Classification des différents modèles et systèmes GPAI, y compris les modèles GPAI systémiques.
  • Développement d'outils et de modèles. 

Le panel peut fournir une alerte qualifiée à l'Office AI lorsqu'il soupçonne qu'un modèle GPAI présente un risque concret identifiable au niveau de l'UE, ou qu'il atteint le seuil de classification des modèles GPAI comme étant à risque systémique. 

Collaboration

En ce qui concerne la collaboration, l'Office AI va également :

  • Coopérer avec les institutions, organes et agences compétents de l'UE, y compris l'entreprise commune pour le calcul à haute performance (EuroHPC JU), en encourageant l'investissement dans le développement du GPAI en vue de son déploiement dans des applications bénéfiques ; 
  • S'engager auprès des autorités des États membres au nom de la Commission ;
  • Travailler avec les DG et les services de la Commission concernés, notamment le Centre européen pour la transparence algorithmique pour l'évaluation des modèles GPAI et la sensibilisation aux risques émergents au sein de la Commission ; 
  • Évaluer et promouvoir la convergence des meilleures pratiques en matière de procédures de passation de marchés publics pour les systèmes d'IA ; 
  • Contribuer à la coopération internationale en matière de gouvernance de l'IA, plaider en faveur d'une IA responsable et promouvoir l'approche de l'UE. 

Bacs à sable

Le Bureau apportera un soutien technique, des conseils et des outils pour la mise en place et le fonctionnement des bacs à sable réglementaires en matière d'IA, en se coordonnant avec les autorités nationales si nécessaire, afin d'encourager la coopération entre les États membres. Deux ans après l'entrée en vigueur, les États membres doivent mettre en place au moins un bac à sable réglementaire en matière d'IA, soit de manière indépendante, soit en rejoignant le(s) bac(s) à sable d'autres États membres.

Cela devrait favoriser l'innovation, en particulier pour les PME, en facilitant la formation, les essais et la validation de l'IA, avant la mise sur le marché ou la mise en service du système sous la supervision des régulateurs. Cette supervision a pour but d'apporter une clarté juridique, d'améliorer l'expertise réglementaire et l'apprentissage des politiques, et de permettre l'accès au marché. L'Office de l'IA est informé par les autorités nationales de toute suspension des essais en bac à sable en raison de risques importants. Les autorités nationales soumettent à l'office et à la commission de l'IA des rapports annuels accessibles au public, détaillant les progrès, les incidents et les recommandations concernant les bacs à sable.

Soutenir les PME

Que fera l'Office AI pour soutenir les PME dans l'UE ?

  • L'Office AI développera et maintiendra une plateforme d'information unique fournissant des informations faciles à utiliser sur ce règlement pour tous les opérateurs de l'UE. 
  • L'Office AI organisera des campagnes de communication appropriées pour sensibiliser aux exigences du règlement. 

Révision

Comment les rôles et responsabilités de l'Office AI seront-ils revus et mis à jour ?

  • 2 ans après l'entrée en vigueur (juin 2026), la Commission évaluera si l'Office AI a été doté de pouvoirs et de compétences suffisants pour remplir ses missions, et si ceux-ci doivent être renforcés par des ressources accrues. 
Cet article a été publié le 21 mars 2024.

Articles connexes

L'AI Office recrute

La Commission européenne recrute des agents contractuels spécialisés dans les technologies de l'IA pour gérer les modèles d'IA les plus avancés. La date limite de candidature est fixée au 27 mars à 12h00 CET (formulaire de candidature). Rôle Il s'agit d'une opportunité de travailler au sein d'une équipe...

Mise en œuvre de la loi sur l'IA : Calendrier et prochaines étapes

Dans cet article, nous présentons les dates clés de la mise en œuvre de la loi sur l'IA. Nous dressons également la liste des actes de droit dérivé que la Commission pourrait ajouter pour compléter la loi sur l'IA, ainsi que des lignes directrices qu'elle pourrait publier pour soutenir les efforts de mise en conformité. Les...