La notion de modèles d'IA à usage général doit être clairement définie et distinguée de la notion de systèmes d'IA afin de garantir la sécurité juridique. La définition devrait se fonder sur les principales caractéristiques fonctionnelles d'un modèle d'IA à usage général, en particulier la généralité et la capacité d'exécuter avec compétence un large éventail de tâches distinctes. Ces modèles sont généralement formés à partir de grandes quantités de données, par le biais de diverses méthodes, telles que l'apprentissage auto-supervisé, non supervisé ou par renforcement. Les modèles d'IA à usage général peuvent être mis sur le marché de différentes manières, notamment par le biais de bibliothèques, d'interfaces de programmation d'applications (API), de téléchargements directs ou de copies physiques. Ces modèles peuvent être modifiés ou affinés pour donner naissance à de nouveaux modèles. Bien que les modèles d'IA soient des composants essentiels des systèmes d'IA, ils ne constituent pas des systèmes d'IA à eux seuls. Les modèles d'IA nécessitent l'ajout d'autres composants, comme par exemple une interface utilisateur, pour devenir des systèmes d'IA. Les modèles d'IA sont généralement intégrés dans les systèmes d'IA et en font partie. Le présent règlement prévoit des règles spécifiques pour les modèles d'IA à usage général et pour les modèles d'IA à usage général présentant des risques systémiques, qui devraient également s'appliquer lorsque ces modèles sont intégrés à un système d'IA ou en font partie. Il convient de comprendre que les obligations des fournisseurs de modèles d'IA à usage général doivent s'appliquer une fois que les modèles d'IA à usage général sont mis sur le marché. Lorsque le fournisseur d'un modèle d'IA à usage général intègre son propre modèle dans son propre système d'IA qui est mis à disposition sur le marché ou mis en service, ce modèle doit être considéré comme étant mis sur le marché et, par conséquent, les obligations prévues par le présent règlement pour les modèles doivent continuer à s'appliquer en plus de celles qui s'appliquent aux systèmes d'IA. Les obligations prévues pour les modèles ne devraient en aucun cas s'appliquer lorsqu'un modèle propre est utilisé pour des processus purement internes qui ne sont pas essentiels à la fourniture d'un produit ou d'un service à des tiers et que les droits des personnes physiques ne sont pas affectés. Compte tenu de leurs effets négatifs potentiels importants, les modèles d'IA à usage général présentant un risque systémique devraient toujours être soumis aux obligations pertinentes prévues par le présent règlement. La définition ne devrait pas couvrir les modèles d'IA utilisés avant leur mise sur le marché aux seules fins d'activités de recherche, de développement et de prototypage. Cela est sans préjudice de l'obligation de se conformer au présent règlement lorsque, à la suite de ces activités, un modèle est mis sur le marché.
Table des matières
Section 1 : Classification des systèmes d'IA comme étant à haut risque
Article 6 : Règles de classification des systèmes d'IA à haut risque
Article 7 : modifications de l'annexe III
Section 2 : Exigences relatives aux systèmes d'IA à haut risque
Article 8 : Respect des exigences
Article 9 : Système de gestion des risques
Article 10 : Données et gouvernance des données
Article 11 : Documentation technique
Article 12 : Tenue de registres
Article 13 : Transparence et information des entreprises de déploiement
Article 14 : Surveillance humaine
Article 15 : Précision, robustesse et cybersécurité
Article 16 : Obligations des fournisseurs de systèmes d'IA à haut risque
Article 17 : Système de gestion de la qualité
Article 18 : Conservation de la documentation
Article 19 : Journaux générés automatiquement
Article 20 : Actions correctives et obligation d'information
Article 21 : Coopération avec les autorités compétentes
Article 22 : Représentants autorisés des fournisseurs de systèmes d'IA à haut risque
Article 23 : Obligations des importateurs
Article 24 : Obligations des distributeurs
Article 25 : Responsabilités tout au long de la chaîne de valeur de l'IA
Article 26 : Obligations des déployeurs de systèmes d'IA à haut risque
Article 27 : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque
Section 4 : Autorités de notification et organismes notifiés
Article 28 : Autorités de notification
Article 29 : Demande de notification d'un organisme d'évaluation de la conformité
Article 30 : Procédure de notification
Article 31 : Exigences relatives aux organismes notifiés
Article 32 : Présomption de conformité aux exigences relatives aux organismes notifiés
Article 33 : Filiales et sous-traitance des organismes notifiés
Article 34 : Obligations opérationnelles des organismes notifiés
Article 36 : Modifications des notifications
Article 37 : Contestation de la compétence des organismes notifiés
Article 38 : Coordination des organismes notifiés
Article 39 : Organismes d'évaluation de la conformité de pays tiers
Section 5 : Normes, évaluation de la conformité, certificats, enregistrement
Article 40 : Normes harmonisées et résultats de la normalisation
Article 41 : Spécifications communes
Article 42 : Présomption de conformité à certaines exigences
Article 43 : Évaluation de la conformité
Article 45 : Obligations d'information des organismes notifiés
Article 46 : Dérogation à la procédure d'évaluation de la conformité
Section 1 : Règles de classification
Section 2 : Obligations des fournisseurs de modèles d'IA à usage général
Article 53 : Obligations des fournisseurs de modèles d'IA à usage général
Article 57 : Bacs à sable réglementaires en matière d'IA
Article 58 : Modalités et fonctionnement des "bacs à sable" réglementaires en matière d'IA
Section 1 : Gouvernance au niveau de l'Union
Article 65 : Création et structure du Comité européen de l'intelligence artificielle
Article 66 : Tâches du conseil d'administration
Article 67 : Forum consultatif
Article 68 : Groupe scientifique d'experts indépendants
Article 69 : Accès des États membres à la réserve d'experts
Section 2 : Autorités nationales compétentes
Article 70 : Désignation des autorités nationales compétentes et du point de contact unique
Section 1 : Surveillance après la mise sur le marché
Section 2 : Partage d'informations sur les incidents graves
Article 73 : Notification des incidents graves
Article 74 : Surveillance du marché et contrôle des systèmes d'IA dans le marché de l'Union
Article 76 : Supervision des tests en conditions réelles par les autorités de surveillance du marché
Article 77 : Pouvoirs des autorités chargées de la protection des droits fondamentaux
Article 79 : Procédure de traitement des systèmes d'IA présentant un risque au niveau national
Article 81 : Procédure de sauvegarde de l'Union
Article 82 : Systèmes d'IA conformes présentant un risque
Article 83 : Non-respect formel
Article 84 : Structures de soutien aux essais de l'IA de l'Union
Article 85 : Droit de déposer une plainte auprès d'une autorité de surveillance du marché
Article 86 : Droit à l'explication des décisions individuelles
Article 87 : Signalement des infractions et protection des personnes qui les signalent
Article 88 : Exécution des obligations incombant aux fournisseurs de modèles d'IA à usage général
Article 90 : Alertes sur les risques systémiques par le groupe scientifique
Article 91 : Pouvoir de demander des documents et des informations
Article 92 : Pouvoir d'évaluation
Article 93 : Pouvoir de demander des mesures
Article 94 : Droits procéduraux des opérateurs économiques du modèle d'IA à usage général
Article 95 : Codes de conduite pour l'application volontaire d'exigences spécifiques
Article 96 : Lignes directrices de la Commission sur la mise en œuvre du présent règlement
Article 100 : Amendes administratives à l'encontre des institutions, agences et organes de l'Union
Article 101 : Amendes pour les fournisseurs de modèles d'IA à usage général
Article 102 : Modification du règlement (CE) n° 300/2008
Article 103 : Modification du règlement (UE) n° 167/2013
Article 104 : Modification du règlement (UE) n° 168/2013
Article 105 : modification de la directive 2014/90/UE
Article 106 : modification de la directive (UE) 2016/797
Article 107 : Modification du règlement (UE) 2018/858
Article 108 : Modification du règlement (UE) 2018/1139
Article 109 : Modification du règlement (UE) 2019/2144
Article 110 : modification de la directive (UE) 2020/1828
Article 111 : Systèmes d'IA déjà mis sur le marché ou mis en service
Annexes
Annexe I : Liste de la législation d'harmonisation de l'Union
Annexe II : Liste des infractions pénales
Annexe III : Systèmes d'IA à haut risque
Annexe IV : Documentation technique
Annexe V : Déclaration de conformité de l'UE
Annexe VI : Procédure d'évaluation de la conformité basée sur le contrôle interne
Annexe VII : Conformité sur la base de l'évaluation du système de gestion de la qualité et de l'évaluation de la documentation technique
Annexe VIII : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque
Annexe IX : Informations à fournir lors de l'enregistrement des systèmes d'IA à haut risque
Annexe X : Législation de l'Union sur les systèmes d'information à grande échelle dans le domaine de la liberté, de la sécurité et de la justice
Annexe XI : Documentation technique visée à l'article 53, paragraphe 1 bis
Annexe XII : Informations relatives à la transparence visées à l'article 53, paragraphe 1, point b)
Annexe XIII : Critères de désignation des modèles d'IA à usage général présentant un risque systémique
Recherche dans le cadre de la loi
2 mai 20 24 - Le AI Act Explorer a été mis à jour avec le contenu de la version "Corrigendum" du Parlement européen du 19 avril 2024. Il est peu probable que le contenu de la loi soit encore modifié.
Récital 97
Commentaires - Nous travaillons à l'amélioration de cet outil. Veuillez envoyer vos commentaires à Risto Uuk à l'adresse suivante : risto@futureoflife.org
Le texte utilisé dans cet outil est la "Loi sur l'intelligence artificielle, Rectificatif, 19 avril 2024". Dossier interinstitutionnel : 2021/0106(COD)