Les systèmes d'IA à haut risque visés à l'article 6, paragraphe 2, sont les systèmes d'IA énumérés dans l'un des domaines suivants :
1. Les données biométriques, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :
(a) les systèmes d'identification biométrique à distance. Sont exclus les systèmes d'IA destinés à être utilisés pour la vérification biométrique, dont le seul but est de confirmer qu'une personne physique donnée est bien celle qu'elle prétend être ;
(b) les systèmes d'IA destinés à être utilisés pour la catégorisation biométrique, en fonction d'attributs ou de caractéristiques sensibles ou protégés, sur la base de l'inférence de ces attributs ou caractéristiques ;
(c) les systèmes d'IA destinés à être utilisés pour la reconnaissance des émotions.
En rapport : Considérant 54 et considérant 159
2. Infrastructures critiques : Systèmes d'IA destinés à être utilisés comme composants de sécurité dans la gestion et l'exploitation d'infrastructures numériques critiques, dans le trafic routier ou dans la fourniture d'eau, de gaz, de chauffage ou d'électricité. Voir aussi : Considérant 55
3. L'éducation et la formation professionnelle :
(a) les systèmes d'IA destinés à être utilisés pour déterminer l'accès, l'admission ou l'affectation de personnes physiques à des établissements d'enseignement et de formation professionnelle à tous les niveaux ;
(b) les systèmes d'IA destinés à être utilisés pour évaluer les résultats de l'apprentissage, y compris lorsque ces résultats sont utilisés pour orienter le processus d'apprentissage des personnes physiques dans les établissements d'enseignement et de formation professionnelle à tous les niveaux ;
(c) les systèmes d'IA destinés à être utilisés pour évaluer le niveau d'éducation approprié qu'une personne recevra ou pourra atteindre, dans le cadre ou au sein des établissements d'enseignement et de formation professionnelle à tous les niveaux ;
(d) les systèmes d'IA destinés à être utilisés pour surveiller et détecter les comportements interdits des étudiants lors des tests dans le cadre ou au sein des établissements d'enseignement et de formation professionnelle à tous les niveaux.
En rapport : Récital 56
4. Emploi, gestion des travailleurs et accès à l'emploi indépendant :
(a) les systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, notamment pour publier des offres d'emploi ciblées, pour analyser et filtrer les candidatures et pour évaluer les candidats ;
(b) les systèmes d'IA destinés à être utilisés pour prendre des décisions concernant les conditions des relations de travail, la promotion ou la résiliation des relations contractuelles liées au travail, pour attribuer des tâches sur la base du comportement individuel ou de traits ou caractéristiques personnels, ou pour surveiller et évaluer les performances et le comportement des personnes dans le cadre de ces relations.
En rapport : Récital 57
5. Accès et jouissance des services privés essentiels et des services et prestations publics essentiels :
(a) les systèmes d'IA destinés à être utilisés par les autorités publiques ou pour le compte de celles-ci afin d'évaluer l'éligibilité des personnes physiques aux prestations et services essentiels d'assistance publique, y compris les services de santé, ainsi que pour octroyer, réduire, supprimer ou réclamer ces prestations et services ;
(b) les systèmes d'IA destinés à être utilisés pour évaluer la solvabilité des personnes physiques ou établir leur score de crédit, à l'exception des systèmes d'IA utilisés à des fins de détection de la fraude financière ;
(c) les systèmes d'IA destinés à être utilisés pour l'évaluation des risques et la tarification en ce qui concerne les personnes physiques dans le cas de l'assurance vie et de l'assurance maladie ;
(d) les systèmes d'IA destinés à évaluer et à classer les appels d'urgence émanant de personnes physiques ou à être utilisés pour répartir les services de première intervention d'urgence, y compris la police, les pompiers et l'aide médicale, ou pour établir un ordre de priorité dans la répartition de ces services, ainsi que les systèmes de triage des patients dans le cadre des soins de santé d'urgence.
En rapport : Récital 58
6. les services répressifs, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :
(a) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union à l'appui des services répressifs ou en leur nom, pour évaluer le risque qu'une personne physique soit victime d'infractions pénales ;
(b) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union qui soutiennent les services répressifs, comme polygraphes ou outils similaires ;
(c) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union, à l'appui des services répressifs, pour évaluer la fiabilité des éléments de preuve dans le cadre d'enquêtes ou de poursuites relatives à des infractions pénales ;
(d) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union en soutien aux services répressifs, pour évaluer le risque qu'une personne physique commette une infraction ou récidive, pas uniquement sur la base du profilage des personnes physiques visé à l'article 3, paragraphe 4, de la directive (UE) 2016/680, ou pour évaluer les traits de personnalité et les caractéristiques ou le comportement criminel antérieur de personnes physiques ou de groupes de personnes ;
(e) les systèmes d'IA destinés à être utilisés par les services répressifs ou en leur nom, ou par les institutions, organes ou organismes de l'Union qui soutiennent les services répressifs, pour le profilage des personnes physiques visées à l'article 3, paragraphe 4, de la directive (UE) 2016/680 dans le cadre de la détection, de l'enquête ou de la poursuite d'infractions pénales.
En rapport : Récital 59
7. Gestion des migrations, de l'asile et des contrôles aux frontières, dans la mesure où leur utilisation est autorisée par le droit de l'Union ou le droit national applicable :
(a) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, comme polygraphes ou outils similaires ;
(b) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou par les institutions, organes ou organismes de l'Union, ou en leur nom, pour évaluer un risque, y compris un risque pour la sécurité, un risque de migration irrégulière ou un risque pour la santé, présenté par une personne physique qui a l'intention d'entrer ou qui est entrée sur le territoire d'un État membre ;
(c) les systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, afin d'aider les autorités publiques compétentes à examiner les demandes d'asile, de visa ou de permis de séjour et les plaintes connexes concernant l'admissibilité des personnes physiques demandant un statut, y compris les évaluations connexes de la fiabilité des éléments de preuve ;
(d) aux systèmes d'IA destinés à être utilisés par les autorités publiques compétentes ou en leur nom, ou par les institutions, organes ou organismes de l'Union, dans le cadre de la gestion des migrations, de l'asile ou des contrôles aux frontières, aux fins de détection, de reconnaissance ou d'identification de personnes physiques, à l'exception de la vérification des documents de voyage.
En rapport : Récital 60
8. Administration de la justice et processus démocratiques :
(a) les systèmes d'IA destinés à être utilisés par une autorité judiciaire ou en son nom pour l'aider à rechercher et à interpréter les faits et le droit et à appliquer le droit à un ensemble concret de faits, ou à être utilisés d'une manière similaire dans le cadre d'un règlement extrajudiciaire des litiges ; Liés : Considérant 61
(b) les systèmes d'IA destinés à être utilisés pour influencer le résultat d'une élection ou d'un référendum ou le vote de personnes physiques dans l'exercice de leur droit de vote lors d'élections ou de référendums. Cela n'inclut pas les systèmes d'IA auxquels les personnes physiques ne sont pas directement exposées, tels que les outils utilisés pour organiser, optimiser ou structurer les campagnes politiques d'un point de vue administratif ou logistique. Voir aussi : Considérant 62