1. Avant de déployer un système d'IA à haut risque visé à l'article 6, paragraphe 2, à l'exception des systèmes d'IA à haut risque destinés à être utilisés dans le domaine énuméré à l'annexe III, point 2, les déployeurs qui sont des organismes de droit public ou des entités privées fournissant des services publics, et les déployeurs de systèmes d'IA à haut risque visés à l'annexe III, points 5 b) et c), procèdent à une évaluation de l'impact que l'utilisation de ce système peut avoir sur les droits fondamentaux. À cette fin, les déployeurs procèdent à une évaluation consistant à :
(a) une description des processus du responsable du déploiement dans le cadre desquels le système d'IA à haut risque sera utilisé conformément à sa destination ;
(b) une description de la période pendant laquelle et de la fréquence à laquelle il est prévu d'utiliser chaque système d'IA à haut risque ;
(c) les catégories de personnes physiques et de groupes susceptibles d'être affectées par son utilisation dans le contexte spécifique ;
(d) les risques spécifiques de préjudice susceptibles d'avoir une incidence sur les catégories de personnes physiques ou de groupes de personnes identifiées conformément au point c) du présent paragraphe, en tenant compte des informations fournies par le prestataire en vertu de l'article 13;
(e) une description de la mise en œuvre des mesures de surveillance humaine, conformément au mode d'emploi ;
(f) les mesures à prendre en cas de matérialisation de ces risques, y compris les dispositions relatives à la gouvernance interne et aux mécanismes de plainte.
2. L'obligation prévue au paragraphe 1 s'applique à la première utilisation du système d'IA à haut risque. Le responsable du déploiement peut, dans des cas similaires, s'appuyer sur des analyses d'impact sur les droits fondamentaux réalisées antérieurement ou sur des analyses d'impact existantes réalisées par le fournisseur. Si, au cours de l'utilisation du système d'IA à haut risque, le responsable du déploiement estime que l'un des éléments énumérés au paragraphe 1 a changé ou n'est plus à jour, il prend les mesures nécessaires pour mettre à jour les informations.
3. Une fois que l'évaluation visée au paragraphe 1 du présent article a été réalisée, le déployeur notifie ses résultats à l'autorité de surveillance du marché, en joignant à sa notification le modèle rempli visé au paragraphe 5 du présent article. Dans le cas visé à l'article 46, paragraphe 1, les déployeurs peuvent être exemptés de cette obligation de notification.
4. Si l'une des obligations énoncées dans le présent article est déjà satisfaite par l'analyse d'impact sur la protection des données réalisée conformément à l'article 35 du règlement (UE) 2016/679 ou à l'article 27 de la directive (UE) 2016/680, l'analyse d'impact sur les droits fondamentaux visée au paragraphe 1 du présent article complète cette analyse d'impact sur la protection des données.
5. L'Office AI élabore un modèle de questionnaire, y compris au moyen d'un outil automatisé, afin d'aider les déployeurs à se conformer de manière simplifiée aux obligations qui leur incombent en vertu du présent article.