1. La Commission est habilitée à adopter des actes délégués en conformité avec l'article 97 pour modifier l'annexe III en ajoutant ou en modifiant des cas d'utilisation de systèmes d'IA à haut risque lorsque les deux conditions suivantes sont remplies :
(a) les systèmes d'IA sont destinés à être utilisés dans l'un des domaines énumérés à l'annexe III;
(b) les systèmes d'IA présentent un risque d'atteinte à la santé et à la sécurité ou d'impact négatif sur les droits fondamentaux, et ce risque est équivalent ou supérieur au risque d'atteinte ou d'impact négatif présenté par les systèmes d'IA à haut risque déjà visés à l'annexe III.
2. Lors de l'évaluation de la condition visée au paragraphe 1, point b), la Commission tient compte des critères suivants :
(a) l'objectif visé par le système d'IA ;
(b) la mesure dans laquelle un système d'IA a été utilisé ou est susceptible de l'être ;
(c) la nature et la quantité des données traitées et utilisées par le système d'IA, en particulier si des catégories particulières de données à caractère personnel sont traitées ;
(d) la mesure dans laquelle le système d'IA agit de manière autonome et la possibilité pour un être humain de passer outre une décision ou des recommandations susceptibles d'entraîner un préjudice potentiel ;
(e) la mesure dans laquelle l'utilisation d'un système d'IA a déjà porté atteinte à la santé et à la sécurité, a eu un impact négatif sur les droits fondamentaux ou a suscité des préoccupations importantes quant à la probabilité de tels dommages ou impacts négatifs, comme le démontrent, par exemple, les rapports ou les allégations documentées soumis aux autorités nationales compétentes ou d'autres rapports, le cas échéant ;
(f) l'étendue potentielle de ce préjudice ou de cette incidence négative, notamment en termes d'intensité et de capacité à affecter plusieurs personnes ou à affecter de manière disproportionnée un groupe particulier de personnes ;
(g) la mesure dans laquelle les personnes potentiellement lésées ou subissant un impact négatif dépendent du résultat produit par un système d'IA, notamment parce que, pour des raisons pratiques ou juridiques, il n'est pas raisonnablement possible de se soustraire à ce résultat ;
(h) la mesure dans laquelle il existe un déséquilibre des pouvoirs, ou dans laquelle les personnes susceptibles d'être lésées ou de subir un impact négatif sont dans une position vulnérable par rapport à la personne qui déploie un système d'IA, notamment en raison de leur statut, de leur autorité, de leurs connaissances, de leur situation économique ou sociale, ou de leur âge ;
(i) la mesure dans laquelle le résultat produit par un système d'IA est facilement corrigible ou réversible, compte tenu des solutions techniques disponibles pour le corriger ou l'inverser, les résultats ayant une incidence négative sur la santé, la sécurité ou les droits fondamentaux n'étant pas considérés comme facilement corrigibles ou réversibles ;
(j) l'ampleur et la probabilité des avantages du déploiement du système d'IA pour les individus, les groupes ou la société dans son ensemble, y compris les améliorations possibles de la sécurité des produits ;
(k) la mesure dans laquelle le droit de l'Union en vigueur prévoit :
(i) des mesures de réparation efficaces en ce qui concerne les risques posés par un système d'IA, à l'exclusion des demandes de dommages-intérêts ;
(ii) des mesures efficaces pour prévenir ou minimiser substantiellement ces risques.
3. La Commission est habilitée à adopter des actes délégués en conformité avec l 'article 97 pour modifier la liste figurant à l 'annexe III en supprimant les systèmes d'IA à haut risque lorsque les deux conditions suivantes sont remplies :
(a) le système d'IA à haut risque concerné ne présente plus de risques significatifs pour les droits fondamentaux, la santé ou la sécurité, compte tenu des critères énumérés au paragraphe 2 ;
(b) la suppression ne diminue pas le niveau global de protection de la santé, de la sécurité et des droits fondamentaux en vertu du droit de l'Union.