Afin d'accélérer le processus de développement et la mise sur le marché des systèmes d'IA à haut risque énumérés dans une annexe du présent règlement, il est important que les fournisseurs ou fournisseurs potentiels de ces systèmes puissent également bénéficier d'un régime spécifique pour tester ces systèmes dans des conditions réelles, sans participer à un bac à sable réglementaire en matière d'IA. Toutefois, dans de tels cas, compte tenu des conséquences possibles de ces essais sur les personnes, il convient de veiller à ce que des garanties et des conditions appropriées et suffisantes soient introduites par le présent règlement pour les fournisseurs ou les fournisseurs potentiels. Ces garanties devraient comprendre, entre autres, la demande de consentement éclairé des personnes physiques pour participer à des essais dans des conditions réelles, à l'exception des services répressifs pour lesquels la demande de consentement éclairé empêcherait le système d'IA d'être testé. Le consentement des personnes concernées à participer à de tels essais en vertu du présent règlement est distinct et sans préjudice du consentement des personnes concernées au traitement de leurs données à caractère personnel en vertu de la législation applicable en matière de protection des données. Il est également important de minimiser les risques et de permettre la surveillance par les autorités compétentes et, par conséquent, d'exiger des fournisseurs potentiels qu'ils soumettent un plan d'essai en conditions réelles à l'autorité de surveillance du marché compétente, qu'ils enregistrent les essais dans des sections spécifiques de la base de données de l'UE, sous réserve de certaines exceptions limitées, qu'ils fixent des limites à la période pendant laquelle les essais peuvent être effectués et qu'ils exigent des garanties supplémentaires pour les personnes appartenant à certains groupes vulnérables, ainsi qu'un accord écrit définissant les rôles et les responsabilités des fournisseurs et des déployeurs potentiels et une surveillance efficace par le personnel compétent impliqué dans les essais en conditions réelles. En outre, il convient d'envisager des garanties supplémentaires pour veiller à ce que les prédictions, recommandations ou décisions du système d'IA puissent être effectivement annulées et ignorées et que les données à caractère personnel soient protégées et supprimées lorsque les personnes concernées ont retiré leur consentement à participer aux essais, sans préjudice de leurs droits en tant que personnes concernées en vertu de la législation de l'Union en matière de protection des données. En ce qui concerne le transfert de données, il convient également d'envisager que les données collectées et traitées à des fins d'essais en conditions réelles ne soient transférées à des pays tiers que lorsque des garanties appropriées et applicables en vertu du droit de l'Union sont mises en œuvre, en particulier conformément aux bases de transfert des données à caractère personnel en vertu du droit de l'Union sur la protection des données, tandis que pour les données non personnelles, des garanties appropriées sont mises en place conformément au droit de l'Union, tel que les règlements (UE) 2022/868[42] et (UE) 2023/2854[43] du Parlement européen et du Conseil.
[42] Règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 relatif à la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (loi sur la gouvernance des données) (JO L 152 du 3.6.2022, p. 1).
[43] Règlement (UE) 2023/2854 du Parlement européen et du Conseil du 13 décembre 2023 établissant des règles harmonisées relatives à l'accès équitable aux données et à leur utilisation, et modifiant le règlement (UE) 2017/2394 et la directive (UE) 2020/1828 (loi sur les données) (JO L, 2023/2854, 22.12.2023, ELI : http://data.europa.eu/eli/reg/2023/2854/oj).