1. Les systèmes d'IA à haut risque doivent être conçus et développés de manière à atteindre un niveau approprié de précision, de robustesse et de cybersécurité, et à fonctionner de manière cohérente à ces égards tout au long de leur cycle de vie.
2. Pour traiter les aspects techniques de la mesure des niveaux appropriés de précision et de robustesse visés au paragraphe 1 et de tout autre paramètre de performance pertinent, la Commission, en coopération avec les parties prenantes et les organisations concernées, telles que les autorités chargées de la métrologie et de l'étalonnage, encourage, le cas échéant, la mise au point de critères de référence et de méthodologies de mesure.
3. Les niveaux de précision et les paramètres de précision pertinents des systèmes d'IA à haut risque doivent être indiqués dans les instructions d'utilisation qui les accompagnent.
4. Les systèmes d'IA à haut risque doivent être aussi résistants que possible aux erreurs, aux défaillances ou aux incohérences susceptibles de se produire au sein du système ou de l'environnement dans lequel le système fonctionne, notamment en raison de leur interaction avec des personnes physiques ou d'autres systèmes. Des mesures techniques et organisationnelles doivent être prises à cet égard. La robustesse des systèmes d'IA à haut risque peut être assurée par des solutions techniques de redondance, qui peuvent inclure des plans de sauvegarde ou de sécurité intégrée. Les systèmes d'IA à haut risque qui continuent à apprendre après avoir été mis sur le marché ou mis en service sont développés de manière à éliminer ou à réduire autant que possible le risque que des résultats éventuellement biaisés influencent les données d'entrée pour des opérations futures (boucles de rétroaction), et à garantir que toute boucle de rétroaction de ce type est dûment traitée par des mesures d'atténuation appropriées.
5. Les systèmes d'IA à haut risque doivent être résistants aux tentatives de tiers non autorisés visant à modifier leur utilisation, leurs résultats ou leurs performances en exploitant les vulnérabilités du système. Les solutions techniques visant à assurer la cybersécurité des systèmes d'IA à haut risque sont adaptées aux circonstances et aux risques. Les solutions techniques visant à remédier aux vulnérabilités propres à l'IA comprennent, le cas échéant, des mesures de prévention, de détection, de réaction, de résolution et de contrôle des attaques visant à manipuler l'ensemble des données d'apprentissage (empoisonnement des données) ou les composants pré-entraînés utilisés dans l'apprentissage (empoisonnement du modèle), des données d'entrée conçues pour amener le modèle d'IA à commettre une erreur (exemples contradictoires ou évasion du modèle), des attaques de confidentialité ou des failles dans le modèle.