1. Les fournisseurs veillent à ce que les systèmes d'IA destinés à interagir directement avec des personnes physiques soient conçus et développés de manière à ce que les personnes physiques concernées soient informées qu'elles interagissent avec un système d'IA, à moins que cela ne soit évident du point de vue d'une personne physique raisonnablement bien informée, observatrice et avisée, compte tenu des circonstances et du contexte d'utilisation. Cette obligation ne s'applique pas aux systèmes d'IA autorisés par la loi à détecter, prévenir, enquêter ou poursuivre des infractions pénales, sous réserve de garanties appropriées pour les droits et libertés des tiers, à moins que ces systèmes ne soient mis à la disposition du public pour signaler une infraction pénale. Voir aussi : Considérant 132
2. Les fournisseurs de systèmes d'IA, y compris les systèmes d'IA à usage général, qui génèrent des contenus synthétiques audio, image, vidéo ou texte, veillent à ce que les résultats du système d'IA soient marqués dans un format lisible par machine et détectables comme étant générés ou manipulés artificiellement. Les fournisseurs veillent à ce que leurs solutions techniques soient efficaces, interopérables, robustes et fiables, dans la mesure où cela est techniquement possible, compte tenu des spécificités et des limites des différents types de contenu, des coûts de mise en œuvre et de l'état de la technique généralement reconnu, tel qu'il peut être reflété dans les normes techniques pertinentes. Cette obligation ne s'applique pas dans la mesure où les systèmes d'IA remplissent une fonction d'assistance pour l'édition standard ou ne modifient pas substantiellement les données d'entrée fournies par le déployeur ou leur sémantique, ou lorsqu'ils sont autorisés par la loi à détecter, prévenir, enquêter ou poursuivre des infractions pénales. Voir aussi : Considérant 133
3. Les déployeurs d'un système de reconnaissance des émotions ou d'un système de catégorisation biométrique informent les personnes physiques qui y sont exposées du fonctionnement du système et traitent les données à caractère personnel conformément aux règlements (UE) 2016/679 et (UE) 2018/1725 et à la directive (UE) 2016/680, selon le cas. Cette obligation ne s'applique pas aux systèmes d'IA utilisés pour la catégorisation biométrique et la reconnaissance des émotions, qui sont autorisés par la loi pour détecter, prévenir ou enquêter sur des infractions pénales, sous réserve de garanties appropriées pour les droits et libertés des tiers, et conformément au droit de l'Union. Voir aussi : Considérant 132
4. Les personnes qui déploient un système d'IA qui génère ou manipule un contenu image, audio ou vidéo constituant une contrefaçon profonde doivent indiquer que le contenu a été généré ou manipulé artificiellement. Cette obligation ne s'applique pas lorsque l'utilisation est autorisée par la loi pour détecter, prévenir, enquêter ou poursuivre une infraction pénale. Lorsque le contenu fait partie d'une œuvre ou d'un programme manifestement artistique, créatif, satirique, fictif ou analogue, les obligations de transparence énoncées dans le présent paragraphe sont limitées à la divulgation de l'existence d'un tel contenu généré ou manipulé d'une manière appropriée qui n'entrave pas la présentation ou la jouissance de l'œuvre. Les utilisateurs d'un système d'IA qui génère ou manipule un texte publié dans le but d'informer le public sur des questions d'intérêt public doivent indiquer que le texte a été généré ou manipulé artificiellement. Cette obligation ne s'applique pas lorsque l'utilisation est autorisée par la loi pour détecter, prévenir, enquêter ou poursuivre des infractions pénales ou lorsque le contenu généré par l'IA a fait l'objet d'un processus d'examen humain ou de contrôle éditorial et qu'une personne physique ou morale détient la responsabilité éditoriale de la publication du contenu. Voir aussi : Considérant 134
5. Les informations visées aux paragraphes 1 à 4 sont fournies aux personnes physiques concernées de manière claire et distincte au plus tard au moment de la première interaction ou exposition. Les informations sont conformes aux exigences applicables en matière d'accessibilité.
6. Les paragraphes 1 à 4 n'affectent pas les exigences et obligations énoncées au chapitre III et sont sans préjudice d'autres obligations de transparence prévues par le droit de l'Union ou le droit national pour les déployeurs de systèmes d'IA.
7. L'Office AI encourage et facilite l'élaboration de codes de pratique au niveau de l'Union afin de faciliter la mise en œuvre effective des obligations relatives à la détection et à l'étiquetage des contenus générés ou manipulés artificiellement. La Commission peut adopter des actes d'exécution pour approuver ces codes de pratique conformément à la procédure prévue à l 'article 56, paragraphe 6. Si elle estime que le code n'est pas adéquat, la Commission peut adopter un acte d'exécution précisant les règles communes pour la mise en œuvre de ces obligations conformément à la procédure d'examen prévue à l 'article 98, paragraphe 2. Voir aussi : Considérant 135