1. Outre les obligations énumérées aux articles 53 et 54, les fournisseurs de modèles d'IA à usage général comportant un risque systémique doivent :
(a) procéder à l'évaluation du modèle conformément à des protocoles et à des outils normalisés reflétant l'état de l'art, y compris effectuer et documenter des tests contradictoires du modèle en vue d'identifier et d'atténuer les risques systémiques ;
(b) évaluent et atténuent les éventuels risques systémiques au niveau de l'Union, y compris leurs sources, qui peuvent résulter du développement, de la mise sur le marché ou de l'utilisation de modèles d'IA à usage général présentant un risque systémique ;
(c) garder trace, documenter et rapporter, sans délai injustifié, à l'Office AI et, le cas échéant, aux autorités nationales compétentes, les informations pertinentes concernant les incidents graves et les mesures correctives possibles pour y remédier ;
(d) assurer un niveau adéquat de protection de la cybersécurité pour le modèle d'IA à usage général présentant un risque systémique et pour l'infrastructure physique du modèle.
2. Les fournisseurs de modèles d'IA à usage général présentant un risque systémique peuvent s'appuyer sur des codes de pratique au sens de l'article 56 pour démontrer qu'ils se conforment aux obligations énoncées au paragraphe 1 du présent article, jusqu'à ce qu'une norme harmonisée soit publiée. Le respect des normes harmonisées européennes confère aux fournisseurs la présomption de conformité dans la mesure où ces normes couvrent ces obligations. Les fournisseurs de modèles d'IA à usage général présentant des risques systémiques qui n'adhèrent pas à un code de bonne pratique approuvé ou ne se conforment pas à une norme harmonisée européenne doivent démontrer d'autres moyens adéquats de se conformer à ces obligations, pour évaluation par la Commission.
3. Toute information ou documentation obtenue en vertu du présent article, y compris les secrets commerciaux, est traitée conformément aux obligations de confidentialité énoncées à l'article 78.