1. Lorsqu'un système d'IA est fondé sur un modèle d'IA à usage général et que le modèle et le système sont développés par le même fournisseur, l'office AI est habilité à contrôler et à superviser le respect, par ce système d'IA, des obligations prévues par le présent règlement. Pour mener à bien ses tâches de contrôle et de surveillance, l'office AI dispose de tous les pouvoirs d'une autorité de surveillance du marché prévus dans la présente section et dans le règlement (UE) 2019/1020.
2. Lorsque les autorités de surveillance du marché concernées ont des raisons suffisantes de considérer que les systèmes d'IA à usage général qui peuvent être utilisés directement par les déployeurs pour au moins une finalité classée à haut risque en vertu du présent règlement ne sont pas conformes aux exigences énoncées dans le présent règlement, elles coopèrent avec l'office de l'IA pour effectuer des évaluations de conformité et en informent la commission et les autres autorités de surveillance du marché.
3. Lorsqu'une autorité de surveillance du marché n'est pas en mesure de conclure son enquête sur le système d'IA à haut risque parce qu'elle n'a pas accès à certaines informations relatives au modèle d'IA à usage général, bien qu'elle ait déployé tous les efforts appropriés pour obtenir ces informations, elle peut présenter une requête motivée à l'office AI, par laquelle l'accès à ces informations est mis en œuvre. Dans ce cas, l'office AI fournit à l'autorité requérante sans délai, et en tout état de cause dans les 30 jours, toute information que l'office AI considère comme pertinente pour établir si un système d'IA à haut risque est non conforme. Les autorités de surveillance du marché préservent la confidentialité des informations qu'elles obtiennent conformément à l'article 78 du présent règlement. La procédure prévue au chapitre VI du règlement (UE) 2019/1020 s'applique mutatis mutandis.