1. Zusätzlich zu den in den Artikeln 53 und 54 aufgeführten Verpflichtungen müssen die Anbieter von KI-Modellen für allgemeine Zwecke mit Systemrisiko:
(a) die Modellevaluierung nach standardisierten Protokollen und Instrumenten, die dem Stand der Technik entsprechen, durchzuführen, einschließlich der Durchführung und Dokumentation von Gegentests des Modells, um Systemrisiken zu ermitteln und zu mindern;
(b) Bewertung und Eindämmung möglicher Systemrisiken auf Unionsebene, einschließlich ihrer Quellen, die sich aus der Entwicklung, dem Inverkehrbringen oder der Verwendung von KI-Allzweckmodellen mit Systemrisiko ergeben können;
(c) relevante Informationen über schwerwiegende Vorfälle und mögliche Abhilfemaßnahmen zu deren Behebung zu verfolgen, zu dokumentieren und dem AI-Büro und gegebenenfalls den zuständigen nationalen Behörden unverzüglich zu melden;
(d) ein angemessenes Maß an Cybersicherheit für das KI-Allzweckmodell mit systemischem Risiko und die physische Infrastruktur des Modells gewährleisten.
2. Die Anbieter von KI-Modellen für allgemeine Zwecke mit Systemrisiko können sich auf Verhaltenskodizes im Sinne von Artikel 56 stützen, um die Einhaltung der in Absatz 1 des vorliegenden Artikels genannten Verpflichtungen nachzuweisen, bis ein harmonisierter Standard veröffentlicht wird. Bei Einhaltung der harmonisierten europäischen Normen gilt für die Anbieter die Konformitätsvermutung, soweit diese Normen diese Verpflichtungen abdecken. Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken, die sich nicht an einen genehmigten Verhaltenskodex oder eine harmonisierte europäische Norm halten, müssen für die Bewertung durch die Kommission alternative angemessene Mittel zur Einhaltung der Vorschriften nachweisen.
3. (3) Alle nach diesem Artikel erhaltenen Informationen oder Unterlagen, einschließlich Geschäftsgeheimnisse, sind gemäß den Vertraulichkeitsverpflichtungen nach Artikel 78 zu behandeln.