Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 9: Risikomanagementsystem

Datum des Inkrafttretens:

2. August 2026

Laut:

Artikel 113

Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

Das EU-KI-Gesetz verlangt ein Risikomanagementsystem für KI-Systeme mit hohem Risiko. Dieses System sollte ein kontinuierlicher Prozess während des Lebenszyklus der KI sein, der regelmäßig überprüft und aktualisiert wird. Es sollte potenzielle Risiken für die Gesundheit, die Sicherheit oder die Grundrechte identifizieren und analysieren, diese Risiken abschätzen und bewerten sowie Maßnahmen zu ihrer Bewältigung ergreifen. Diese Maßnahmen sollten ein Gleichgewicht zwischen der Minimierung der Risiken und der Erfüllung der Anforderungen herstellen. Das System sollte auch sicherstellen, dass jedes verbleibende Risiko akzeptabel ist und dass Maßnahmen ergriffen werden, um Risiken so weit wie möglich zu beseitigen oder zu verringern. KI-Systeme mit hohem Risiko sollten getestet werden, um die besten Risikomanagementmaßnahmen zu ermitteln und sicherzustellen, dass sie wie vorgesehen funktionieren. Das System sollte auch berücksichtigen, ob die KI negative Auswirkungen auf Personen unter 18 Jahren oder andere gefährdete Gruppen haben könnte.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. Für AI-Systeme mit hohem Risiko wird ein Risikomanagementsystem eingerichtet, umgesetzt, dokumentiert und aufrechterhalten.

2. Das Risikomanagementsystem ist als ein kontinuierlicher, iterativer Prozess zu verstehen, der während des gesamten Lebenszyklus eines risikoreichen AI-Systems geplant und durchgeführt wird und eine regelmäßige systematische Überprüfung und Aktualisierung erfordert. Es umfasst die folgenden Schritte:

(a) die Ermittlung und Analyse der bekannten und der vernünftigerweise vorhersehbaren Risiken, die das AI-System mit hohem Risiko für die Gesundheit, die Sicherheit oder die Grundrechte darstellen kann, wenn das AI-System mit hohem Risiko bestimmungsgemäß verwendet wird;

(b) die Abschätzung und Bewertung der Risiken, die entstehen können, wenn das Hochrisiko-KI-System bestimmungsgemäß und unter den Bedingungen einer vernünftigerweise vorhersehbaren Fehlanwendung eingesetzt wird;

(c) die Bewertung anderer möglicherweise auftretender Risiken auf der Grundlage der Analyse von Daten, die im Rahmen des in Artikel 72 genannten Systems zur Überwachung nach dem Inverkehrbringen gesammelt wurden;

(d) die Verabschiedung geeigneter und gezielter Risikomanagementmaßnahmen, um den gemäß Buchstabe a ermittelten Risiken zu begegnen.

3. (3) Die in diesem Artikel genannten Risiken betreffen nur solche, die durch die Entwicklung oder Konstruktion des AI-Systems mit hohem Risiko oder durch die Bereitstellung angemessener technischer Informationen nach vernünftigem Ermessen eingedämmt oder ausgeschaltet werden können.

4. Bei den in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen sind die Auswirkungen und möglichen Wechselwirkungen, die sich aus der kombinierten Anwendung der in diesem Abschnitt festgelegten Anforderungen ergeben, gebührend zu berücksichtigen, um die Risiken wirksamer zu minimieren und gleichzeitig ein angemessenes Gleichgewicht bei der Durchführung der Maßnahmen zur Erfüllung dieser Anforderungen zu erreichen.

5. Die in Absatz 2 Buchstabe d genannten Risikomanagementmaßnahmen müssen so beschaffen sein, dass das mit den einzelnen Gefahren verbundene relevante Restrisiko sowie das Gesamtrestrisiko der mit hohem Risiko behafteten AI-Systeme als annehmbar eingestuft wird. Bei der Ermittlung der am besten geeigneten Risikomanagementmaßnahmen ist Folgendes zu beachten:

(a) Beseitigung oder Verringerung der gemäß Absatz 2 ermittelten und bewerteten Risiken, soweit dies technisch möglich ist, durch eine angemessene Gestaltung und Entwicklung des AI-Systems für Hochrisikoprodukte;

(b) gegebenenfalls Durchführung angemessener Maßnahmen zur Abschwächung und Kontrolle von Risiken, die nicht beseitigt werden können;

(c) die Bereitstellung der gemäß Artikel 13 erforderlichen Informationen und gegebenenfalls die Schulung der Einsatzkräfte. Im Hinblick auf die Beseitigung oder Verringerung der Risiken im Zusammenhang mit dem Einsatz des Hochrisiko-KI-Systems werden die technischen Kenntnisse, die Erfahrung, die Ausbildung und die zu erwartende Schulung des Anwenders sowie der voraussichtliche Kontext, in dem das System eingesetzt werden soll, angemessen berücksichtigt.

6. AI-Systeme mit hohem Risiko werden getestet, um die am besten geeigneten und gezielten Risikomanagementmaßnahmen zu ermitteln. Durch die Tests wird sichergestellt, dass AI-Systeme mit hohem Risiko für den beabsichtigten Zweck durchgängig funktionieren und die in diesem Abschnitt festgelegten Anforderungen erfüllen.

7. Die Prüfverfahren können Prüfungen unter realen Bedingungen gemäß Artikel 60 umfassen.

8. Die Erprobung von KI-Systemen mit hohem Risiko erfolgt gegebenenfalls zu jedem Zeitpunkt des Entwicklungsprozesses, in jedem Fall aber vor dem Inverkehrbringen oder der Inbetriebnahme des Systems. Die Tests werden anhand zuvor festgelegter Messgrößen und Wahrscheinlichkeitsschwellen durchgeführt, die für den beabsichtigten Zweck des KI-Systems mit hohem Risiko geeignet sind.

9. (8) Bei der Anwendung des Risikomanagementsystems gemäß den Absätzen 1 bis 7 prüfen die Anbieter, ob das AI-System für hohe Risiken angesichts des beabsichtigten Zwecks nachteilige Auswirkungen auf Personen unter 18 Jahren und gegebenenfalls auf andere schutzbedürftige Gruppen haben könnte.

10. Bei Anbietern von KI-Systemen mit hohem Risiko, die aufgrund anderer einschlägiger Bestimmungen des Unionsrechts Anforderungen an interne Risikomanagementverfahren unterliegen, können die in den Absätzen 1 bis 9 genannten Aspekte Teil der gemäß diesen Rechtsvorschriften festgelegten Risikomanagementverfahren sein oder mit diesen kombiniert werden.

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)