Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Datum des Inkrafttretens:

2. August 2026

Laut:

Artikel 113

Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

Dieser Artikel skizziert das Verfahren für den Umgang mit KI-Systemen, die ein Risiko für die Gesundheit, die Sicherheit oder die Grundrechte darstellen. Wenn die Marktaufsichtsbehörde eines Mitgliedstaates der Ansicht ist, dass ein KI-System ein solches Risiko darstellt, muss sie prüfen, ob das System den Vorschriften entspricht. Wird das System für nicht konform befunden, kann die Behörde den Betreiber auffordern, das Problem zu beheben, das System vom Markt zu nehmen oder es zurückzurufen. Ergreift der Betreiber keine Abhilfemaßnahmen, kann die Behörde die Verfügbarkeit des Systems verbieten oder einschränken. Die Behörde muss auch die Kommission und die anderen Mitgliedstaaten über nicht konforme Systeme und die ergriffenen Maßnahmen informieren.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. KI-Systeme, die ein Risiko darstellen, sind als "Produkt, das ein Risiko darstellt" im Sinne von Artikel 3 Nummer 19 der Verordnung (EU) 2019/1020 zu verstehen, sofern sie ein Risiko für die Gesundheit oder Sicherheit von Personen oder für die Grundrechte darstellen.

2. Hat die Marktüberwachungsbehörde eines Mitgliedstaats hinreichenden Grund zu der Annahme, dass ein KI-System ein Risiko im Sinne von Absatz 1 des vorliegenden Artikels darstellt, so bewertet sie das betreffende KI-System im Hinblick auf die Einhaltung aller in dieser Verordnung festgelegten Anforderungen und Verpflichtungen. Besondere Aufmerksamkeit wird AI-Systemen gewidmet, die ein Risiko für schutzbedürftige Gruppen darstellen. Werden Risiken für die Grundrechte festgestellt, unterrichtet die Marktüberwachungsbehörde auch die in Artikel 77 Absatz 1 genannten einschlägigen nationalen Behörden oder Stellen und arbeitet uneingeschränkt mit ihnen zusammen. Die betreffenden Betreiber arbeiten soweit erforderlich mit der Marktüberwachungsbehörde und den anderen in Artikel 77 Absatz 1 genannten nationalen Behörden oder Stellen zusammen. Stellt die Marktüberwachungsbehörde oder gegebenenfalls die Marktüberwachungsbehörde in Zusammenarbeit mit der in Artikel 77 Absatz 1 genannten nationalen Behörde im Verlauf dieser Bewertung fest, dass das AI-System die Anforderungen und Pflichten dieser Verordnung nicht erfüllt, fordert sie den betreffenden Betreiber unverzüglich auf, innerhalb einer von der Marktüberwachungsbehörde vorgeschriebenen Frist, in jedem Fall aber innerhalb von 15 Arbeitstagen, oder, falls dies in den einschlägigen Harmonisierungsrechtsvorschriften der Union vorgesehen ist, innerhalb einer kürzeren Frist alle geeigneten Korrekturmaßnahmen zu ergreifen, um die Konformität des AI-Systems herzustellen, das AI-System vom Markt zu nehmen oder zurückzurufen. Die Marktüberwachungsbehörde unterrichtet die betreffende notifizierte Stelle entsprechend. Artikel 18 der Verordnung (EU) 2019/1020 gilt für die in Unterabsatz 2 des vorliegenden Absatzes genannten Maßnahmen.

3. Ist die Marktüberwachungsbehörde der Auffassung, dass sich die Nichtkonformität nicht auf ihr Hoheitsgebiet beschränkt, unterrichtet sie die Kommission und die übrigen Mitgliedstaaten unverzüglich über die Ergebnisse der Beurteilung und die Maßnahmen, zu denen sie den Betreiber aufgefordert hat.

4. (4) Der Betreiber stellt sicher, dass alle geeigneten Korrekturmaßnahmen in Bezug auf alle betroffenen KI-Systeme, die er auf dem Unionsmarkt bereitgestellt hat, ergriffen werden.

5. (5) Ergreift der Betreiber eines KI-Systems innerhalb der in Absatz 2 genannten Frist keine angemessenen Korrekturmaßnahmen, so trifft die Marktüberwachungsbehörde alle geeigneten vorläufigen Maßnahmen, um die Bereitstellung des KI-Systems auf ihrem nationalen Markt oder seine Inbetriebnahme zu untersagen oder einzuschränken, das Produkt oder das eigenständige KI-System von diesem Markt zu nehmen oder zurückzurufen. Diese Behörde unterrichtet die Kommission und die anderen Mitgliedstaaten unverzüglich über diese Maßnahmen.

6. (6) Die Mitteilung gemäß Absatz 5 enthält alle verfügbaren Angaben, insbesondere die zur Identifizierung des nichtkonformen KI-Systems erforderlichen Informationen, die Herkunft des KI-Systems und die Lieferkette, die Art der behaupteten Nichtkonformität und des Risikos sowie die Art und Dauer der ergriffenen nationalen Maßnahmen und die Argumente des betreffenden Betreibers. Die Marktüberwachungsbehörden geben insbesondere an, ob die Nichtkonformität auf einen oder mehrere der folgenden Punkte zurückzuführen ist:

(a) die Nichteinhaltung des Verbots der in Artikel 5 genannten AI-Praktiken;

(b) die Nichteinhaltung der in Kapitel III festgelegten Anforderungen durch ein AI-System mit hohem Risiko,
Abschnitt 2;

(c) Mängel in den harmonisierten Normen oder gemeinsamen Spezifikationen gemäß den Artikeln 40 und 41, die eine Konformitätsvermutung begründen;

(d) Nichteinhaltung von Artikel 50.

7. Die Marktüberwachungsbehörden, mit Ausnahme der Marktüberwachungsbehörde des Mitgliedstaats, der das Verfahren eingeleitet hat, unterrichten die Kommission und die übrigen Mitgliedstaaten unverzüglich über alle erlassenen Maßnahmen und jede weitere ihnen vorliegende Information über die Nichtkonformität des betreffenden KI-Systems sowie, falls sie der gemeldeten nationalen Maßnahme nicht zustimmen, über ihre Einwände.

8. Erhebt weder eine Marktüberwachungsbehörde eines Mitgliedstaats noch die Kommission innerhalb von drei Monaten nach Eingang der in Absatz 5 des vorliegenden Artikels genannten Mitteilung Einwände gegen eine vorläufige Maßnahme, die von einer Marktüberwachungsbehörde eines anderen Mitgliedstaats getroffen wurde, so gilt diese Maßnahme als gerechtfertigt. Dies gilt unbeschadet der Verfahrensrechte des betroffenen Betreibers gemäß Artikel 18 der Verordnung (EU) 2019/1020. Die in diesem Absatz genannte Dreimonatsfrist wird auf 30 Tage verkürzt, wenn das Verbot der in Artikel 5 dieser Verordnung genannten AI-Praktiken nicht eingehalten wird.

9. Die Marktüberwachungsbehörden stellen sicher, dass unverzüglich geeignete restriktive Maßnahmen in Bezug auf das betreffende Produkt oder das betreffende AI-System ergriffen werden, wie etwa die Rücknahme des Produkts oder des AI-Systems von ihrem Markt.

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)