Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 7: Änderungen des Anhangs III

Datum des Inkrafttretens:

2. August 2026

Laut:

Artikel 113

Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

Die EU-Kommission kann die Liste der risikoreichen KI-Systeme ändern, wenn diese bestimmte Bedingungen erfüllen. Dazu gehört, dass sie in Bereichen eingesetzt werden, die bereits als risikoreich eingestuft sind, und dass sie ein gleiches oder größeres Gesundheits-, Sicherheits- oder Rechtsrisiko darstellen als die derzeitigen risikoreichen Systeme. Die Kommission wird Faktoren wie den Zweck der KI, den Umfang ihres Einsatzes, die von ihr verarbeiteten Daten, ihre Autonomie, frühere Schäden, potenzielle Schäden und die Fähigkeit, Ergebnisse zu korrigieren oder umzukehren, berücksichtigen. Die Kommission kann auch Systeme von der Liste streichen, wenn von ihnen keine erheblichen Risiken mehr ausgehen und ihre Streichung nicht zu einer Verringerung des allgemeinen Schutzniveaus führt.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 97 zu erlassen, um Anhang III durch Hinzufügung oder Änderung von Verwendungsfällen von AI-Systemen mit hohem Risiko zu ändern, wenn beide der folgenden Bedingungen erfüllt sind:

(a) Die KI-Systeme sind für die Verwendung in einem der in Anhang III aufgeführten Bereiche bestimmt;

(b) von den KI-Systemen eine Gefahr für die Gesundheit und Sicherheit oder eine Beeinträchtigung der Grundrechte ausgeht und diese Gefahr der Gefahr einer Beeinträchtigung der Gesundheit oder einer Beeinträchtigung der Grundrechte gleichkommt oder größer ist als die Gefahr einer Beeinträchtigung, die von den bereits in Anhang III genannten KI-Systemen mit hohem Risiko ausgeht.

2. Bei der Beurteilung der Bedingung gemäß Absatz 1 Buchstabe b berücksichtigt die Kommission die folgenden Kriterien:

(a) den beabsichtigten Zweck des KI-Systems;

(b) das Ausmaß, in dem ein KI-System eingesetzt wurde oder wahrscheinlich eingesetzt werden wird;

(c) Art und Umfang der durch das KI-System verarbeiteten und genutzten Daten, insbesondere ob besondere Kategorien personenbezogener Daten verarbeitet werden;

(d) das Ausmaß, in dem das KI-System autonom handelt, und die Möglichkeit für einen Menschen, sich über eine Entscheidung oder Empfehlung hinwegzusetzen, die zu einem potenziellen Schaden führen kann;

(e) das Ausmaß, in dem die Verwendung eines KI-Systems bereits zu einer Beeinträchtigung der Gesundheit und Sicherheit geführt hat, sich nachteilig auf die Grundrechte ausgewirkt hat oder Anlass zu erheblichen Bedenken hinsichtlich der Wahrscheinlichkeit einer solchen Beeinträchtigung oder nachteiligen Auswirkung gegeben hat, wie beispielsweise durch Berichte oder dokumentierte Behauptungen, die den zuständigen nationalen Behörden vorgelegt wurden, oder gegebenenfalls durch andere Berichte belegt wird;

(f) das potenzielle Ausmaß eines solchen Schadens oder einer solchen nachteiligen Auswirkung, insbesondere im Hinblick auf ihre Intensität und ihre Fähigkeit, mehrere Personen zu beeinträchtigen oder eine bestimmte Personengruppe unverhältnismäßig stark zu beeinträchtigen;

(g) das Ausmaß, in dem Personen, die potenziell geschädigt werden oder eine nachteilige Auswirkung erleiden, von dem mit einem KI-System erzielten Ergebnis abhängig sind, insbesondere weil es aus praktischen oder rechtlichen Gründen vernünftigerweise nicht möglich ist, von diesem Ergebnis abzuweichen;

(h) das Ausmaß, in dem ein Machtungleichgewicht besteht oder sich die Personen, die potenziell geschädigt werden oder nachteilige Auswirkungen erleiden, in einer schutzbedürftigen Position gegenüber dem Anwender eines KI-Systems befinden, insbesondere aufgrund von Status, Autorität, Wissen, wirtschaftlichen oder sozialen Umständen oder Alter;

(i) das Ausmaß, in dem das mit einem KI-System erzeugte Ergebnis leicht korrigierbar oder umkehrbar ist, wobei die zur Korrektur oder Umkehrung verfügbaren technischen Lösungen zu berücksichtigen sind, wobei Ergebnisse, die sich nachteilig auf die Gesundheit, die Sicherheit oder die Grundrechte auswirken, nicht als leicht korrigierbar oder umkehrbar gelten;

(j) das Ausmaß und die Wahrscheinlichkeit des Nutzens des Einsatzes des KI-Systems für Einzelpersonen, Gruppen oder die Gesellschaft insgesamt, einschließlich möglicher Verbesserungen der Produktsicherheit;

(k) den Umfang, in dem das geltende Unionsrecht dies vorsieht:

(i) wirksame Rechtsbehelfe gegen die von einem KI-System ausgehenden Risiken, wobei Schadenersatzansprüche ausgeschlossen sind;

(ii) wirksame Maßnahmen zur Vermeidung oder wesentlichen Verringerung dieser Risiken.

3. Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 97 zu erlassen, um die Liste in Anhang III zu ändern und AI-Systeme mit hohem Risiko zu streichen, wenn beide der folgenden Bedingungen erfüllt sind:

(a) die betreffende Hochrisiko-VI-Regelung unter Berücksichtigung der in Absatz 2 aufgeführten Kriterien keine erheblichen Risiken für die Grundrechte, die Gesundheit oder die Sicherheit mehr birgt;

(b) die Löschung führt nicht zu einer Verringerung des Gesamtniveaus des Schutzes der Gesundheit, der Sicherheit und der Grundrechte nach dem Unionsrecht.

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)