Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Datum des Inkrafttretens:

Juli 2026 (Juli 2027 für Punkt 1)

Laut:

Artikel 113 Buchstabe c

Hinweis: Dieses Datum ist eine Schätzung, die auf dem voraussichtlichen Datum des Inkrafttretens basiert. Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

In diesem Artikel wird beschrieben, wie KI-Systeme mit hohem Risiko eingestuft werden können. Ein KI-System gilt als risikoreich, wenn es als Sicherheitskomponente eines Produkts verwendet wird oder wenn es selbst ein Produkt ist, das unter EU-Recht fällt. Diese Systeme müssen einer Bewertung durch Dritte unterzogen werden, bevor sie verkauft oder verwendet werden dürfen. Einige KI-Systeme gelten immer als risikoreich, es sei denn, sie stellen kein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Rechte der Menschen dar. Anbieter, die der Meinung sind, dass ihr KI-System kein hohes Risiko darstellt, müssen ihre Bewertung dokumentieren, bevor sie es verkaufen oder einsetzen. Die EU-Kommission wird Leitlinien und Beispiele für risikoreiche und nicht risikoreiche KI-Systeme bereitstellen. Sie kann auch Bedingungen für die Einstufung als Hochrisikosystem auf der Grundlage von Beweisen hinzufügen oder entfernen. Alle Änderungen dürfen das Schutzniveau für Gesundheit, Sicherheit und Rechte nicht verringern.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. Unabhängig davon, ob ein KI-System unabhängig von den unter den Buchstaben a und b genannten Produkten in Verkehr gebracht oder in Betrieb genommen wird, gilt dieses KI-System als mit hohem Risiko behaftet, wenn beide der folgenden Bedingungen erfüllt sind:

(a) Das AI-System ist zur Verwendung als Sicherheitsbauteil eines Produkts bestimmt, oder das AI-System ist selbst ein Produkt, das unter die in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union fällt;

(b) das Produkt, dessen Sicherheitsbauteil gemäß Buchstabe a das AI-System ist, oder das AI-System selbst als Produkt einer Konformitätsbewertung durch einen Dritten unterzogen werden muss, damit dieses Produkt gemäß den in Anhang I aufgeführten Harmonisierungsrechtsvorschriften der Union in Verkehr gebracht oder in Betrieb genommen werden kann.

Verwandt: Erwägungsgründe 47, 50 und 51

2. Neben den in Absatz 1 genannten AI-Systemen mit hohem Risiko gelten auch die in Anhang III genannten AI-Systeme als mit hohem Risiko behaftet. Verwandt: Erwägungsgründe 48, 52, 54, 55, 56, 57, 58, 59, 60, 61, 62 und 63

3. (3) Abweichend von Absatz 2 gilt ein in Anhang III genanntes KI-System nicht als risikoreich, wenn es kein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen birgt, auch nicht dadurch, dass es das Ergebnis der Entscheidungsfindung wesentlich beeinflusst. Unterabsatz 1 findet Anwendung, wenn eine der folgenden Bedingungen erfüllt ist:

(a) Das KI-System ist für die Ausführung einer engen verfahrenstechnischen Aufgabe bestimmt;

(b) das KI-System ist dazu bestimmt, das Ergebnis einer zuvor ausgeführten menschlichen Tätigkeit zu verbessern;

(c) das KI-System ist dazu bestimmt, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen, und ist nicht dazu bestimmt, die zuvor durchgeführte menschliche Bewertung ohne angemessene menschliche Überprüfung zu ersetzen oder zu beeinflussen; oder

(d) das KI-System ist dazu bestimmt, eine vorbereitende Aufgabe für eine Bewertung durchzuführen, die für die Zwecke der in Anhang III aufgeführten Anwendungsfälle relevant ist. Ungeachtet des Unterabsatzes 1 gilt ein in Anhang III genanntes KI-System immer dann als mit hohem Risiko behaftet, wenn das KI-System ein Profiling natürlicher Personen durchführt.

4. (4) Ein Anbieter, der der Auffassung ist, dass ein in Anhang III genanntes AI-System kein hohes Risiko darstellt, dokumentiert seine Bewertung, bevor das System in Verkehr gebracht oder in Betrieb genommen wird. Ein solcher Anbieter unterliegt der Registrierungspflicht gemäß Artikel 49 Absatz 2. Auf Verlangen der zuständigen nationalen Behörden legt der Anbieter die Dokumentation der Bewertung vor. Verwandt: Erwägungsgrund 53

5. Die Kommission legt nach Anhörung des Europäischen Ausschusses für künstliche Intelligenz ("Ausschuss") bis spätestens 2. Februar 2026 Leitlinien für die praktische Umsetzung dieses Artikels im Einklang mit Artikel 96 sowie eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen mit hohem und ohne hohem Risiko vor. Verwandt: Erwägungsgrund 53

6. Der Kommission wird die Befugnis übertragen, delegierte Rechtsakte gemäß Artikel 97 zu erlassen, um Absatz 3 Unterabsatz 2 dieses Artikels zu ändern, indem neue Bedingungen zu den darin festgelegten hinzugefügt oder diese geändert werden, wenn konkrete und zuverlässige Beweise für die Existenz von KI-Systemen vorliegen, die in den Anwendungsbereich von Anhang III fallen, aber kein erhebliches Risiko für die Gesundheit, die Sicherheit oder die Grundrechte natürlicher Personen darstellen. Verwandt: Erwägungsgrund 53

7. Die Kommission erlässt delegierte Rechtsakte gemäß Artikel 97 zur Änderung von Absatz 3 Unterabsatz 2 des vorliegenden Artikels durch Streichung einer der darin festgelegten Bedingungen, wenn konkrete und zuverlässige Beweise dafür vorliegen, dass dies erforderlich ist, um das in dieser Verordnung vorgesehene Niveau des Schutzes der Gesundheit, der Sicherheit und der Grundrechte aufrechtzuerhalten. Verwandt: Erwägungsgrund 53

8. Jede Änderung der in Absatz 3 Unterabsatz 2 festgelegten Bedingungen, die gemäß den Absätzen 6 und 7 des vorliegenden Artikels erlassen wird, darf das in dieser Verordnung vorgesehene Gesamtniveau des Schutzes der Gesundheit, der Sicherheit und der Grundrechte nicht verringern und muss die Kohärenz mit den gemäß Artikel 7 Absatz 1 erlassenen delegierten Rechtsakten gewährleisten sowie den Markt- und Technologieentwicklungen Rechnung tragen. Verwandt: Erwägungsgrund 53

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)