Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Erwägungsgrund 96

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

Um den Schutz der Grundrechte wirksam zu gewährleisten, sollten Betreiber von KI-Systemen mit hohem Risiko, bei denen es sich um Einrichtungen des öffentlichen Rechts handelt, oder private Einrichtungen, die öffentliche Dienstleistungen erbringen, sowie Betreiber bestimmter KI-Systeme mit hohem Risiko, die in einem Anhang zu dieser Verordnung aufgeführt sind, wie z. B. Banken oder Versicherungen, vor der Inbetriebnahme eine Grundrechtsfolgenabschätzung durchführen. Dienstleistungen, die für Einzelpersonen wichtig sind und einen öffentlichen Charakter haben, können auch von privaten Einrichtungen erbracht werden. Private Einrichtungen, die solche öffentlichen Dienstleistungen erbringen, sind mit Aufgaben von öffentlichem Interesse verbunden, z. B. in den Bereichen Bildung, Gesundheitsfürsorge, Sozialdienste, Wohnungswesen und Rechtspflege. Ziel der Folgenabschätzung für die Grundrechte ist es, die spezifischen Risiken für die Rechte von Einzelpersonen oder Gruppen von Einzelpersonen, die wahrscheinlich betroffen sind, zu ermitteln und Maßnahmen zu bestimmen, die im Falle des Eintretens dieser Risiken zu ergreifen sind. Die Folgenabschätzung sollte vor dem Einsatz des risikoreichen KI-Systems durchgeführt und aktualisiert werden, wenn sich nach Ansicht des Einsatzbetreibers einer der relevanten Faktoren geändert hat. In der Folgenabschätzung sollten die relevanten Prozesse des Bereitstellers ermittelt werden, in denen das KI-System mit hohem Risiko entsprechend seinem beabsichtigten Zweck eingesetzt wird, und sie sollte eine Beschreibung des Zeitraums und der Häufigkeit, in der das System eingesetzt werden soll, sowie der spezifischen Kategorien natürlicher Personen und Gruppen enthalten, die in dem jeweiligen Nutzungskontext wahrscheinlich betroffen sein werden. Die Bewertung sollte auch die Ermittlung spezifischer Schadensrisiken umfassen, die sich auf die Grundrechte dieser Personen oder Gruppen auswirken können. Bei der Durchführung dieser Bewertung sollte der Bereitsteller Informationen berücksichtigen, die für eine ordnungsgemäße Bewertung der Auswirkungen relevant sind, einschließlich, aber nicht beschränkt auf die Informationen, die der Anbieter des Hochrisiko-KI-Systems in der Gebrauchsanweisung bereitstellt. In Anbetracht der ermittelten Risiken sollten die Bereitsteller Maßnahmen festlegen, die im Falle des Eintretens dieser Risiken zu ergreifen sind; dazu gehören beispielsweise Governance-Regelungen in diesem spezifischen Nutzungskontext, wie etwa Regelungen für die menschliche Aufsicht gemäß der Nutzungsanleitung, oder Verfahren für die Bearbeitung von Beschwerden und Rechtsbehelfe, da diese zur Minderung der Risiken für die Grundrechte in konkreten Nutzungsfällen beitragen könnten. Nach Durchführung dieser Folgenabschätzung sollte der Bereitsteller die zuständige Marktaufsichtsbehörde unterrichten. Um die für die Durchführung der Folgenabschätzung erforderlichen Informationen zu sammeln, könnten die Bereitsteller von KI-Systemen mit hohem Risiko, insbesondere wenn diese im öffentlichen Sektor eingesetzt werden, gegebenenfalls einschlägige Interessengruppen, einschließlich der Vertreter von Personengruppen, die von dem KI-System betroffen sein könnten, unabhängige Sachverständige und Organisationen der Zivilgesellschaft in die Durchführung solcher Folgenabschätzungen und die Ausarbeitung von Maßnahmen einbeziehen, die im Falle des Eintretens der Risiken zu ergreifen sind. Das Europäische Amt für künstliche Intelligenz (KI-Büro) sollte eine Vorlage für einen Fragebogen entwickeln, um die Einhaltung der Vorschriften zu erleichtern und den Verwaltungsaufwand für die Anwender zu verringern.

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)