Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.

Anhang III: Hochriskante AI-Systeme

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org

AI-Systeme mit hohem Risiko im Sinne von Artikel 6 Absatz 2 sind AI-Systeme, die in einem der folgenden Bereiche aufgeführt sind:

1. Biometrische Daten, soweit ihre Verwendung nach dem einschlägigen Unionsrecht oder dem nationalen Recht zulässig ist:

(a) Systeme zur biometrischen Fernidentifizierung. Dazu gehören keine KI-Systeme, die für die biometrische Überprüfung bestimmt sind und deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte natürliche Person diejenige ist, die sie vorgibt zu sein;

(b) KI-Systeme, die für die biometrische Kategorisierung nach sensiblen oder geschützten Attributen oder Merkmalen auf der Grundlage der Rückschlüsse auf diese Attribute oder Merkmale verwendet werden sollen;

(c) KI-Systeme, die für die Erkennung von Emotionen eingesetzt werden sollen.

2. Kritische Infrastrukturen: KI-Systeme, die als Sicherheitskomponenten bei der Verwaltung und dem Betrieb kritischer digitaler Infrastrukturen, im Straßenverkehr oder bei der Wasser-, Gas-, Wärme- oder Stromversorgung eingesetzt werden sollen.

3. Allgemeine und berufliche Bildung:

(a) KI-Systeme, die dazu dienen, den Zugang oder die Zulassung zu Einrichtungen der allgemeinen und beruflichen Bildung auf allen Ebenen zu bestimmen oder natürliche Personen zuzuweisen;

(b) KI-Systeme, die zur Bewertung von Lernergebnissen eingesetzt werden sollen, auch wenn diese Ergebnisse zur Steuerung des Lernprozesses natürlicher Personen in Einrichtungen der allgemeinen und beruflichen Bildung auf allen Ebenen verwendet werden;

(c) KI-Systeme, die zur Bewertung des angemessenen Bildungsniveaus, das eine Person erhalten wird oder zu dem sie Zugang haben wird, im Rahmen von oder innerhalb von Einrichtungen der allgemeinen und beruflichen Bildung auf allen Ebenen eingesetzt werden sollen;

(d) KI-Systeme, die zur Überwachung und Erkennung von unzulässigem Verhalten von Schülern bei Prüfungen im Rahmen von oder in Einrichtungen der allgemeinen und beruflichen Bildung auf allen Ebenen eingesetzt werden sollen.

4. Beschäftigung, Arbeitnehmermanagement und Zugang zur Selbstständigkeit:

(a) KI-Systeme, die für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere zur Schaltung gezielter Stellenanzeigen, zur Analyse und Filterung von Bewerbungen und zur Bewertung von Bewerbern;

(b) KI-Systeme, die dazu bestimmt sind, Entscheidungen zu treffen, die sich auf die Bedingungen von Arbeitsverhältnissen, die Förderung oder Beendigung von Arbeitsvertragsverhältnissen auswirken, Aufgaben auf der Grundlage von individuellem Verhalten oder persönlichen Eigenschaften oder Merkmalen zuzuweisen oder die Leistung und das Verhalten von Personen in solchen Verhältnissen zu überwachen und zu bewerten.

5. Zugang zu und Inanspruchnahme von wesentlichen privaten Dienstleistungen und wesentlichen öffentlichen Diensten und Leistungen:

(a) KI-Systeme, die dazu bestimmt sind, von Behörden oder im Namen von Behörden verwendet zu werden, um die Anspruchsberechtigung natürlicher Personen auf wesentliche öffentliche Unterstützungsleistungen und -dienste, einschließlich Gesundheitsdienstleistungen, zu bewerten und solche Leistungen und Dienste zu gewähren, zu kürzen, zu widerrufen oder zurückzufordern;

(b) KI-Systeme, die dazu bestimmt sind, die Kreditwürdigkeit natürlicher Personen zu bewerten oder ihre Kreditwürdigkeit zu ermitteln, mit Ausnahme von KI-Systemen, die zur Aufdeckung von Finanzbetrug eingesetzt werden;

(c) KI-Systeme, die für die Risikobewertung und Preisgestaltung in Bezug auf natürliche Personen im Falle von Lebens- und Krankenversicherungen verwendet werden sollen;

(d) KI-Systeme, die dazu bestimmt sind, Notrufe natürlicher Personen auszuwerten und zu klassifizieren oder zur Disposition oder zur Festlegung von Prioritäten bei der Disposition von Notdiensten, einschließlich Polizei, Feuerwehr und medizinischer Hilfe, sowie von Triage-Systemen für Notfallpatienten verwendet werden.

6. Strafverfolgung, soweit ihre Verwendung nach dem einschlägigen Unionsrecht oder dem nationalen Recht zulässig ist:

(a) KI-Systeme, die dazu bestimmt sind, von oder im Namen von Strafverfolgungsbehörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union zur Unterstützung von Strafverfolgungsbehörden oder in deren Namen verwendet zu werden, um das Risiko zu bewerten, dass eine natürliche Person Opfer einer Straftat wird;

(b) KI-Systeme, die dazu bestimmt sind, von oder im Namen von Strafverfolgungsbehörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union zur Unterstützung von Strafverfolgungsbehörden als Lügendetektoren oder ähnliche Instrumente verwendet zu werden;

(c) KI-Systeme, die dazu bestimmt sind, von oder im Namen von Strafverfolgungsbehörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union zur Unterstützung von Strafverfolgungsbehörden verwendet zu werden, um die Verlässlichkeit von Beweismitteln im Rahmen der Ermittlung oder Verfolgung von Straftaten zu bewerten;

(d) KI-Systeme, die dazu bestimmt sind, von Strafverfolgungsbehörden oder in deren Auftrag oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union zur Unterstützung von Strafverfolgungsbehörden verwendet zu werden, um das Risiko einer natürlichen Person, straffällig zu werden oder erneut straffällig zu werden, nicht ausschließlich auf der Grundlage der Erstellung von Profilen natürlicher Personen gemäß Artikel 3 Absatz 4 der Richtlinie (EU) 2016/680 zu bewerten, oder um Persönlichkeitsmerkmale und Eigenschaften oder frühere kriminelle Verhaltensweisen natürlicher Personen oder Gruppen zu bewerten;

(e) KI-Systeme, die von oder im Namen von Strafverfolgungsbehörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union zur Unterstützung von Strafverfolgungsbehörden für die Erstellung von Profilen natürlicher Personen gemäß Artikel 3 Absatz 4 der Richtlinie (EU) 2016/680 im Rahmen der Aufdeckung, Untersuchung oder Verfolgung von Straftaten verwendet werden sollen.

7. Migrations-, Asyl- und Grenzkontrollmanagement, soweit deren Einsatz nach dem einschlägigen Unionsrecht oder nationalen Recht zulässig ist:

(a) KI-Systeme, die dazu bestimmt sind, von oder im Namen von zuständigen Behörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union als Lügendetektoren oder ähnliche Instrumente verwendet zu werden;

(b) KI-Systeme, die dazu bestimmt sind, von oder im Namen von zuständigen Behörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union verwendet zu werden, um ein Risiko, einschließlich eines Sicherheitsrisikos, eines Risikos der irregulären Migration oder eines Gesundheitsrisikos, zu bewerten, das von einer natürlichen Person ausgeht, die in das Hoheitsgebiet eines Mitgliedstaats einzureisen beabsichtigt oder eingereist ist;

(c) KI-Systeme, die dazu bestimmt sind, von oder im Namen von zuständigen Behörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union verwendet zu werden, um die zuständigen Behörden bei der Prüfung von Anträgen auf Asyl, Visa oder Aufenthaltstitel und bei damit zusammenhängenden Beschwerden in Bezug auf die Berechtigung der natürlichen Personen, die einen Status beantragen, zu unterstützen, einschließlich der damit zusammenhängenden Bewertung der Zuverlässigkeit von Beweismitteln;

(d) KI-Systeme, die dazu bestimmt sind, von oder im Namen von zuständigen Behörden oder von Organen, Einrichtungen, Ämtern oder Agenturen der Union im Rahmen des Migrations-, Asyl- oder Grenzkontrollmanagements zum Aufspüren, Erkennen oder Identifizieren natürlicher Personen verwendet zu werden, mit Ausnahme der Überprüfung von Reisedokumenten.

8. Rechtspflege und demokratische Prozesse:

(a) KI-Systeme, die dazu bestimmt sind, von einer Justizbehörde oder in deren Auftrag eingesetzt zu werden, um eine Justizbehörde bei der Erforschung und Auslegung von Tatsachen und Gesetzen und bei der Anwendung des Rechts auf einen konkreten Sachverhalt zu unterstützen, oder die in ähnlicher Weise bei der alternativen Streitbeilegung eingesetzt werden sollen;

(b) KI-Systeme, die zur Beeinflussung des Ergebnisses einer Wahl oder eines Referendums oder des Abstimmungsverhaltens natürlicher Personen bei der Ausübung ihres Stimmrechts bei Wahlen oder Referenden eingesetzt werden sollen. Dies schließt keine KI-Systeme ein, deren Ergebnisse natürlichen Personen nicht direkt zugänglich sind, wie etwa Werkzeuge, die zur Organisation, Optimierung oder Strukturierung politischer Kampagnen unter administrativen oder logistischen Gesichtspunkten eingesetzt werden.

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)