Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erstellte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Anhänge

Suche innerhalb des Gesetzes

2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.

Erwägungsgrund 53

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org

Es ist auch wichtig klarzustellen, dass es besondere Fälle geben kann, in denen KI-Systeme, die in den in dieser Verordnung festgelegten Bereichen genannt werden, nicht zu einem erheblichen Risiko einer Beeinträchtigung der in diesen Bereichen geschützten Rechtsgüter führen, weil sie die Entscheidungsfindung nicht wesentlich beeinflussen oder diese Interessen nicht wesentlich beeinträchtigen. Für die Zwecke dieser Verordnung sollte unter einem KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, ein KI-System verstanden werden, das keine Auswirkungen auf den Inhalt und damit das Ergebnis der menschlichen oder automatisierten Entscheidungsfindung hat. Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, könnte Situationen umfassen, in denen eine oder mehrere der folgenden Bedingungen erfüllt sind. Die erste Bedingung sollte darin bestehen, dass das KI-System eine enge verfahrenstechnische Aufgabe erfüllen soll, z. B. ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt, ein KI-System, das eingehende Dokumente in Kategorien einordnet, oder ein KI-System, das dazu dient, Duplikate in einer großen Zahl von Anwendungen zu erkennen. Diese Aufgaben sind so eng gefasst und begrenzt, dass sie nur begrenzte Risiken mit sich bringen, die durch den Einsatz eines KI-Systems in einem Kontext, der in einem Anhang zu dieser Verordnung als risikoreiche Verwendung aufgeführt ist, nicht erhöht werden. Die zweite Bedingung sollte sein, dass die von dem KI-System ausgeführte Aufgabe dazu dient, das Ergebnis einer zuvor ausgeführten menschlichen Tätigkeit zu verbessern, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten Verwendungen mit hohem Risiko relevant sein kann. In Anbetracht dieser Merkmale stellt das KI-System lediglich eine zusätzliche Ebene zu einer menschlichen Tätigkeit dar, die folglich ein geringeres Risiko birgt. Diese Bedingung würde beispielsweise für KI-Systeme gelten, die dazu bestimmt sind, die Sprache in bereits verfassten Dokumenten zu verbessern, z. B. in Bezug auf einen professionellen Ton, einen akademischen Sprachstil oder durch die Anpassung des Textes an eine bestimmte Markenbotschaft. Die dritte Bedingung sollte sein, dass das KI-System dazu dient, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen. Das Risiko wäre geringer, weil der Einsatz des KI-Systems auf eine zuvor abgeschlossene menschliche Bewertung folgt, die es nicht ersetzen oder beeinflussen soll, ohne dass eine angemessene menschliche Überprüfung stattfindet. Zu solchen KI-Systemen gehören beispielsweise solche, die bei einem bestimmten Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um mögliche Unstimmigkeiten oder Anomalien aufzuzeigen. Die vierte Bedingung sollte darin bestehen, dass das KI-System eine Aufgabe erfüllen soll, die lediglich der Vorbereitung einer Bewertung dient, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme relevant ist, so dass die möglichen Auswirkungen der Ergebnisse des Systems im Hinblick auf ein Risiko für die nachfolgende Bewertung sehr gering sind. Diese Bedingung gilt unter anderem für intelligente Lösungen für die Dateibearbeitung, die verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen umfassen, oder für KI-Systeme, die für die Übersetzung von Ausgangsdokumenten verwendet werden. In jedem Fall sollte bei KI-Systemen, die in den in einem Anhang zu dieser Verordnung aufgeführten Anwendungsfällen mit hohem Risiko eingesetzt werden, davon ausgegangen werden, dass sie erhebliche Risiken für die Gesundheit, die Sicherheit oder die Grundrechte bergen, wenn das KI-System ein Profiling im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725 impliziert. Um Rückverfolgbarkeit und Transparenz zu gewährleisten, sollte ein Anbieter, der ein KI-System auf der Grundlage der oben genannten Bedingungen als nicht risikobehaftet einstuft, eine Dokumentation der Bewertung erstellen, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, und diese Dokumentation den zuständigen nationalen Behörden auf Anfrage vorlegen. Ein solcher Anbieter sollte verpflichtet sein, das AI-System in der gemäß dieser Verordnung eingerichteten EU-Datenbank zu registrieren. Um weitere Orientierungshilfen für die praktische Umsetzung der Bedingungen zu geben, unter denen die in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme ausnahmsweise kein hohes Risiko darstellen, sollte die Kommission nach Anhörung des Beirats Leitlinien für die praktische Umsetzung vorlegen, die durch eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen, die ein hohes Risiko darstellen, und für Anwendungsfälle, die kein hohes Risiko darstellen, ergänzt werden.

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)