Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Datum des Inkrafttretens:

2. August 2026

Laut:

Artikel 113

Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

In diesem Artikel heißt es, dass KI-Systeme mit hohem Risiko transparent gestaltet sein müssen, damit die Nutzer sie verstehen und richtig einsetzen können. Sie müssen mit einer klaren Anleitung geliefert werden, die Informationen über den Anbieter, die Fähigkeiten und Grenzen des Systems und alle potenziellen Risiken enthält. In den Anleitungen sollte auch erläutert werden, wie die Ergebnisse des Systems zu interpretieren sind, welche Änderungen am System vorzunehmen sind und wie es zu warten ist. Gegebenenfalls sollte auch beschrieben werden, wie Datenprotokolle zu sammeln, zu speichern und zu interpretieren sind.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. KI-Systeme mit hohem Risiko sind so zu konzipieren und zu entwickeln, dass ihr Betrieb hinreichend transparent ist, damit die Anwender die Ergebnisse des Systems interpretieren und angemessen nutzen können. Es ist eine angemessene Art und ein angemessenes Maß an Transparenz zu gewährleisten, damit die in Abschnitt 3 dargelegten einschlägigen Verpflichtungen des Anbieters und des Betreibers erfüllt werden.

2. AI-Systemen mit hohem Risiko sind Gebrauchsanweisungen in einem geeigneten digitalen Format oder auf andere Weise beizufügen, die prägnante, vollständige, korrekte und klare Informationen enthalten, die für die Anwender relevant, zugänglich und verständlich sind.

3. Die Gebrauchsanweisung muss mindestens die folgenden Angaben enthalten:

(a) die Identität und die Kontaktdaten des Dienstleistungserbringers und gegebenenfalls seines Bevollmächtigten;

(b) die Merkmale, Fähigkeiten und Leistungsgrenzen des AI-Systems für hohe Risiken, einschließlich:

(i) den beabsichtigten Zweck;

(ii) das Genauigkeitsniveau, einschließlich der Metriken, die Robustheit und die Cybersicherheit gemäß Artikel 15, mit dem das KI-System mit hohem Risiko getestet und validiert wurde und das erwartet werden kann, sowie alle bekannten und vorhersehbaren Umstände, die sich auf das erwartete Genauigkeits-, Robustheits- und Cybersicherheitsniveau auswirken können;

(iii) alle bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des Hochrisiko-KI-Systems oder einer vernünftigerweise vorhersehbaren Fehlanwendung, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte gemäß Artikel 9 Absatz 2 führen können;

(iv) gegebenenfalls die technischen Fähigkeiten und Merkmale des AI-Systems mit hohem Risiko, Informationen zu liefern, die für die Erklärung seiner Ergebnisse relevant sind;

(v) gegebenenfalls die Leistung des Systems in Bezug auf bestimmte Personen oder Personengruppen, bei denen das System eingesetzt werden soll;

(vi) gegebenenfalls Spezifikationen für die Eingabedaten oder sonstige relevante Informationen über die verwendeten Trainings-, Validierungs- und Testdatensätze unter Berücksichtigung des beabsichtigten Zwecks des Hochrisiko-KI-Systems;

(vii) gegebenenfalls Informationen, die es den Einsatzkräften ermöglichen, die Ergebnisse des AI-Systems für hohe Risiken zu interpretieren und angemessen zu nutzen;

(c) die Änderungen am AI-System für hohe Risiken und seiner Leistung, die der Anbieter zum Zeitpunkt der ersten Konformitätsbewertung festgelegt hat, sofern vorhanden;

(d) die in Artikel 14 genannten menschlichen Aufsichtsmaßnahmen, einschließlich der technischen Maßnahmen, die zur Erleichterung der Interpretation der Ergebnisse der KI-Systeme mit hohem Risiko durch die Anwender getroffen werden;

(e) die erforderlichen Rechen- und Hardwareressourcen, die voraussichtliche Lebensdauer des KI-Systems mit hohem Risiko und alle erforderlichen Wartungs- und Pflegemaßnahmen, einschließlich ihrer Häufigkeit, um das ordnungsgemäße Funktionieren des KI-Systems zu gewährleisten, auch in Bezug auf Software-Updates;

(f) gegebenenfalls eine Beschreibung der Mechanismen innerhalb des AI-Systems für Hochrisikopersonen, die es den Einsatzkräften ermöglichen, die Protokolle im Einklang mit Artikel 12 ordnungsgemäß zu erfassen, zu speichern und auszuwerten.

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)