Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erstellte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Anhänge

Suche innerhalb des Gesetzes

2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org

1. (1) Die Betreiber von AI-Systemen mit hohem Risiko treffen geeignete technische und organisatorische Maßnahmen, um sicherzustellen, dass sie diese Systeme gemäß den den Systemen beigefügten Gebrauchsanweisungen nach den Absätzen 3 und 6 verwenden.

2. (2) Die Einsatzkräfte beauftragen natürliche Personen, die über die erforderliche Befähigung, Ausbildung und Autorität verfügen und die notwendige Unterstützung erhalten.

3. (4) Die in den Absätzen 1 und 2 genannten Verpflichtungen lassen andere Verpflichtungen des Einsatzmittels nach dem Unionsrecht oder dem nationalen Recht sowie die Freiheit des Einsatzmittels, seine eigenen Ressourcen und Tätigkeiten zur Durchführung der vom Dienstleistungserbringer angegebenen Maßnahmen der menschlichen Aufsicht zu organisieren, unberührt.

4. (3) Unbeschadet der Absätze 1 und 2 stellt der Bereitsteller in dem Maße, in dem er die Kontrolle über die Eingabedaten ausübt, sicher, dass die Eingabedaten im Hinblick auf den beabsichtigten Zweck des AI-Systems für hohe Risiken relevant und ausreichend repräsentativ sind.

5. (5) Die Einsatzstellen überwachen den Betrieb des KI-Systems mit hohem Risiko auf der Grundlage der Gebrauchsanweisung und unterrichten gegebenenfalls die Anbieter gemäß Artikel 72. Haben Bereitsteller Grund zu der Annahme, dass die Verwendung des AI-Systems mit hohem Risiko gemäß den Anweisungen dazu führen kann, dass dieses AI-System ein Risiko im Sinne von Artikel 79 Absatz 1 darstellt, so unterrichten sie unverzüglich den Anbieter oder Händler und die zuständige Marktüberwachungsbehörde und setzen die Verwendung dieses Systems aus. Haben Bereitsteller einen schwerwiegenden Vorfall festgestellt, so unterrichten sie ebenfalls unverzüglich zunächst den Anbieter und dann den Einführer oder Händler sowie die zuständigen Marktüberwachungsbehörden über diesen Vorfall. Ist der Bereitsteller nicht in der Lage, den Anbieter zu erreichen, so gilt Artikel 73 entsprechend. Diese Verpflichtung gilt nicht für sensible Betriebsdaten von Bereitstellern von KI-Systemen, die Strafverfolgungsbehörden sind. Für Bereitsteller, bei denen es sich um Finanzinstitute handelt, die nach dem Finanzdienstleistungsrecht der Union Anforderungen in Bezug auf ihre internen Governance-Regelungen, -Vorkehrungen oder -Verfahren unterliegen, gilt die in Unterabsatz 1 genannte Überwachungspflicht als erfüllt, wenn sie die Vorschriften über interne Governance-Regelungen, -Verfahren und -Mechanismen gemäß dem einschlägigen Finanzdienstleistungsrecht einhalten.

6. (6) Die Bereitsteller von KI-Systemen mit hohem Risiko bewahren die von diesem KI-System mit hohem Risiko automatisch erstellten Protokolle, soweit sie sich in ihrem Einflussbereich befinden, während eines dem Verwendungszweck des KI-Systems mit hohem Risiko angemessenen Zeitraums von mindestens sechs Monaten auf, sofern im geltenden Unionsrecht oder im nationalen Recht, insbesondere im Unionsrecht zum Schutz personenbezogener Daten, nichts anderes vorgesehen ist. Bereitsteller, bei denen es sich um Finanzinstitute handelt, die Anforderungen in Bezug auf ihre interne Governance, Regelungen oder Verfahren nach dem Finanzdienstleistungsrecht der Union unterliegen, bewahren die Protokolle als Teil der gemäß dem einschlägigen Finanzdienstleistungsrecht der Union geführten Dokumentation auf.

7. (7) Vor der Inbetriebnahme oder dem Einsatz eines AI-Systems mit hohem Risiko am Arbeitsplatz unterrichtet der Bereitsteller, der Arbeitgeber ist, die Arbeitnehmervertreter und die betroffenen Arbeitnehmer darüber, dass sie dem Einsatz des AI-Systems mit hohem Risiko ausgesetzt sein werden. Diese Unterrichtung erfolgt gegebenenfalls gemäß den Vorschriften und Verfahren, die in den Rechtsvorschriften und Gepflogenheiten der Union und der Mitgliedstaaten zur Unterrichtung der Arbeitnehmer und ihrer Vertreter festgelegt sind.

8. Bereitsteller von KI-Systemen mit hohem Risiko, bei denen es sich um Behörden oder Organe, Einrichtungen, Ämter oder Agenturen der Union handelt, kommen den Registrierungspflichten gemäß Artikel 49 nach. Stellen solche Bereitsteller fest, dass das von ihnen geplante Hochrisiko-KI-System nicht in der EU-Datenbank gemäß Artikel 71 registriert ist, dürfen sie dieses System nicht verwenden und müssen den Anbieter oder den Händler davon in Kenntnis setzen.

9. Gegebenenfalls verwenden die Bereitsteller von KI-Systemen mit hohem Risiko die gemäß Artikel 13 dieser Verordnung bereitgestellten Informationen, um ihrer Verpflichtung zur Durchführung einer Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 oder Artikel 27 der Richtlinie (EU) 2016/680 nachzukommen.

10. (10) Unbeschadet der Richtlinie (EU) 2016/680 beantragt der Betreiber eines KI-Hochrisikosystems für die biometrische Identifizierung im Nachhinein im Rahmen von Ermittlungen zur gezielten Durchsuchung einer Person, die im Verdacht steht, eine Straftat begangen zu haben, oder die der Begehung einer Straftat überführt wurde, im Voraus eine Genehmigung, oder unverzüglich, spätestens jedoch innerhalb von 48 Stunden, bei einer Justizbehörde oder einer Verwaltungsbehörde, deren Entscheidung verbindlich ist und gerichtlich überprüft werden kann, eine Genehmigung für die Verwendung dieses Systems, es sei denn, es wird für die erste Identifizierung eines potenziellen Verdächtigen auf der Grundlage objektiver und überprüfbarer Tatsachen, die in direktem Zusammenhang mit der Straftat stehen, verwendet. Jede Verwendung ist auf das für die Ermittlungen zu einer bestimmten Straftat unbedingt erforderliche Maß zu beschränken. Wird die nach Unterabsatz 1 beantragte Genehmigung abgelehnt, so wird die Nutzung des biometrischen Post-Remote-Identifizierungssystems im Zusammenhang mit der beantragten Genehmigung mit sofortiger Wirkung eingestellt, und die personenbezogenen Daten im Zusammenhang mit der Nutzung des Hochrisiko-AI-Systems, für das die Genehmigung beantragt wurde, werden gelöscht. In keinem Fall darf ein solches Hochrisiko-KI-System für die biometrische Identifizierung im Fernverfahren für Strafverfolgungszwecke ungezielt und ohne jeglichen Zusammenhang mit einer Straftat, einem Strafverfahren, einer tatsächlichen und gegenwärtigen oder tatsächlichen und vorhersehbaren Gefahr einer Straftat oder der Suche nach einer bestimmten vermissten Person verwendet werden. Es ist sicherzustellen, dass die Strafverfolgungsbehörden keine Entscheidung mit nachteiligen rechtlichen Folgen für eine Person allein auf der Grundlage der Ergebnisse solcher biometrischen Post-Fern-Identifizierungssysteme treffen können. Dieser Absatz gilt unbeschadet des Artikels 9 der Verordnung (EU) 2016/679 und des Artikels 10 der Richtlinie (EU) 2016/680 für die Verarbeitung biometrischer Daten. Ungeachtet des Zwecks oder des Anwenders wird jede Verwendung solcher KI-Systeme mit hohem Risiko in der einschlägigen Polizeiakte dokumentiert und der zuständigen Marktaufsichtsbehörde und der nationalen Datenschutzbehörde auf Anfrage zur Verfügung gestellt, wobei die Offenlegung sensibler operativer Daten im Zusammenhang mit der Strafverfolgung ausgeschlossen ist. Dieser Unterabsatz berührt nicht die Befugnisse, die den Aufsichtsbehörden durch die Richtlinie (EU) 2016/680 übertragen werden. Die Bereitsteller legen den zuständigen Marktüberwachungs- und nationalen Datenschutzbehörden Jahresberichte über die Verwendung von biometrischen Post-Remote-Identifizierungssystemen vor, mit Ausnahme der Offenlegung sensibler operativer Daten im Zusammenhang mit der Strafverfolgung. Die Berichte können zusammengefasst werden, um mehr als einen Einsatz zu erfassen. Die Mitgliedstaaten können im Einklang mit dem Unionsrecht restriktivere Rechtsvorschriften für den Einsatz biometrischer Identifizierungssysteme im Fernzugriff erlassen.

11. (11) Unbeschadet des Artikels 50 dieser Verordnung unterrichten die Betreiber der in Anhang III genannten KI-Systeme mit hohem Risiko, die Entscheidungen in Bezug auf natürliche Personen treffen oder an solchen Entscheidungen mitwirken, die natürlichen Personen darüber, dass sie dem Einsatz des KI-Systems mit hohem Risiko ausgesetzt sind. Für KI-Systeme mit hohem Risiko, die zu Strafverfolgungszwecken eingesetzt werden, gilt Artikel 13 der Richtlinie (EU) 2016/680.

12. (12) Die Einsatzstellen arbeiten mit den jeweils zuständigen Behörden bei allen Maßnahmen zusammen, die diese Behörden im Zusammenhang mit dem AI-System für hohe Risiken zur Durchführung dieser Verordnung treffen.

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)