Das Risikomanagementsystem sollte aus einem kontinuierlichen, iterativen Prozess bestehen, der während des gesamten Lebenszyklus eines KI-Systems mit hohem Risiko geplant und durchgeführt wird. Dieser Prozess sollte darauf abzielen, die relevanten Risiken von KI-Systemen für Gesundheit, Sicherheit und Grundrechte zu ermitteln und zu mindern. Das Risikomanagementsystem sollte regelmäßig überprüft und aktualisiert werden, um seine kontinuierliche Wirksamkeit sowie die Begründung und Dokumentation aller wichtigen Entscheidungen und Maßnahmen, die gemäß dieser Verordnung getroffen wurden, sicherzustellen. Dieses Verfahren sollte gewährleisten, dass der Anbieter Risiken oder nachteilige Auswirkungen ermittelt und Maßnahmen zur Abschwächung der bekannten und vernünftigerweise vorhersehbaren Risiken von KI-Systemen für die Gesundheit, die Sicherheit und die Grundrechte in Anbetracht ihres Verwendungszwecks und des vernünftigerweise vorhersehbaren Missbrauchs ergreift, einschließlich der möglichen Risiken, die sich aus der Wechselwirkung zwischen dem KI-System und dem Umfeld ergeben, in dem es betrieben wird. Das Risikomanagementsystem sollte die nach dem Stand der Technik in der KI am besten geeigneten Risikomanagementmaßnahmen treffen. Bei der Ermittlung der am besten geeigneten Risikomanagementmaßnahmen sollte der Anbieter die getroffenen Entscheidungen dokumentieren und erläutern und gegebenenfalls Experten und externe Interessengruppen einbeziehen. Bei der Ermittlung des nach vernünftigem Ermessen vorhersehbaren Missbrauchs von KI-Systemen mit hohem Risiko sollte der Anbieter auch Verwendungen von KI-Systemen berücksichtigen, die zwar nicht direkt durch den beabsichtigten Zweck abgedeckt und in der Gebrauchsanweisung vorgesehen sind, von denen jedoch nach vernünftigem Ermessen erwartet werden kann, dass sie sich aus leicht vorhersehbarem menschlichem Verhalten im Zusammenhang mit den spezifischen Merkmalen und der Verwendung eines bestimmten KI-Systems ergeben. Alle bekannten oder vorhersehbaren Umstände im Zusammenhang mit der bestimmungsgemäßen Verwendung des KI-Systems mit hohem Risiko oder unter Bedingungen eines vernünftigerweise vorhersehbaren Missbrauchs, die zu Risiken für die Gesundheit und Sicherheit oder die Grundrechte führen können, sollten in die vom Anbieter bereitgestellte Gebrauchsanweisung aufgenommen werden. Damit soll sichergestellt werden, dass der Anwender sich dieser Risiken bewusst ist und sie bei der Nutzung des risikoreichen KI-Systems berücksichtigt. Die Ermittlung und Umsetzung von Maßnahmen zur Risikominderung bei vorhersehbarem Missbrauch im Rahmen dieser Verordnung sollte keine spezielle zusätzliche Schulung für das Hochrisiko-KI-System durch den Anbieter erfordern, um den vorhersehbaren Missbrauch anzugehen. Die Anbieter werden jedoch ermutigt, solche zusätzlichen Schulungsmaßnahmen in Betracht zu ziehen, um vorhersehbare Missbräuche in angemessener Weise abzumildern, sofern dies notwendig und angemessen ist.
Inhaltsübersicht
Abschnitt 1: Einstufung von KI-Systemen als hochriskant
Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko
Artikel 7: Änderungen des Anhangs III
Abschnitt 2: Anforderungen an hochriskante KI-Systeme
Artikel 8: Erfüllung der Anforderungen
Artikel 9: Risikomanagementsystem
Artikel 10: Daten und Datenverwaltung
Artikel 11: Technische Dokumentation
Artikel 12: Aufbewahrung der Aufzeichnungen
Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte
Artikel 14: Menschliche Aufsichtsbehörden
Artikel 15: Genauigkeit, Robustheit und Cybersicherheit
Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko
Artikel 17: Qualitätsmanagementsystem
Artikel 18: Führung der Dokumentation
Artikel 19: Automatisch erstellte Protokolle
Artikel 20: Abhilfemaßnahmen und Informationspflicht
Artikel 21: Zusammenarbeit mit den zuständigen Behörden
Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial
Artikel 23: Pflichten der Importeure
Artikel 24: Pflichten des Händlers
Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette
Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko
Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme
Abschnitt 4: Notifizierende Behörden und benannte Stellen
Artikel 28: Notifizierende Behörden
Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung
Artikel 30: Notifizierungsverfahren
Artikel 31: Anforderungen an die benannten Stellen
Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen
Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen
Artikel 34: Operative Verpflichtungen der benannten Stellen
Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen
Artikel 36: Änderungen der Notifizierungen
Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen
Artikel 38: Koordinierung der benannten Stellen
Artikel 39: Konformitätsbewertungsstellen von Drittländern
Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung
Artikel 40: Harmonisierte Normen und Normungsdokumente
Artikel 41: Gemeinsame Spezifikationen
Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen
Artikel 43: Konformitätsbewertung
Artikel 45: Informationsverpflichtungen der benannten Stellen
Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren
Abschnitt 1: Einstufungsregeln
Abschnitt 2: Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke
Artikel 53: Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke
Abschnitt 3: Verpflichtungen für Anbieter von KI-Allzweckmodellen mit systemischen Risiko
Artikel 57: Regulierungssandkästen für KI
Artikel 58: Modalitäten und Funktionsweise von Sandkästen für KI-Regulierung
Artikel 62: Maßnahmen für Anbieter und Verleiher, insbesondere für KMU, einschließlich Start-Ups
Artikel 63: Ausnahmeregelungen für bestimmte Wirtschaftsbeteiligte
Abschnitt 1: Governance auf Unionsebene
Artikel 65: Einrichtung und Struktur des Europäischen Rats für künstliche Intelligenz
Artikel 66: Aufgaben des Verwaltungsrats
Artikel 68: Wissenschaftliches Gremium unabhängiger Sachverständiger
Artikel 69: Zugang der Mitgliedstaaten zum Sachverständigenpool
Abschnitt 2: Zuständige nationale Behörden
Artikel 70: Benennung der zuständigen nationalen Behörden und des einheitlichen Ansprechpartners
Abschnitt 1: Überwachung nach dem Inverkehrbringen
Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle
Artikel 73: Meldung schwerwiegender Vorkommnisse
Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt
Artikel 76: Überwachung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden
Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte
Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen
Artikel 81: Schutzklauselverfahren der Union
Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen
Artikel 83: Formale Nichteinhaltung
Artikel 84: Union AI Testing Support Structures
Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde
Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung
Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen
Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke
Artikel 89 : Überwachungsmaßnahmen
Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium
Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen
Artikel 92: Befugnis zur Durchführung von Evaluierungen
Artikel 93: Befugnis, Maßnahmen zu beantragen
Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke
Artikel 95: Verhaltenskodizes für die freiwillige Anwendung von spezifischen Anforderungen
Artikel 96: Leitlinien der Kommission für die Durchführung dieser Verordnung
Artikel 100: Verwaltungsgeldbußen gegen Organe, Agenturen und Einrichtungen der Union
Artikel 101: Geldbußen für Anbieter von KI-Modellen für allgemeine Zwecke
Artikel 102: Änderung der Verordnung (EG) Nr. 300/2008
Artikel 103: Änderung der Verordnung (EU) Nr. 167/2013
Artikel 104: Änderung der Verordnung (EU) Nr. 168/2013
Artikel 105: Änderung der Richtlinie 2014/90/EU
Artikel 106: Änderung der Richtlinie (EU) 2016/797
Artikel 107: Änderung der Verordnung (EU) 2018/858
Artikel 108: Änderung der Verordnung (EU) 2018/1139
Artikel 109: Änderung der Verordnung (EU) 2019/2144
Artikel 110: Änderung der Richtlinie (EU) 2020/1828
Artikel 111: Bereits in Verkehr gebrachte oder in Betrieb genommene KI-Systeme
Anhänge
Anhang I: Liste der Harmonisierungsrechtsvorschriften der Union
Anhang II: Liste der Straftatbestände
Anhang III: Hochriskante AI-Systeme
Anhang IV: Technische Dokumentation
Anhang V: EU-Konformitätserklärung
Anhang VI: Konformitätsbewertungsverfahren auf der Grundlage der internen Kontrolle
Anhang VII: Konformität aufgrund der Bewertung des Qualitätsmanagementsystems und der Bewertung der technischen Dokumentation
Anhang VIII: Informationen, die bei der Registrierung von AI-Systemen mit hohem Risiko vorzulegen sind
Anhang IX: Informationen, die bei der Registrierung von AI-Systemen mit hohem Risiko vorzulegen sind
Anhang X: Rechtsvorschriften der Union über IT-Großsysteme im Raum der Freiheit, der Sicherheit und des Rechts
Anhang XI: Technische Unterlagen gemäß Artikel 53 Absatz 1a
Anhang XII: Transparenzinformationen gemäß Artikel 53 Absatz 1b
Anhang XIII: Kriterien für die Bestimmung von AI-Modellen für allgemeine Zwecke mit systemischem Risiko
Suche innerhalb des Gesetzes
2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.
Erwägungsgrund 65
Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org
Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)