Es ist auch wichtig klarzustellen, dass es besondere Fälle geben kann, in denen KI-Systeme, die in den in dieser Verordnung festgelegten Bereichen genannt werden, nicht zu einem erheblichen Risiko einer Beeinträchtigung der in diesen Bereichen geschützten Rechtsgüter führen, weil sie die Entscheidungsfindung nicht wesentlich beeinflussen oder diese Interessen nicht wesentlich beeinträchtigen. Für die Zwecke dieser Verordnung sollte unter einem KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, ein KI-System verstanden werden, das keine Auswirkungen auf den Inhalt und damit das Ergebnis der menschlichen oder automatisierten Entscheidungsfindung hat. Ein KI-System, das das Ergebnis der Entscheidungsfindung nicht wesentlich beeinflusst, könnte Situationen umfassen, in denen eine oder mehrere der folgenden Bedingungen erfüllt sind. Die erste Bedingung sollte darin bestehen, dass das KI-System eine enge verfahrenstechnische Aufgabe erfüllen soll, z. B. ein KI-System, das unstrukturierte Daten in strukturierte Daten umwandelt, ein KI-System, das eingehende Dokumente in Kategorien einordnet, oder ein KI-System, das dazu dient, Duplikate in einer großen Zahl von Anwendungen zu erkennen. Diese Aufgaben sind so eng gefasst und begrenzt, dass sie nur begrenzte Risiken mit sich bringen, die durch den Einsatz eines KI-Systems in einem Kontext, der in einem Anhang zu dieser Verordnung als risikoreiche Verwendung aufgeführt ist, nicht erhöht werden. Die zweite Bedingung sollte sein, dass die von dem KI-System ausgeführte Aufgabe dazu dient, das Ergebnis einer zuvor ausgeführten menschlichen Tätigkeit zu verbessern, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten Verwendungen mit hohem Risiko relevant sein kann. In Anbetracht dieser Merkmale stellt das KI-System lediglich eine zusätzliche Ebene zu einer menschlichen Tätigkeit dar, die folglich ein geringeres Risiko birgt. Diese Bedingung würde beispielsweise für KI-Systeme gelten, die dazu bestimmt sind, die Sprache in bereits verfassten Dokumenten zu verbessern, z. B. in Bezug auf einen professionellen Ton, einen akademischen Sprachstil oder durch die Anpassung des Textes an eine bestimmte Markenbotschaft. Die dritte Bedingung sollte sein, dass das KI-System dazu dient, Entscheidungsmuster oder Abweichungen von früheren Entscheidungsmustern zu erkennen. Das Risiko wäre geringer, weil der Einsatz des KI-Systems auf eine zuvor abgeschlossene menschliche Bewertung folgt, die es nicht ersetzen oder beeinflussen soll, ohne dass eine angemessene menschliche Überprüfung stattfindet. Zu solchen KI-Systemen gehören beispielsweise solche, die bei einem bestimmten Benotungsmuster eines Lehrers dazu verwendet werden können, nachträglich zu prüfen, ob der Lehrer möglicherweise von dem Benotungsmuster abgewichen ist, um mögliche Unstimmigkeiten oder Anomalien aufzuzeigen. Die vierte Bedingung sollte darin bestehen, dass das KI-System eine Aufgabe erfüllen soll, die lediglich der Vorbereitung einer Bewertung dient, die für die Zwecke der in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme relevant ist, so dass die möglichen Auswirkungen der Ergebnisse des Systems im Hinblick auf ein Risiko für die nachfolgende Bewertung sehr gering sind. Diese Bedingung gilt unter anderem für intelligente Lösungen für die Dateibearbeitung, die verschiedene Funktionen wie Indexierung, Suche, Text- und Sprachverarbeitung oder Verknüpfung von Daten mit anderen Datenquellen umfassen, oder für KI-Systeme, die für die Übersetzung von Ausgangsdokumenten verwendet werden. In jedem Fall sollte bei KI-Systemen, die in den in einem Anhang zu dieser Verordnung aufgeführten Anwendungsfällen mit hohem Risiko eingesetzt werden, davon ausgegangen werden, dass sie erhebliche Risiken für die Gesundheit, die Sicherheit oder die Grundrechte bergen, wenn das KI-System ein Profiling im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679 oder Artikel 3 Nummer 4 der Richtlinie (EU) 2016/680 oder Artikel 3 Nummer 5 der Verordnung (EU) 2018/1725 impliziert. Um Rückverfolgbarkeit und Transparenz zu gewährleisten, sollte ein Anbieter, der ein KI-System auf der Grundlage der oben genannten Bedingungen als nicht risikobehaftet einstuft, eine Dokumentation der Bewertung erstellen, bevor dieses System in Verkehr gebracht oder in Betrieb genommen wird, und diese Dokumentation den zuständigen nationalen Behörden auf Anfrage vorlegen. Ein solcher Anbieter sollte verpflichtet sein, das AI-System in der gemäß dieser Verordnung eingerichteten EU-Datenbank zu registrieren. Um weitere Orientierungshilfen für die praktische Umsetzung der Bedingungen zu geben, unter denen die in einem Anhang zu dieser Verordnung aufgeführten KI-Systeme ausnahmsweise kein hohes Risiko darstellen, sollte die Kommission nach Anhörung des Beirats Leitlinien für die praktische Umsetzung vorlegen, die durch eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen, die ein hohes Risiko darstellen, und für Anwendungsfälle, die kein hohes Risiko darstellen, ergänzt werden.
Inhaltsübersicht
Abschnitt 1: Einstufung von KI-Systemen als hochriskant
Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko
Artikel 7: Änderungen des Anhangs III
Abschnitt 2: Anforderungen an hochriskante KI-Systeme
Artikel 8: Erfüllung der Anforderungen
Artikel 9: Risikomanagementsystem
Artikel 10: Daten und Datenverwaltung
Artikel 11: Technische Dokumentation
Artikel 12: Aufbewahrung der Aufzeichnungen
Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte
Artikel 14: Menschliche Aufsichtsbehörden
Artikel 15: Genauigkeit, Robustheit und Cybersicherheit
Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko
Artikel 17: Qualitätsmanagementsystem
Artikel 18: Führung der Dokumentation
Artikel 19: Automatisch erzeugte Protokolle
Artikel 20: Abhilfemaßnahmen und Informationspflicht
Artikel 21: Zusammenarbeit mit den zuständigen Behörden
Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial
Artikel 23: Pflichten der Importeure
Artikel 24: Pflichten des Händlers
Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette
Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko
Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme
Abschnitt 4: Notifizierende Behörden und benannte Stellen
Artikel 28: Notifizierende Behörden
Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung
Artikel 30: Notifizierungsverfahren
Artikel 31: Anforderungen an die benannten Stellen
Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen
Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen
Artikel 34: Operative Verpflichtungen der benannten Stellen
Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen
Artikel 36: Änderungen der Notifizierungen
Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen
Artikel 38: Koordinierung der benannten Stellen
Artikel 39: Konformitätsbewertungsstellen von Drittländern
Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung
Artikel 40: Harmonisierte Normen und Normungsdokumente
Artikel 41: Gemeinsame Spezifikationen
Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen
Artikel 43: Konformitätsbewertung
Artikel 45: Informationsverpflichtungen der benannten Stellen
Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren
Abschnitt 1: Einstufungsregeln
Abschnitt 2: Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke
Artikel 53: Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke
Artikel 54: Bevollmächtigte Vertreter von Anbietern von KI-Modellen für allgemeine Zwecke
Abschnitt 3: Pflichten der Anbieter von KI-Modellen für allgemeine Zwecke mit systemischem Risiko
Artikel 57: Regulierungssandkästen für KI
Artikel 58: Detaillierte Vorkehrungen für KI-Regulierungssandkästen und deren Funktionsweise
Artikel 62: Maßnahmen für Anbieter und Verleiher, insbesondere für KMU, einschließlich Start-Ups
Artikel 63: Ausnahmeregelungen für bestimmte Marktteilnehmer
Abschnitt 1: Governance auf Unionsebene
Artikel 65: Einrichtung und Struktur des Europäischen Rats für künstliche Intelligenz
Artikel 66: Aufgaben des Verwaltungsrats
Artikel 68: Wissenschaftliches Gremium aus unabhängigen Sachverständigen
Artikel 69: Zugang der Mitgliedstaaten zum Sachverständigenpool
Abschnitt 2: Zuständige nationale Behörden
Artikel 70: Benennung der zuständigen nationalen Behörden und des einheitlichen Ansprechpartners
Abschnitt 1: Überwachung nach dem Inverkehrbringen
Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle
Artikel 73: Meldung schwerwiegender Vorkommnisse
Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt
Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden
Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte
Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen
Artikel 81: Schutzklauselverfahren der Union
Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen
Artikel 83: Formale Nichteinhaltung
Artikel 84: Union AI Testing Support Structures
Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde
Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung
Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden
Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke
Artikel 89 : Überwachungsmaßnahmen
Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium
Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen
Artikel 92: Befugnis zur Durchführung von Evaluierungen
Artikel 93: Befugnis, Maßnahmen zu beantragen
Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke
Artikel 95: Verhaltenskodizes für die freiwillige Anwendung von spezifischen Anforderungen
Artikel 96: Leitlinien der Kommission für die Durchführung dieser Verordnung
Artikel 100: Geldbußen gegen Organe, Einrichtungen, Ämter und Agenturen der Union
Artikel 101: Geldbußen für Anbieter von KI-Modellen für allgemeine Zwecke
Artikel 102: Änderung der Verordnung (EG) Nr. 300/2008
Artikel 103: Änderung der Verordnung (EU) Nr. 167/2013
Artikel 104: Änderung der Verordnung (EU) Nr. 168/2013
Artikel 105: Änderung der Richtlinie 2014/90/EU
Artikel 106: Änderung der Richtlinie (EU) 2016/797
Artikel 107: Änderung der Verordnung (EU) 2018/858
Artikel 108: Änderungen der Verordnung (EU) 2018/1139
Artikel 109: Änderung der Verordnung (EU) 2019/2144
Artikel 110: Änderung der Richtlinie (EU) 2020/1828
Erwägungsgründe
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
Anhänge
Anhang I: Liste der Harmonisierungsrechtsvorschriften der Union
Anhang II: Liste der in Artikel 5 Absatz 1 Unterabsatz 1 Buchstabe h Ziffer iii genannten Straftaten
Anhang III: In Artikel 6 Absatz 2 genannte AI-Systeme mit hohem Risiko
Anhang IV: Technische Unterlagen gemäß Artikel 11 Absatz 1
Anhang V: EU-Konformitätserklärung
Anhang VI: Konformitätsbewertungsverfahren auf der Grundlage der internen Kontrolle
Anhang X: Gesetzgebungsakte der Union über IT-Großsysteme im Bereich Freiheit, Sicherheit und Recht
Suche innerhalb des Gesetzes
Erwägungsgrund 53
HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.
Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org
Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)