Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erstellte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Anhänge

Suche innerhalb des Gesetzes

2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.

Erwägungsgrund 29

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org

KI-gestützte manipulative Techniken können eingesetzt werden, um Personen zu unerwünschten Verhaltensweisen zu bewegen oder sie zu täuschen, indem sie zu Entscheidungen gedrängt werden, die ihre Autonomie, Entscheidungsfreiheit und freie Wahl untergraben und beeinträchtigen. Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung bestimmter KI-Systeme mit dem Ziel oder der Wirkung einer wesentlichen Beeinflussung des menschlichen Verhaltens, wodurch erhebliche Schäden, insbesondere mit hinreichend großen nachteiligen Auswirkungen auf die physische und psychische Gesundheit oder die finanziellen Interessen, entstehen können, sind besonders gefährlich und sollten daher verboten werden. Solche KI-Systeme verwenden unterschwellige Komponenten wie Audio-, Bild- oder Videostimuli, die von Menschen nicht wahrgenommen werden können, da sich diese Stimuli der menschlichen Wahrnehmung entziehen, oder andere manipulative oder täuschende Techniken, die die Autonomie, Entscheidungsfreiheit oder freie Wahl des Menschen in einer Weise untergraben oder beeinträchtigen, dass sich die Menschen dieser Techniken nicht bewusst sind oder, wenn sie sich ihrer bewusst sind, dennoch getäuscht werden können oder nicht in der Lage sind, sie zu kontrollieren oder ihnen zu widerstehen. Dies könnte beispielsweise durch maschinelle Gehirnschnittstellen oder die virtuelle Realität erleichtert werden, da sie ein höheres Maß an Kontrolle darüber ermöglichen, welche Reize dem Menschen präsentiert werden, sofern sie sein Verhalten in erheblichem Maße schädlich beeinflussen können. Darüber hinaus können KI-Systeme auch anderweitig die Schwächen einer Person oder einer bestimmten Personengruppe aufgrund ihres Alters, einer Behinderung im Sinne der Richtlinie (EU) 2019/882 des Europäischen Parlaments und des Rates[16] oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, die diese Personen für Ausbeutung anfälliger macht, wie etwa Personen, die in extremer Armut leben, oder ethnische oder religiöse Minderheiten. Solche KI-Systeme können mit dem Ziel oder der Wirkung in Verkehr gebracht, in Betrieb genommen oder verwendet werden, das Verhalten einer Person wesentlich zu beeinflussen, und zwar in einer Weise, die dieser oder einer anderen Person oder Personengruppe einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird, einschließlich Schäden, die sich im Laufe der Zeit akkumulieren können und daher verboten werden sollten. Unter Umständen kann nicht davon ausgegangen werden, dass die Absicht besteht, das Verhalten zu verzerren, wenn die Verzerrung auf Faktoren außerhalb des KI-Systems zurückzuführen ist, die sich der Kontrolle des Anbieters oder des Einführers entziehen, d. h. auf Faktoren, die möglicherweise nicht vernünftigerweise vorhersehbar sind und die der Anbieter oder der Einführer des KI-Systems daher nicht abmildern kann. In jedem Fall ist es nicht erforderlich, dass der Anbieter oder der Einsetzer die Absicht hat, einen erheblichen Schaden zu verursachen, sofern dieser Schaden aus den manipulativen oder ausbeuterischen KI-gestützten Praktiken resultiert. Die Verbote für solche KI-Praktiken ergänzen die Bestimmungen der Richtlinie 2005/29/EG des Europäischen Parlaments und des Rates[17], insbesondere sind unlautere Geschäftspraktiken, die den Verbrauchern wirtschaftlichen oder finanziellen Schaden zufügen, unter allen Umständen verboten, unabhängig davon, ob sie durch KI-Systeme oder auf andere Weise eingeführt werden. Die in dieser Verordnung enthaltenen Verbote manipulativer und ausbeuterischer Praktiken sollten rechtmäßige Praktiken im Rahmen medizinischer Behandlungen, wie z. B. die psychologische Behandlung einer psychischen Krankheit oder die körperliche Rehabilitation, nicht beeinträchtigen, wenn diese Praktiken im Einklang mit dem geltenden Recht und den medizinischen Standards durchgeführt werden, z. B. mit ausdrücklicher Zustimmung der Betroffenen oder ihrer gesetzlichen Vertreter. Darüber hinaus sollten übliche und rechtmäßige Geschäftspraktiken, z. B. im Bereich der Werbung, die mit dem geltenden Recht in Einklang stehen, nicht als schädliche manipulative KI-gestützte Praktiken angesehen werden.

[16] Richtlinie (EU) 2019/882 des Europäischen Parlaments und des Rates vom 17. April 2019 über die Anforderungen an die Barrierefreiheit von Produkten und Dienstleistungen (ABl. L 151 vom 7.6.2019, S. 70).

[17] Richtlinie 2005/29/EG des Europäischen Parlaments und des Rates vom 11. Mai 2005 über unlautere Geschäftspraktiken im binnenmarktinternen Geschäftsverkehr zwischen Unternehmen und Verbrauchern und zur Änderung der Richtlinie 84/450/EWG des Rates, der Richtlinien 97/7/EG, 98/27/EG und 2002/65/EG des Europäischen Parlaments und des Rates sowie der Verordnung (EG) Nr. 2006/2004 des Europäischen Parlaments und des Rates ("Richtlinie über unlautere Geschäftspraktiken") (ABl. L 149 vom 11.6.2005, S. 22).

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)