Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erzeugte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen der benannten Stellen und Vergabe von Unteraufträgen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch die Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren auf nationaler Ebene für den Umgang mit KI-Systemen, die ein Risiko darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz von Personen, die Verstöße melden

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Erwägungsgründe

Anhänge

Suche innerhalb des Gesetzes

Artikel 50: Transparenzverpflichtungen für Anbieter und Betreiber von bestimmten KI-Systemen

Datum des Inkrafttretens:

2. August 2026

Laut:

Artikel 113

Einen vollständigen Zeitplan für die Umsetzung finden Sie hier.

Zusammenfassung

In diesem Artikel heißt es, dass Unternehmen die Nutzer informieren müssen, wenn sie mit einem KI-System interagieren, es sei denn, es ist offensichtlich oder die KI wird für legale Zwecke wie die Verbrechensaufdeckung eingesetzt. KI-Systeme, die synthetische Inhalte erstellen (wie Deepfakes), müssen ihre Ergebnisse als künstlich erzeugt kennzeichnen. Unternehmen müssen die Nutzer auch informieren, wenn sie KI zur Erkennung von Emotionen oder zur biometrischen Kategorisierung einsetzen, es sei denn, dies geschieht zu legalen Zwecken. Wenn ein KI-System Inhalte erstellt oder verändert, muss das Unternehmen dies offenlegen, es sei denn, es handelt sich um legale Zwecke oder um künstlerische oder satirische Inhalte. Das KI-Büro wird dazu beitragen, Leitlinien für die Erkennung und Kennzeichnung künstlich erzeugter Inhalte zu erstellen.

Generiert von CLaiRK, bearbeitet von uns.

HINWEIS: Diese Übersetzung ist eine maschinell erstellte Übersetzung. Es handelt sich nicht um die offizielle Übersetzung, die vom Europäischen Parlament bereitgestellt wird. Wenn das AI-Gesetz im Amtsblatt veröffentlicht wird, werden die maschinell erstellten Übersetzungen durch die offiziellen Übersetzungen ersetzt.

1. (1) Die Anbieter stellen sicher, dass KI-Systeme, die für eine direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen darüber informiert werden, dass sie mit einem KI-System interagieren, es sei denn, dies ist aus der Sicht einer natürlichen Person, die unter Berücksichtigung der Umstände und des Nutzungskontexts angemessen informiert, aufmerksam und umsichtig ist, offensichtlich. Diese Verpflichtung gilt nicht für KI-Systeme, die gesetzlich zur Aufdeckung, Verhütung, Untersuchung oder Verfolgung von Straftaten zugelassen sind, vorbehaltlich angemessener Garantien für die Rechte und Freiheiten Dritter, es sei denn, diese Systeme stehen der Öffentlichkeit zur Verfügung, um eine Straftat zu melden. Verwandt: Erwägungsgrund 132

2. Die Anbieter von KI-Systemen, einschließlich KI-Systemen für allgemeine Zwecke, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet sind und als künstlich erzeugt oder manipuliert erkannt werden können. Die Anbieter stellen sicher, dass ihre technischen Lösungen wirksam, interoperabel, robust und zuverlässig sind, soweit dies technisch machbar ist, wobei die Besonderheiten und Beschränkungen der verschiedenen Arten von Inhalten, die Kosten der Implementierung und der allgemein anerkannte Stand der Technik, wie er in den einschlägigen technischen Normen zum Ausdruck kommen kann, zu berücksichtigen sind. Diese Verpflichtung gilt nicht, soweit die KI-Systeme eine Hilfsfunktion für die Standardredaktion erfüllen oder die vom Anwender bereitgestellten Eingabedaten oder deren Semantik nicht wesentlich verändern, oder soweit sie gesetzlich zur Aufdeckung, Verhütung, Untersuchung oder Verfolgung von Straftaten zugelassen sind. Verwandt: Erwägungsgrund 133

3. (3) Die Betreiber eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung unterrichten die betroffenen natürlichen Personen über den Betrieb des Systems und verarbeiten die personenbezogenen Daten im Einklang mit den Verordnungen (EU) 2016/679 und (EU) 2018/1725 sowie der Richtlinie (EU) 2016/680, soweit anwendbar. Diese Verpflichtung gilt nicht für KI-Systeme, die zur biometrischen Kategorisierung und Emotionserkennung eingesetzt werden und die vorbehaltlich angemessener Garantien für die Rechte und Freiheiten Dritter und im Einklang mit dem Unionsrecht gesetzlich zur Aufdeckung, Verhütung oder Untersuchung von Straftaten zulässig sind. Verwandt: Erwägungsgrund 132

4. Wer ein KI-System einsetzt, das Bild-, Audio- oder Videoinhalte erzeugt oder manipuliert, die einen Deep Fake darstellen, muss offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Diese Verpflichtung gilt nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung oder Verfolgung von Straftaten gesetzlich zugelassen ist. Ist der Inhalt Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder analogen Werks oder Programms, so beschränken sich die in diesem Absatz genannten Transparenzverpflichtungen auf die Offenlegung des Vorhandenseins eines solchen künstlich erzeugten oder manipulierten Inhalts in einer angemessenen Weise, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt. Wer ein KI-System einsetzt, das Text generiert oder manipuliert, der zu dem Zweck veröffentlicht wird, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, muss offenlegen, dass der Text künstlich generiert oder manipuliert wurde. Diese Verpflichtung gilt nicht, wenn die Nutzung gesetzlich erlaubt ist, um Straftaten aufzudecken, zu verhindern, zu untersuchen oder strafrechtlich zu verfolgen, oder wenn die KI-generierten Inhalte einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung der Inhalte trägt. Verwandt: Erwägungsgrund 134

5. (5) Die in den Absätzen 1 bis 4 genannten Informationen werden den betroffenen natürlichen Personen spätestens zum Zeitpunkt der ersten Interaktion oder Exposition in klarer und erkennbarer Weise zur Verfügung gestellt. Die Informationen müssen den geltenden Anforderungen an die Zugänglichkeit entsprechen.

6. (5) Die Absätze 1 bis 4 berühren nicht die in Kapitel III festgelegten Anforderungen und Verpflichtungen und lassen andere Transparenzverpflichtungen unberührt, die im Unionsrecht oder im nationalen Recht für Betreiber von KI-Systemen festgelegt sind.

7. Das AI-Büro fördert und erleichtert die Ausarbeitung von Verhaltenskodizes auf Unionsebene, um die wirksame Umsetzung der Verpflichtungen zur Erkennung und Kennzeichnung künstlich erzeugter oder manipulierter Inhalte zu erleichtern. Die Kommission kann Durchführungsrechtsakte erlassen, um diese Verhaltenskodizes nach dem Verfahren des Artikels 56 Absatz 6 zu genehmigen. Hält sie den Kodex nicht für angemessen, kann die Kommission einen Durchführungsrechtsakt zur Festlegung gemeinsamer Regeln für die Umsetzung dieser Verpflichtungen nach dem Prüfverfahren des Artikels 98 Absatz 2 erlassen. Verwandt: Erwägungsgrund 135

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Taylor Jones unter taylor@futureoflife.org

Sehen Sie sich den offiziellen Text an, oder durchsuchen Sie ihn online mit unserem AI Act Explorer. Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz (Verordnung (EU) 2024/1689), Fassung des Amtsblatts vom 13. Juni 2024". Interinstitutionelle Akte: 2021/0106(COD)