Die Transparenzvorschriften des EU-KI-Gesetzes: Ein praktischer Leitfaden zu Artikel 50

14. Mai 2026

Was Anbieter und Betreiber bis August 2026 tun müssen

Artikel 50 des EU-KI-Gesetzes dürfte mehr Organisationen betreffen als fast jede andere Bestimmung. Er führt Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme ein, wonach Nutzer darüber informiert werden müssen, wenn sie mit einem KI-System interagieren oder wenn Inhalte durch KI generiert wurden. Diese Pflichten gelten auch für Anbieter und Betreiber von Open-Source-KI-Systemen, die davon nicht ausgenommen sind.

Die Transparenzpflichten beschränken sich nicht auf Systeme, die als „risikoreich“ eingestuft werden: Sie gelten für jedes KI-System, das in den vier in diesem Artikel genannten Situationen eingesetzt wird. In der Praxis ist Artikel 50 für jedes Unternehmen relevant, das generative KI zur Erstellung von Inhalten nutzt. Hier erfahren Sie, was Sie vor Ablauf der Frist im August 2026 wissen müssen.

Zusammenfassung

Artikel 50 des EU-KI-Gesetzes führt in vier Fällen Transparenzpflichten ein:

  1. wenn KI direkt mit Menschen interagiert,
  2. wenn KI synthetische Inhalte generiert,
  3. wenn KI zur Erkennung von Emotionen oder zur biometrischen Klassifizierung eingesetzt wird, und
  4. wenn KI Deepfakes erstellt oder Texte zu Themen von öffentlichem Interesse veröffentlicht.

Diese Verpflichtungen gelten für alle KI-Systeme, die in den vier in Artikel 50 genannten Situationen eingesetzt werden, und nicht nur für Systeme mit hohem Risiko.

Diese Verpflichtungen gelten ab dem 2. August 2026. Die Kommission hat einen Entwurf für Leitlinien zum Geltungsbereich und zur Anwendung von Artikel 50 veröffentlicht, und derzeit wird ein Verhaltenskodex für KI-generierte Inhalte erarbeitet, der praktische Lösungen für die Kennzeichnung und Ausweisung bieten soll.

Regeln für Anbieter:

Anbieter von Chatbots, virtuellen Assistenten und anderen Systemen, die für die Interaktion mit Menschen bestimmt sind, müssen diese so gestalten, dass die Nutzer darüber informiert werden, dass sie mit einer KI interagieren.

Anbieter generativer KI-Systemedie Texte, Bilder, Audio- und Videodateien erzeugen – müssen die Ergebnisse in einem maschinenlesbaren Format kennzeichnen und sicherstellen, dass sie als künstlich erzeugt oder manipuliert erkennbar sind. Derzeit wird ein standardisiertes EU-Kennzeichen entwickelt.

Regeln für Bereitsteller:

Betreiber von Systemen zur Emotionserkennung oder biometrischen Klassifizierung müssen die betroffenen Personen darüber informieren.

Anbieter, die Deepfakes mithilfe von KI erstellen, müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden. Anbieter, die KI-generierte Texte veröffentlichen, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, müssen offenlegen, dass der Text KI-generiert ist, es sei denn, er wurde einer menschlichen Überprüfung unterzogen und unterliegt redaktioneller Verantwortung.

Warum Artikel 50 wichtig ist

Ein Großteil des KI-Gesetzes konzentriert sich auf KI-Systeme mit hohem Risiko, einschließlich Konformitätsbewertungen, technischer Dokumentation und Anforderungen an die CE-Kennzeichnung. Der Status „hohes Risiko“ gilt jedoch nur für einen Teilbereich der KI-Anwendungen.

Artikel 50 funktioniert anders. Seine Transparenzpflichten gelten allgemein für jedes KI-System, das in den vier darin genannten Situationen eingesetzt wird. Eine Organisation, die keine risikoreiche KI einsetzt, kann dennoch erheblichen Verpflichtungen gemäß Artikel 50 unterliegen: beispielsweise weil sie einen Chatbot für den Kundenkontakt entwickelt, ein KI-Tool einsetzt, das Nachrichteninhalte zur Veröffentlichung generiert, oder auf ein System zurückgreift, das Deepfake-Bilder erzeugt.

Unsere Daten aus dem Compliance Checker zeigen, dass Transparenzpflichten nach KI-Kompetenz der zweithäufigste Auslöser für Compliance-Anforderungen sind und rund 33 % aller Befragten betreffen (Stand: Zeitpunkt der Veröffentlichung). Für viele Organisationen wird Artikel 50 die größte Herausforderung im Bereich Compliance darstellen.


Die vier Transparenzpflichten

1. Information der Nutzer darüber, dass sie mit einer KI interagieren (Artikel 50 Absatz 1)

Wenn ein KI-System dazu bestimmt ist, direkt mit Menschen zu interagieren (wie beispielsweise Chatbots, virtuelle Assistenten und automatisierte Telefonsysteme), muss der Anbieter es so konzipieren und entwickeln, dass die Nutzer darüber informiert werden, dass sie mit einer KI interagieren. Der Leitlinienentwurf bestätigt, dass KI-Agenten unter Artikel 50 Absatz 1 fallen, und wenn der Anbieter nicht zuverlässig vorhersagen kann, ob der Agent mit einem Menschen interagieren wird, sollte das System so gestaltet sein, dass es in jeder solchen Situation seinen KI-Charakter offenlegt.

Es gibt eine Ausnahme, bei der es „aus der Sicht einer durchschnittlich informierten, aufmerksamen und umsichtigen natürlichen Person offensichtlich“ ist, dass eine KI im Spiel ist – doch sollte man sich nicht zu sehr darauf verlassen. Der Leitlinienentwurf sieht hierfür ein zweistufiges Vorgehen vor: Zunächst ist die Zielgruppe zu ermitteln, und anschließend ist zu prüfen, wie gut informiert, aufmerksam und umsichtig ein durchschnittliches Mitglied dieser Gruppe ist.

Eine Ausnahme gilt auch für KI-Systeme, die rechtmäßig zur Aufdeckung, Verhinderung, Ermittlung oder Verfolgung von Straftaten zugelassen sind, es sei denn, diese Systeme stehen der Öffentlichkeit zur Meldung von Straftaten zur Verfügung.

2. Kennzeichnung von durch KI erzeugten synthetischen Inhalten (Artikel 50 Absatz 2)

Anbieter von KI-Systemen (einschließlich Allzweck-KI-Systemen), die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen sicherstellen, dass die Ergebnisse sowohl in einem maschinenlesbaren Format gekennzeichnet als auch als KI-generiert erkennbar sind. Hierbei handelt es sich um eine technische Verpflichtung, die der Rückverfolgbarkeit dient: Sie soll es Erkennungswerkzeugen ermöglichen, zu überprüfen, ob Inhalte KI-generiert sind.

Die konkreten technischen Standards für diese Kennzeichnung werden im Rahmen des Verhaltenskodexes und ergänzender EU-Normungsarbeiten entwickelt. Anbieter sollten diese Entwicklungen aufmerksam verfolgen, da die praktischen Einzelheiten der Umsetzung bis August 2026 noch endgültig festgelegt werden.

Diese Verpflichtung gilt nicht, wenn das KI-System lediglich eine unterstützende Funktion bei der Standardbearbeitung (z. B. Grammatikkorrektur) erfüllt oder wenn es die Eingabedaten oder deren Semantik nicht wesentlich verändert. Eine Ausnahme gilt auch für Systeme, die gesetzlich zur Aufdeckung, Verhinderung, Ermittlung oder Verfolgung von Straftaten zugelassen sind.

3. Offenlegung der Emotionserkennung und biometrischen Kategorisierung (Artikel 50 Absatz 3)

Wird ein KI-System speziell dazu eingesetzt, die Emotionen von Personen zu erkennen oder diese biometrisch zu kategorisieren (beispielsweise zur Beurteilung von Stress, Stimmungslage oder demografischen Merkmalen), müssen die Betreiber die davon betroffenen natürlichen Personen darüber informieren. Die Verarbeitung muss den sonstigen geltenden Rechtsvorschriften entsprechen, insbesondere der Datenschutz-Grundverordnung.

Diese Verpflichtung unterscheidet sich von dem bereits geltenden Verbot der Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen gemäß Artikel 5. Außerhalb dieser Bereiche ist die Emotionserkennung grundsätzlich zulässig, und es gelten die Informationspflichten nach Artikel 50 Absatz 3. Eine Ausnahme gilt für Systeme, die gesetzlich zur Aufdeckung, Verhinderung oder Aufklärung von Straftaten zugelassen sind.

4. Kennzeichnung von Deepfakes und KI-generierten Texten von öffentlichem Interesse (Artikel 50 Absatz 4)

Dies ist der am meisten diskutierte Teil von Artikel 50. Er erlegt den Betreibern (in diesem Zusammenhang häufig dem Herausgeber oder dem Produzenten von Inhalten, der KI-Systeme nutzt) Verpflichtungen auf und umfasst zwei unterschiedliche Fälle:

Deepfakes. Anbieter, die KI zur Erstellung von Deepfakes nutzen (gemäß Artikel 3 Absatz 60 definiert als KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die bestehenden Personen, Objekten, Orten, Einrichtungen oder Ereignissen ähneln und fälschlicherweise authentisch oder wahrhaftig erscheinen), müssen dies offenlegen. Der Leitlinienentwurf stellt klar, dass eindeutig fantastische oder physikalisch unmögliche Inhalte (z. B. Drachen oder Menschen, die ohne Hilfe fliegen) nicht unter die Definition von Deepfakes fallen. Zu den vorgeschlagenen Ansätzen gehören dauerhafte visuelle Kennzeichnungen, einleitende Haftungsausschlüsse bei Videos und akustische Warnhinweise bei Audioinhalten. Wenn Deepfake-Inhalte Teil eines offensichtlich künstlerischen, kreativen, satirischen, fiktionalen oder ähnlichen Werks oder Programms sind, ist die Offenlegungspflicht eingeschränkt: Sie beschränkt sich darauf, die Existenz der generierten oder manipulierten Inhalte „in einer angemessenen Weise, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt“, offenzulegen.

Diese Verpflichtung gilt jedoch nicht, wenn die Nutzung gesetzlich zur Aufdeckung, Verhinderung, Ermittlung oder Verfolgung von Straftaten zulässig ist.

KI-generierte Texte, die zu Themen von öffentlichem Interesse veröffentlicht werden. Wenn Anbieter KI-generierte oder manipulierte Texte veröffentlichen, um die Öffentlichkeit über Themen von öffentlichem Interesse zu informieren, müssen sie offenlegen, dass der Text künstlich generiert oder manipuliert wurde. Ausschlaggebend ist dabei der Zweck des Herausgebers, nicht lediglich der Inhalt. Die Verpflichtung gilt nicht, wenn der KI-generierte Inhalt einer menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurde und eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung trägt. Solche Überprüfungen müssen inhaltlich fundiert sein und dürfen sich nicht auf oberflächliche Aspekte oder eine flüchtige Genehmigung beschränken.


Einzelheiten zu den vorzulegenden Informationen

Dieser Hinweis bezüglich der Nutzung von KI in diesen vier Fällen muss spätestens zum Zeitpunkt der ersten Interaktion oder der ersten Konfrontation erteilt werden (mit anderen Worten: vor oder während der ersten Interaktion oder der ersten Konfrontation). Beispielsweise muss bei einem KI-Chatbot dieser Hinweis vor oder zu Beginn des Gesprächs erteilt werden; bei einem KI-generierten Audio- oder Videoclip muss der Hinweis zu Beginn des Clips erteilt werden. In einigen sensiblen Kontexten kann eine einmalige Offenlegung unzureichend sein, sodass sie möglicherweise wiederholt werden muss.

Sie muss klar und deutlich vermittelt werden und den geltenden Anforderungen an die Barrierefreiheit entsprechen. Was dies in der Praxis bedeutet, hängt stark vom jeweiligen Kontext ab, einschließlich der Art des Mediums und des Anwendungsfalls. Es ist einfacher, das Gegenteil zu beschreiben und zu erläutern, was nicht als klar und deutlich gilt: ein sehr kleiner Textausschnitt, der in der Fußzeile einer Website versteckt ist; eine kaum erkennbare Beschriftung auf einem Bild; eine kurze Beschriftung, die nur für einen Augenblick in einem Videoclip aufblitzt. Ebenso erfüllen in den AGB versteckte Hinweise oder vage Beschriftungen die Anforderungen nicht.

Leitlinien der Kommission

Die Kommission hat einen Entwurf für Leitlinien zu Artikel 50 zur Konsultation der Interessengruppen veröffentlicht, der eine praktische Auslegung des Anwendungsbereichs, der Begriffsbestimmungen, der Ausnahmen und der übergreifenden Fragen enthält. Eine endgültige Fassung wird voraussichtlich noch vor Ablauf der Frist im August 2026 vorliegen.

Verhaltenskodex für KI-generierte Inhalte

Die Europäische Kommission hat Ende 2025 mit der Ausarbeitung eines Verhaltenskodex zur Einhaltung von Artikel 50 begonnen, an dem Anbieter, Betreiber, Vertreter der Zivilgesellschaft und technische Experten beteiligt sind. Der Kodex konzentriert sich auf Artikel 50 Absatz 2 (Kennzeichnung und Erkennung) und Artikel 50 Absatz 4 (Etikettierung). Im März 2026 wurde ein zweiter Entwurf veröffentlicht; die endgültige Fassung wird bis Juni 2026 erwartet – noch vor Ablauf der Frist im August 2026. Weitere Hintergrundinformationen zum Entwurfsprozess finden Sie hier.

Zu den wichtigsten Elementen, die im Kodex ausgearbeitet werden, gehören:

  • Ein einheitliches EU-Kennzeichen für KI-generierte Inhalte – derzeit vorgeschlagen als visuelles Kennzeichen „AI“ (im Deutschen als „KI“, im Französischen als „IA“ usw. übersetzt)
  • Eine Klassifizierung, die zwischen„vollständig KI-generierten“ und„KI-unterstützten“Inhalten unterscheidet, wobei für jede Kategorie unterschiedliche Offenlegungspflichten gelten
  • Technische Standards für Wasserzeichen, Metadaten und Provenienz-Tools
  • Leitlinien zur medienspezifischen Kennzeichnung (dauerhafte Kennzeichnungen bei Videos, sichtbare Kennzeichnungen bei Bildern, akustische Hinweise bei Audioinhalten)

Obwohl der Verhaltenskodex freiwillig ist, wird erwartet, dass er zum praktischen Maßstab für die behördliche Bewertung wird. Organisationen, die sich an den Kodex halten, sind gut aufgestellt, um die Einhaltung von Artikel 50 nachzuweisen.

Was Sie jetzt tun sollten

Wenn Sie einen kundenorientierten Chatbot oder virtuellen Assistenten anbieten: Überprüfen Sie Ihre derzeitigen Informationspraktiken. Stellen Sie sicher, dass die Nutzer zu Beginn jeder Interaktion darüber informiert werden, dass sie mit einer KI interagieren. Überprüfen Sie Ihr Interface-Design – der Hinweis sollte klar erkennbar sein und nicht versteckt werden.

Wenn Sie generative KI-Systeme anbieten: Beginnen Sie damit, Ihre technischen Möglichkeiten für die maschinenlesbare Kennzeichnung von Ergebnissen zu prüfen. Beteiligen Sie sich am Prozess zur Erstellung des Verhaltenskodex und stellen Sie sicher, dass Ihre Systeme in großem Maßstab konforme Ergebniskennzeichnungen liefern.

Wenn Sie Systeme zur Emotionserkennung oder biometrischen Kategorisierung einsetzen: Prüfen Sie zunächst, ob die Verbote gemäß Artikel 5 vorliegen, erstellen Sie dann eine klare Datenschutzerklärung für die betroffenen Personen und stellen Sie sicher, dass die Verarbeitung den übrigen gesetzlichen Anforderungen entspricht.

Wenn Sie KI-generierte Inhalte veröffentlichen: Erstellen Sie eine Bestandsaufnahme Ihrer Arbeitsabläufe bei der Inhaltserstellung. Ermitteln Sie, wo KI-generierte Inhalte extern veröffentlicht werden (Website, soziale Medien, Berichte, Marketingmaterialien). Planen Sie bei Deepfake-Bildern, -Audiodateien oder -Videos von Anfang an eine entsprechende Kennzeichnung ein. Prüfen Sie bei Texten, ob diese mit dem Ziel veröffentlicht werden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren, und ob Sie sich auf die Ausnahmeregelung für die menschliche Überprüfung und redaktionelle Verantwortung berufen können.

Wichtige Termine

DatumWas gilt
2. Februar 2025Verbot unzulässiger KI-Praktiken (Artikel 5) in Kraft
Juni 2026Verhaltenskodex für KI-generierte Inhalte soll fertiggestellt werden
2. August 2026Die Transparenzpflichten gemäß Artikel 50 gelten für Anbieter und Betreiber

Praktische Checkliste

Alle Organisationen

  • Erfassen Sie alle im gesamten Unternehmen eingesetzten KI-Systeme und ermitteln Sie diejenigen, die unter Artikel 50 fallen.
  • Prüfen Sie, ob Ausnahmen oder Sonderregelungen gelten.
  • Beachten Sie den Verhaltenskodex für KI-generierte Inhalte (endgültige Fassung voraussichtlich im Juni 2026) sowie die Leitlinien der Kommission.
  • Verpflichten Sie KI-Anbieter vertraglich zur Einhaltung der Vorschriften.

Anbieter

  • Bei Systemen, die direkt mit Menschen interagieren, ist sicherzustellen, dass bei der ersten Interaktion ein klarer Hinweis auf den Einsatz von KI erfolgt, der den Anforderungen an die Barrierefreiheit entspricht.
  • Für generative KI-Systeme (einschließlich GPAI) sollte eine maschinenlesbare Kennzeichnung synthetischer Ausgaben für alle Modalitäten (Audio, Bild, Video, Text) implementiert werden.

Bereitsteller

  • Prüfen Sie bei der Emotionserkennung oder biometrischen Kategorisierung jeden Anwendungsfall im Hinblick auf das Verbot gemäß Artikel 5, bevor Sie eine Offenlegung gemäß Artikel 50 Absatz 3 in Betracht ziehen.
  • Entwerfen Sie für zulässige Verwendungszwecke Benachrichtigungsmechanismen, die betroffene Personen in klarer und deutlich erkennbarer Form informieren.
  • Bei Deepfake-fähigen Systemen sind alle Anwendungsfälle zu erfassen, bei denen Bild-, Audio- oder Videoinhalte erzeugt werden, die der Definition von „Deepfake“ entsprechen könnten, und es sind entsprechende Hinweismöglichkeiten zu konzipieren.
  • Erfassen Sie veröffentlichte Textinhalte und kennzeichnen Sie diejenigen, die mit dem Ziel veröffentlicht wurden, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. Für betroffene Texte müssen Sie entweder eine Offenlegung vornehmen oder einen Prozess für die manuelle Überprüfung und redaktionelle Verantwortung einrichten, um die Ausnahmeregelung in Anspruch nehmen zu können.

Den vollständigen Gesetzestext finden Sie unter Artikel 50 im AI Act Explorer. Oder nutzen Sie unseren Compliance-Checker, um zu erfahren, welche Transparenzpflichten für Ihre konkrete Situation gelten.

Dieser Beitrag wurde am 14. Mai 2026 veröffentlicht

Ähnliche Artikel

Durchsetzung von Kapitel V des EU-KI-Gesetzes

Diese Seite soll einen Überblick über die Durchsetzungsbestimmungen des EU-KI-Gesetzes in Bezug auf Kapitel V geben, insbesondere über die Bestimmungen, die Anbietern von Allzweck-KI-Modellen (GPAI) Verpflichtungen auferlegen. Außerdem soll untersucht werden, welche Rolle andere Akteure dabei spielen können, ...

Was das EU-KI-Gesetz für Personalvermittlungsunternehmen bedeutet

Wenn Ihr Unternehmen KI einsetzt, um Bewerber zu prüfen, zu bewerten oder zuzuordnen, werden diese Tools von der EU nun als risikoreiche Systeme eingestuft. Hier erfahren Sie, was sich geändert hat, was dies für Ihr Geschäftsmodell bedeutet und welche Maßnahmen Sie ergreifen sollten.

Whistleblowing und das EU AI-Gesetz

Diese Seite soll einen Überblick über die EU-Whistleblowing-Richtlinie (2019) und ihre Beziehung zum EU AI-Gesetz geben sowie nützliche Ressourcen für potenzielle Whistleblower bereitstellen. Diese Ressource wurde von Santeri Koivula, einem EU-Fellow bei Future of Life, zusammengestellt...

Überblick über die Leitlinien für GPAI-Modelle

Am 18. Juli 2025 veröffentlichte die Europäische Kommission den Entwurf von Leitlinien zur Klärung wichtiger Bestimmungen des EU-KI-Gesetzes, die für General Purpose AI (GPAI)-Modelle gelten. Die Leitlinien enthalten Auslegungshilfen zur Definition und zum Anwendungsbereich von GPAI-Modellen, zu...