Am 18. Juli 2025 veröffentlichte die Europäische Kommission den Entwurf von Leitlinien zur Klärung wichtiger Bestimmungen des EU-KI-Gesetzes, die für General Purpose AI (GPAI)-Modelle gelten. Die Leitlinien enthalten Auslegungshilfen zur Definition und zum Anwendungsbereich von GPAI-Modellen, zu den damit verbundenen Lebenszyklusverpflichtungen, den Kriterien für das Systemrisiko und den Meldepflichten für Anbieter. Sobald die Leitlinien in alle EU-Sprachen übersetzt sind, werden sie formell verabschiedet und sind für KI-Anbieter von rechtlicher und operativer Bedeutung.
Definition und Umfang
Definition der GPAI-Modelle
Die Leitlinien erweitern die gesetzliche Definition von GPAI im AI-Gesetz und führen wichtige Schwellenwerte und Kriterien für die Einstufung ein:
Schwellenwert berechnen:
- Ein GPAI-Modell ist definiert als jedes Modell, das mit mehr als 10²³ FLOPS (Gleitkommaoperationen pro Sekunde) trainiert wurde und in der Lage ist, Sprach- (Text/Audio), Text-zu-Bild- oder Text-zu-Video-Ausgaben zu erzeugen.
Erfordernis der funktionalen Allgemeinheit:
- Modelle, die den Schwellenwert von 10²³ FLOPS überschreiten, aber spezialisiert sind (z. B. für die Transkription, die Hochskalierung von Bildern, die Wettervorhersage oder Spiele), werden ausgeschlossen, wenn ihnen allgemeine Fähigkeiten für ein breites Spektrum von Aufgaben fehlen.
Technische Klarstellungen:
- Compute wird als kombiniertes Maß für die Modellgröße (Parameter) und die Größe des Trainingsdatensatzes verstanden.
- Ein Modell mit ~1 Milliarde Parametern, das anhand umfangreicher Datensätze trainiert wurde, würde diese Rechenschwelle in der Regel erreichen.
- Die Kommission hat sich für eine einzige abschätzbare Berechnungsschwelle entschieden und nicht für die Auflistung spezifischer Aufgaben oder Fähigkeiten.
Lebenszyklus des Modells und Verpflichtungen
Sobald sich ein Modell als GPAI-Modell qualifiziert hat, gelten die lebenszyklusweiten Verpflichtungen gemäß dem KI-Gesetz ab dem Beginn seines Pre-Trainingslaufs und erstrecken sich auf alle nachfolgenden Entwicklungsphasen, einschließlich Änderungen nach dem Inverkehrbringen.
Zu den Verpflichtungen gehören:
- Dokumentation: Muss gepflegt und aktualisiert werden und den nachgeschalteten Anbietern sowie auf Anfrage dem AI-Büro oder den zuständigen nationalen Behörden zur Verfügung gestellt werden.
- Zusammenfassung der Ausbildungsdaten: Die Anbieter müssen eine Zusammenfassung unter Verwendung der noch zu erstellenden AI Office-Vorlage veröffentlichen.
- Copyright-Richtlinie: Muss die Einhaltung des Urheberrechts regeln und kann für alle Modelle gelten.
GPAI-Modelle mit systemischem Risiko
Bei jedem Modell, das mit ≥10²⁵ FLOPS trainiert wurde, wird davon ausgegangen, dass es eine hohe Auswirkung hat und als GPAI mit systemischem Risiko eingestuft werden kann.
Zusätzliche Verpflichtungen:
- Umfassende Risikobewertung und -minderung während des gesamten Lebenszyklus, einschließlich Modellbewertungen.
- Robuste Cybersicherheitsmaßnahmen
- Verfolgung von und Berichterstattung über ernste Zwischenfälle
Benennungspfade:
- Automatische Vermutung: Basierend auf FLOPS-Schwelle
- Ermessensabhängige Benennung: Durch die Kommission, auch nach Warnungen des wissenschaftlichen Gremiums
Obligatorische Benachrichtigungen:
- Die Anbieter müssen die Kommission innerhalb von zwei Wochen benachrichtigen, wenn sie den Schwellenwert von 10²⁵ FLOPS absehen oder erreichen. Die Benachrichtigungen müssen Folgendes enthalten:
- Berechnen Sie Schätzungen
- Schätzungsmethoden (einschließlich Näherungswerte)
Widerlegungsprozess:
- Die Anbieter können die Einstufung als systemisches Risiko anfechten, indem sie stichhaltige Beweise (z. B. Benchmark-Ergebnisse, Skalierungsgesetze) vorlegen, dass das Modell kein systemisches Risiko darstellt.
- Die Kommission kann Gegenargumente annehmen oder mit einer Begründung ablehnen.
- Die Verpflichtungen bleiben während der Überprüfung in Kraft.
Recht auf Neubewertung:
- Eine erste Neubewertung kann von den Anbietern sechs Monate nach der Benennung beantragt werden.
- Ein zweiter Antrag auf Neubeurteilung ist nach weiteren sechs Monaten zulässig, wenn der erste Antrag erfolglos geblieben ist.
Ständige Verpflichtung zur Aktualisierung:
- Beruht die Widerlegung auf wesentlich geänderten oder unvollständigen/falschen Angaben, muss der Anbieter die Kommission erneut informieren.
Bestimmung des GPAI-Modellanbieters
Entwicklung einer einzelnen Einheit:
- Wenn Unternehmen A ein GPAI-Modell entwickelt und auf dem EU-Markt in Verkehr bringt, ist Unternehmen A der Anbieter.
- Wenn Unternehmen B das Modell für Unternehmen A entwickelt, aber Unternehmen A es auf den Markt bringt, bleibt Unternehmen A der Anbieter.
Repository-Hosting:
- Durch das Hochladen eines Modells in ein Repository (z. B. von Entität C) wird der Anbieterstatus nicht übertragen. Entität A bleibt der Anbieter.
Entwicklung des Konsortiums:
- Bei GPAI-Modellen, die von oder für ein Konsortium entwickelt wurden, ist der Anbieter in der Regel der Koordinator oder das Konsortium selbst, je nach Sachlage und vertraglichen Vereinbarungen.
Vorgelagerte und nachgelagerte Zuständigkeitsverteilung
Vorgelagerte Anbieter:
- Wenn ein vorgelagerter Akteur das Modell zunächst einem nachgelagerten Akteur auf dem EU-Markt zur Verfügung stellt, ist dieser Akteur der Anbieter und muss die GPAI-Anbieterpflichten erfüllen.
Nachgelagerte Systemintegratoren:
- Wenn ein nachgeschalteter Akteur das GPAI-Modell in ein KI-System einbaut und das System auf dem EU-Markt in Verkehr bringt, ist er ein Systemanbieter und muss die für KI-Systeme relevanten Verpflichtungen erfüllen.
Modelle aus Nicht-EU-Ländern:
- Wird ein Modell außerhalb der EU zur Verfügung gestellt, aber später in ein System eingebaut, das in der EU in Verkehr gebracht wird, gilt das Modell zu diesem Zeitpunkt als in Verkehr gebracht.
- Der vorgelagerte Akteur ist der Anbieter, es sei denn, er hat die Nutzung durch die EU ausdrücklich ausgeschlossen. In solchen Fällen wird der nachgeschaltete Akteur zum Anbieter.
Nachgeschaltete Modifikatoren: Wann sie zu Anbietern werden
Nicht alle Änderungen lösen Anbieterpflichten für nachgeschaltete Akteure aus. Geringfügige Änderungen führen in der Regel nicht zu einer Neueinstufung eines Modifizierers als GPAI-Anbieter.
Schwellenwert für die Neueinstufung:
- Ein nachgeschalteter Akteur wird zum neuen GPAI-Anbieter, wenn die für die Änderung verwendete Trainingscompute mehr als ein Drittel der für das Training des ursprünglichen Modells verwendeten Menge beträgt:
- ≥ 1/3 von 10²³ FLOPS für alle GPAI-Modelle
- ≥ 1/3 von 10²⁵ FLOPS für GPAI-Modelle mit systemischem Risiko
Umfang der Verpflichtungen:
- Es gelten nur modifizierungsspezifische Verpflichtungen: Dokumentation, Zusammenfassung der Schulungsdaten und Urheberrechtsbestimmungen beziehen sich nur auf die zusätzlichen Berechnungen und Daten.
- Bei der Änderung eines GPAI-Modells mit Systemrisiko muss der nachgelagerte Akteur jedoch alle Verpflichtungen in Bezug auf das Systemrisiko, einschließlich der Meldung an die Kommission, in vollem Umfang einhalten.
Open-Source-Modelle: Ausnahmen und Bedingungen
Open-Source-GPAI-Anbieter profitieren von begrenzten Ausnahmen im Rahmen des AI-Gesetzes:
- Keine Verpflichtung zur Vorlage von Unterlagen bei nachgeschalteten Anbietern oder auf Anfrage beim AI-Büro oder nationalen Behörden.
Nicht-befreite Anforderungen:
- Muss die Anforderungen an die Zusammenfassung der Schulungsdaten und die Urheberrechtsrichtlinien erfüllen.
Wenn sie als GPAI-Modell mit Systemrisiko eingestuft werden, müssen sie alle geltenden Verpflichtungen erfüllen, einschließlich des Managements von Systemrisiken, der Modellbewertung, der Meldung von Zwischenfällen und der Cybersicherheit.
Um als Open Source im Sinne des KI-Gesetzes zu gelten, muss das Modell unter einer freien und quelloffenen Lizenz veröffentlicht werden, die:
- Erlaubt die Nutzung, den Zugang, die Änderung und die Weiterverbreitung.
- Erlegt keine Beschränkungen auf, wie z. B.:
- Nichtkommerzielle Nutzung oder reine Forschung
- Verbot der Umverteilung
- Schwellenwerte für die Benutzergröße
- Obligatorische kommerzielle Lizenzierung für bestimmte Verwendungen
- Zulässige Einschränkungen:
- Anforderungen an die Anrechnung/Anerkennung
- Vertrieb unter der gleichen oder einer kompatiblen Lizenz
- Angemessene und verhältnismäßige Sicherheitsvorkehrungen gegen eine risikoreiche Verwendung (z. B. öffentliche Sicherheit), sofern sie nicht diskriminierend sind.
Monetarisierung und Verlust des Open-Source-Status
Ein GPAI-Modell verliert seine Open-Source-Befreiung, wenn eine Monetarisierung vorliegt. Indikatoren für Monetarisierung sind u.a.:
- Kommerzielle Lizenzierungsmodelle:
- Doppellizenzierung (z. B. kostenlos für die akademische Nutzung, kostenpflichtig für die kommerzielle Nutzung)
- Kostenpflichtiger Zugang zu Support, Wartung oder Updates
- Gebührenpflichtiger gehosteter Zugang oder Werbeeinnahmen
- Funktionale Abhängigkeit von bezahlten Dienstleistungen:
- Wenn Nutzer für den Zugang zu wichtigen Funktionen oder Sicherheitsmerkmalen bezahlen müssen.
- Verarbeitung personenbezogener Daten:
- Die Verarbeitung von Nutzerdaten im Zusammenhang mit dem Zugang, der Nutzung oder der Änderung kann eine Monetarisierung darstellen, es sei denn, sie dient ausschließlich nichtkommerziellen Sicherheitszwecken.
Die Monetarisierung wird nicht berücksichtigt:
- Angebot von optionalen Premium-Diensten oder Support, ohne den freien Zugang zum Modell und seinen Kernfunktionen einzuschränken.
Umsetzung
Kodex der Praxis
- Die Unterzeichnung des Verhaltenskodexes ist freiwillig, kann den Anbietern jedoch helfen, die Einhaltung der im AI-Gesetz festgelegten Verpflichtungen für GPAI-Modelle nachzuweisen.
- Der Kodex ist keine harmonisierte Norm, so dass seine Unterzeichnung nicht automatisch die Vermutung der Einhaltung begründet.
- Die Kommission wird die Einhaltung des Kodexes durch die Unterzeichner überwachen. Die Nichtteilnahme an einem Kapitel (Transparenz, Urheberrecht oder Sicherheit) bedeutet, dass sich die Anbieter nicht auf den Kodex berufen können, um die Einhaltung in diesem Bereich nachzuweisen.
- Die Unterzeichner können von einem größeren Vertrauen und potenziell niedrigeren Geldbußen profitieren.
- Die Nicht-Unterzeichner müssen die Einhaltung der Vorschriften eigenständig nachweisen, u. a. durch ausführliche Erklärungen oder Lückenanalysen, und sollten mit einer strengeren Prüfung durch das AI Office rechnen - insbesondere bei Änderungen im Lebenszyklus und bei Modelländerungen.
Durchsetzung und Beaufsichtigung
- Das AI-Büro wird ein kooperatives und risikobasiertes Durchsetzungsmodell anwenden. Die informelle Zusammenarbeit wird während der Ausbildungsphasen gefördert.
- Von den Anbietern von GPAI-Modellen mit systemischem Risiko wird erwartet, dass sie proaktiv Bericht erstatten und mit dem AI-Büro zusammenarbeiten.
- Während die Verpflichtungen am 2. August 2025 in Kraft treten, hat das AI-Büro erst ab dem 2. August 2026 volle Durchsetzungsbefugnisse und kann bis dahin Informationen anfordern, Modellrückrufe anordnen, Abhilfemaßnahmen anordnen oder Geldbußen verhängen.
- Für Modelle, die vor dem 2. August 2025 in Verkehr gebracht werden, haben die Anbieter bis zum 2. August 2027 Zeit, die Anforderungen zu erfüllen. Eine Umschulung oder ein "Verlernen" wird nicht verlangt, wenn dies technisch oder wirtschaftlich nicht machbar ist, sofern dies in den Unterlagen begründet wird.
- Modelle, die nach dem 2. August 2025 vermittelt werden, müssen sich bemühen, die Anforderungen bei der Vermittlung zu erfüllen. Die Anbieter sollten proaktiv mit dem AI Office zusammenarbeiten. Neue Marktteilnehmer, insbesondere Entwickler von Modellen mit systemischem Risiko, werden Unterstützung erhalten, um die Einhaltung der Vorschriften zu erleichtern.
- Da das Ökosystem der externen Evaluierung noch nicht ausgereift ist, kann das AI-Büro eingreifen, um die Entwicklung einheitlicher Standards zu koordinieren.
Überprüfung der Leitlinien
- Die Kommission kann diese Leitlinien auf der Grundlage folgender Faktoren aktualisieren oder zurückziehen:
- Erfahrung mit der Umsetzung
- Ergebnisse der Durchsetzung
- Markt- und Technologieentwicklungen
- Urteile des Gerichtshofs der EU (EuGH)
- Die Interessengruppen - darunter Anbieter, Regulierungsbehörden, Forscher und die Zivilgesellschaft - werden aufgefordert, im Rahmen von Konsultationen und Workshops zu den Aktualisierungen beizutragen.
Anhang: Trainingsberechnungen - Definitionen und Schätzungen Methoden
Definition:
- Die Trainingsberechnung ist die Gesamtberechnung, die zum Trainieren eines Modells und zur Bewertung, ob es die GPAI-Schwellenwerte für systemische Risiken erfüllt, verwendet wird:
- Für nicht systemische Risikomodelle: Berechnung für die Aktualisierung der Parameter.
- Für die Bewertung des systemischen Risikos: Alle kumulativen Trainingsberechnungen zählen.
Einschlüsse:
- Alle Berechnungen tragen zu den Modellfähigkeiten bei, einschließlich Vorwärtsdurchläufe für die Erzeugung synthetischer Daten (auch verworfener Daten).
- Berechnen Sie für die Zusammenführung von Gewichten oder die Initialisierung unter Verwendung von vorab trainierten Modellen.
Ausschlüsse:
- Berechnen Sie für:
- Öffentlich verfügbare synthetische Daten
- Diagnostik-/Bewertungsaufgaben
- Fehlgeschlagene Experimente oder reine Forschungsläufe
- Training von Hilfsmodellen (z. B. Belohnungsmodelle)
- Neuberechnung der Aktivierung zur Einsparung von Speicherplatz
Methoden zur Schätzung:
- Sowohl hardware- als auch architekturbasierte Ansätze werden behandelt.
- Die Schätzung muss auf ±30% genau sein, wobei die Annahmen und Unsicherheiten zu dokumentieren sind.