Am 22. April 2025 veröffentlichte das AI-Büro vorläufige Leitlinien zur Klärung des Umfangs der Verpflichtungen für Anbieter von GPAI-Modellen. Darin werden sieben Themen umrissen, die voraussichtlich in den endgültigen Leitlinien behandelt werden, sowie einige vorläufige Antworten gegeben. Die Kommission hat auch eine Konsultation eröffnet, um Beiträge von Interessengruppen zu den Leitlinien zu erhalten.
Dieser Beitrag gibt einen Überblick darüber, warum die Kategorie des GPAI-Modellanbieters wichtig ist, und fasst den Inhalt der vorläufigen Leitlinien vom April 2025 zusammen.
Die Wertschöpfungskette der allgemeinen KI ist bekanntermaßen komplex, und die Festlegung geeigneter Kategorien für Unternehmen in der gesamten Wertschöpfungskette war bei der Ausarbeitung des KI-Gesetzes kein leichtes Unterfangen.1 Das KI-Gesetz sieht unterschiedliche Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke (GPAI-Modelle) und für Anbieter von KI-Systemen einschließlich KI-Systemen für allgemeine Zwecke (GPAI-Systeme) vor. Daher wird es für Akteure, die GPAI-Modelle entwickeln, darauf aufbauen oder integrieren, wichtig sein, zu erkennen, ob und wann sie als Anbieter eines solchen Modells in Frage kommen, im Gegensatz zu einem nachgeschalteten Anbieter oder Betreiber eines KI-Systems.
Vorläufige Leitlinien PDF | Europäische Kommission, 22. April 2025 - Dokument ansehen
Kurze Zusammenfassung: die vorläufigen Leitlinien für GPAI-Modelle
- Der Kontext: Am 22. April 2025 veröffentlichte das AI-Büro eine Reihe vorläufiger Leitlinien, die den Umfang der Verpflichtungen für Anbieter von GPAI-Modellen klären.
- Inhalt: Es gibt sieben Themen, die in den endgültigen Leitlinien behandelt werden sollen:
- Was ist ein GPAI-Modell?
- Wer sind Anbieter von GPAI-Modellen und wann ist ein nachgeschalteter Modifizierer ein Anbieter?
- Klärung des "Inverkehrbringens von GPAI-Modellen" und der Open-Source-Ausnahmen.
- Schätzung der Ausbildungsberechnung
- Übergangsregelungen, Besitzstandswahrung und rückwirkende Einhaltung
- Auswirkungen der Befolgung und Unterzeichnung des Verhaltenskodexes
- Beaufsichtigung und Durchsetzung der GPAI-Musterregeln
- Frist für die Konsultation: Alle interessierten Kreise können bis zum 22. Mai im Rahmen einer offenen Konsultation Rückmeldungen zu den vorläufigen Leitlinien geben .
Warum die GPAI-Modellanbieterkategorie wichtig ist
Das KI-Gesetz legt in Artikel 53 besondere Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke (GPAI-Modelle) fest. Dazu gehören das Führen einer aktuellen Modelldokumentation und die Umsetzung einer Copyright Policy. Anbieter von sogenannten GPAI-Modellen mit systemischem Risiko (GPAISR-Modelle) müssen neben Artikel 53 auch Artikel 55 einhalten. Letzteres beinhaltet die Durchführung von Modellevaluierungen, gegnerischen Tests, die Verfolgung und Meldung schwerwiegender Vorfälle und die Gewährleistung von Cybersicherheitsmaßnahmen. Wie die Akteure diesen Verpflichtungen in der Praxis nachkommen können, wird in dem Verhaltenskodex detailliert beschrieben, wie in einem anderen Blogbeitrag erläutert. Im Gegensatz dazu unterliegen nachgelagerte Akteure wie Systemanbieter, Installateure, Importeure usw. nicht diesen Verpflichtungen. Diese Akteure sollten vielmehr prüfen, ob die risikobasierten Verpflichtungen gemäß Artikel 5, 16-27 und 50 gelten.
1) Was ist ein GPAI-Modell?
Ein "KI-Modell für allgemeine Zwecke" wird in Artikel 3 Nummer 63 als ein KI-Modell definiert, das eine erhebliche Allgemeinheit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent zu erfüllen. Außerdem kann es in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden.2 Die Art der Freigabe des Modells (offene Gewichte, API usw.) spielt für diese Definition keine Rolle, es sei denn, das Modell wird ausschließlich für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten vor der Markteinführung verwendet.3 In Erwägungsgrund 97 wird hervorgehoben, dass KI-Modelle zwar wesentliche Bestandteile von KI-Systemen sein können, aber selbst keine KI-Systeme darstellen, da Modelle weitere Komponenten, wie z. B. eine Benutzeroberfläche, benötigen, um zu KI-Systemen zu werden.
Der vorläufige Ansatz des Amtes für Künstliche Intelligenz besteht darin, einen Schwellenwert für die zum Trainieren oder Ändern eines Modells verwendeten Rechenressourcen festzulegen (Trainingscompute). Insbesondere schlägt das KI-Büro vor, die Anzahl der Parameter und die Menge der Trainingsdaten zu einer Zahl zu kombinieren. Wenn ein Modell , das Text und/oder Bilder generieren kann , mehr als 10^22 Gleitkommaoperationen (FLOP) für das Training benötigt, würde das KI-Büro davon ausgehen, dass es sich um ein GPAI-Modell handelt.
Das Amt für Künstliche Intelligenz betrachtet den Pre-Training-Lauf als den Beginn eines Lebenszyklus für GPAI-Modelle. Später im Lebenszyklus können GPAI-Modelle "modifiziert" werden, auch durch "Feinabstimmung". Solche Änderungen können von derselben Stelle vorgenommen werden, die das ursprüngliche GPAI-Modell erstellt hat, oder von "nachgeschalteten Modifikatoren". In Erwägungsgrund 97 des AI-Gesetzes heißt es, dass GPAI-Modelle "weiter geändert oder zu neuen Modellen weiterentwickelt werden können". Dies wirft die Frage auf, welche Arten von Änderungen als neue GPAI-Modelle gelten können. Die vorläufigen Leitlinien geben uns Antworten, sowohl in Bezug auf ein und dieselbe Einheit als auch auf nachgelagerte Modifikatoren (siehe Abschnitt 2).
Änderung durch dieselbe Einrichtung, die das ursprüngliche GPAI-Modell bereitstellt: wird als zu einem eigenständigen Modell führend betrachtet, wenn diese Änderungen mehr als ⅓ der Rechenleistung in Anspruch nehmen, die für ein Modell erforderlich ist, das als GPAI-Modell gilt. Bei den derzeitigen Schwellenwerten wären das 3*10^21 FLOP.
2) Wer ist der Anbieter eines allgemeinen KI-Modells, und wann ist ein nachgeschalteter Modifizierer ein Anbieter?
Nach Artikel 3 Absatz 3 sind "Anbieter" natürliche oder juristische Personen, Behörden, Agenturen oder andere Einrichtungen, die ein KI-System oder ein GPAI-Modell entwickeln oder entwickeln lassen und es unter ihrem eigenen Namen oder ihrer eigenen Marke entgeltlich oder unentgeltlich in Verkehr bringen.4 Nach dem KI-Gesetz kann ein Anbieter also zwei Arten von Produkten anbieten - KI-Systeme oder GPAI-Modelle. Die Pflichten des Anbieters hängen davon ab, ob sein Produkt als System oder als Modell eingestuft wird. Das vorläufige Dokument befasst sich nur mit Anbietern von GPAI-Modellen, einschließlich GPAI-Modellen mit systemischem Risiko, und nicht mit Anbietern von KI-Systemen.
Änderungen durch einen nachgeschalteten Modifizierer: Das AI-Büro schlägt vor, dass nur solche Änderungen, die einen wesentlichen Einfluss auf die Gründe für die Verpflichtungen für GPAI-Modelle haben, dazu führen sollten, dass der nachgeschaltete Modifizierer als Anbieter eines neuen GPAI-Modells angesehen wird. Bei GPAI-Modellen mit systemischem Risiko sollten beispielsweise nur Änderungen, die zu einer erheblichen Veränderung des systemischen Risikos führen, dazu führen, dass nachgeschaltete Modifizierer als Anbieter von GPAI-Modellen mit systemischem Risiko gelten. Um konkrete Anhaltspunkte zu geben und die Rechtssicherheit zu erhöhen, schlägt das AI Office rechnerische Schwellenwerte mit entsprechenden Vermutungen für den Anbieterstatus vor.
GPAI-Modelle: Ein nachgeschalteter Modifizierer gilt als Anbieter eines GPAI-Modells, wenn die Änderungen ⅓ der für ein Modell erforderlichen Berechnungen überschreiten, damit es als GPAI-Modell gilt. Bei den derzeitigen Schwellenwerten wären das 3*10^21 FLOP. Dies entspricht in etwa dem Schwellenwert für dieselbe Einrichtung, die das ursprüngliche Modell bereitstellt. Die Verpflichtungen des Anbieters beschränken sich jedoch auf die Änderung, die gemäß Erwägungsgrund 109 des AI-Gesetzes vorgenommen wird.
GPAI-Modelle mit systemischem Risiko:5 Hier schlägt das AI Office zwei Bedingungen vor, von denen nur eine erfüllt sein muss.
- Wenn das ursprüngliche Modell als GPAI-Modell mit systemischem Risiko gilt, wird ein nachgeschalteter Modifikator als Anbieter betrachtet, wenn der Umfang der Berechnungen mehr als ⅓ des Schwellenwerts für ein Modell beträgt, das als GPAI-Modell mit systemischem Risiko zu betrachten ist. Beim derzeitigen Schwellenwert sind dies 3*10^24 FLOP.
- Wenn das ursprüngliche Modell kein GPAI-Modell mit systemischem Risiko war, wird ein nachgeschalteter Modifikator vermutlich zu einem Anbieter, wenn die kumulative Menge der Berechnungen des ursprünglichen Modells und der Modifikation den Schwellenwert für die Annahme, dass ein Modell ein GPAI-Modell mit systemischem Risiko ist, überschreitet. Der derzeitige Schwellenwert liegt bei 10^25 FLOP.
Derzeit geht das AI-Büro davon aus, dass keine nachgelagerte Änderung das Systemrisiko wesentlich verändert. Das KI-Büro geht weiter davon aus, dass nur wenige oder keine Änderungen den festgelegten Schwellenwert erreichen. Der Schwellenwert in Punkt 1 ist somit zukunftsorientiert und entspricht dem risikobasierten Ansatz des AI-Gesetzes.
Wird ein nachgeschalteter Modifizierer eines GPAI-Modells zum Anbieter eines GPAI-Modells mit systemischem Risiko auf der Grundlage eines der oben genannten Kriterien, so beschränken sich seine Verpflichtungen nicht auf die durchgeführte Modifizierung.
3) Was gilt als Inverkehrbringen eines KI-Modells für allgemeine Zwecke, und wann gelten die Ausnahmen für Open-Source-Software?
Das Amt für künstliche Intelligenz bietet eine Liste von Beispielen dafür, was als Inverkehrbringen eines GPAI-Modells gilt, einschließlich der Bereitstellung über Softwarebibliotheken, Anwendungsprogrammierschnittstellen (APIs), Cloud-Computing-Dienste und ähnliche Vertriebskanäle.
In den vorläufigen Leitlinien wird auch klargestellt, wann die Ausnahmen für bestimmte Open-Source-Veröffentlichungen gelten, indem Definitionen für die zentralen Begriffe "Zugang", "Nutzung", "Änderung", "Verteilung" sowie "frei und quelloffen" vorgeschlagen werden. In dem Dokument wird hervorgehoben, dass GPAI-Modelle mit systemischem Risiko unabhängig von ihrer Veröffentlichungsmethode nicht freigestellt sind.
4) Schätzung der für das Trainieren oder Ändern eines Modells benötigten Rechenressourcen
Mehrere der oben genannten Themen sind in hohem Maße von Schätzungen der Rechenressourcen abhängig, die zum Trainieren oder Ändern eines Modells benötigt werden (d. h. Rechenaufwand). Daher ist es wichtig, dass die vorläufigen Leitlinien einen Abschnitt über die Schätzung des Rechenaufwands enthalten. Das KI-Büro schlägt zwei Ansätze vor: den hardwarebasierten Ansatz und den architekturbasierten Ansatz. Diese werden mit Formeln und konkreten Beispielen aus der Industrie in Anhang A.1 erläutert.
Was sollte gezählt werden: In den vorläufigen Leitlinien wird vorgeschlagen, die kumulative Trainingsberechnung auf Aktivitäten und Methoden zu beschränken, die im Rahmen des Trainings des Modells durchgeführt werden oder direkt in das Training einfließen. Ausgeschlossen sind somit Aktivitäten, die vor dem großen Pre-Trainingslauf stattfinden oder die die Fähigkeiten des Modells zur Inferenzzeit verbessern.
Wann sollten die Berechnungen gezählt werden? Das AI-Büro erwartet von den Anbietern, dass sie den Umfang der vor dem Training anfallenden Berechnungen vor Beginn ihres großen Pre-Training-Laufs schätzen und die Kommission innerhalb von zwei Wochen nach der Schätzung entsprechend informieren.
5) Übergangsregelungen, Besitzstandswahrung und rückwirkende Einhaltung
Das AI-Büro ist sich bewusst, dass die GPAI-Verpflichtungen im AI-Gesetz für Unternehmen, die sie erfüllen wollen, vor allem in der Anfangsphase eine Herausforderung darstellen können. Der vorläufige Ansatz des AI-Büros besteht darin, die Anbieter von GPAI-Modellen zu ermutigen, in einen Dialog einzutreten und frühzeitig die Unterstützung des AI-Büros in Anspruch zu nehmen, wenn sie Schwierigkeiten bei der Einhaltung der Vorschriften absehen. Wenn Unternehmen zum Beispiel zum ersten Mal ein GPAI-Modell mit systemischem Risiko auf dem europäischen Markt anbieten, wird das AI-Büro ihre schwierige Situation besonders berücksichtigen und Fristen setzen.
6) Auswirkungen der Befolgung und Unterzeichnung des Verhaltenskodexes
Der vorläufige Ansatz des AI-Büros deutet darauf hin, dass die Unterzeichner des Verhaltenskodexes von einem größeren Vertrauen seitens der Kommission profitieren werden. Außerdem können die im Rahmen des Verhaltenskodex eingegangenen Verpflichtungen bei der Festsetzung der Höhe der Geldbußen als mildernder Umstand berücksichtigt werden.
Nicht-Unterzeichner müssen nachweisen, wie sie ihren Verpflichtungen aus dem AI-Gesetz durch andere angemessene, wirksame und verhältnismäßige Mittel nachkommen. Sie könnten auch mehr Anfragen nach Informationen und Zugang zur Durchführung von Modellevaluierungen erhalten, da weniger Klarheit darüber besteht, wie sie die Einhaltung der Vorschriften gewährleisten.
7) Überwachung und Durchsetzung der allgemeinen AI-Vorschriften
Das AI-Büro ist für die Überwachung und Durchsetzung der Pflichten von Anbietern von GPAI-Modellen zuständig. Die vorläufigen Leitlinien betonen einen kooperativen und verhältnismäßigen Ansatz. Dazu gehört eine enge informelle Zusammenarbeit mit den Anbietern während der Ausbildung, um die Einhaltung der Vorschriften zu vereinfachen und eine unverzügliche Platzierung auf dem Markt zu gewährleisten, insbesondere für Anbieter von GPAI-Modellen mit systemischen Risiken. Das AI-Büro erwartet, dass Anbieter von GPAI-Modellen mit Systemrisiko proaktiv und unaufgefordert berichten.
Der Weg zu mehr Klarheit
Die vorläufigen Leitlinien sind ein wichtiger erster Schritt, der bestätigt, dass die nachgelagerte Industrie mit den derzeitigen Schwellenwerten nicht in den Anwendungsbereich der Verpflichtungen in Bezug auf GPAI-Modelle mit Systemrisiko fällt. Kein öffentlich verfügbares Modell erreicht die Änderungsschwelle von einem Drittel der GPAI-Modellklassifizierungsschwellen. Mit diesem gezielten Ansatz für GPAI-Modelle räumt die Kommission zentrale Unsicherheiten aus und versichert den europäischen nachgelagerten Unternehmen, dass sie wahrscheinlich nicht in den Anwendungsbereich des Verhaltenskodexes fallen werden.
Es wird erwartet, dass sich die Leitlinien im Laufe der Zeit weiterentwickeln und bei Bedarf aktualisiert werden, insbesondere im Lichte der technologischen Entwicklungen. Da die Verpflichtungen für GPAI-Modellanbieter ab dem 2. August 2025 gelten, wird eine pragmatische und kooperative Durchsetzung der Artikel 53 und 55 durch das AI-Büro mehr Klarheit bringen. Letztlich kann die maßgebliche Auslegung des AI-Gesetzes nur vom Gerichtshof der Europäischen Union vorgenommen werden.
Anmerkungen und Referenzen
- Die Kategorien wurden während der Ausarbeitung mehrfach geändert. So war beispielsweise der Begriff "Nutzer" im ursprünglichen Kommissionsvorschlag enthalten, wurde aber in der endgültigen Fassung des KI-Gesetzes durch den Begriff "Bereitsteller" ersetzt, und der Begriff "kleiner Anbieter" wurde ganz gestrichen. Auch der Begriff "nachgeschalteter Anbieter" tauchte in keinem der Vorschläge der drei EU-Institutionen auf, sondern nur in der endgültigen Fassung. ︎
- Artikel 3(63) ︎
- Erwägungsgrund 97 ︎
- Artikel 3 Absatz 3 ︎
- Gemäß Artikel 3 Absatz 65 wird das "Systemrisiko" als spezifisch für die hochwirksamen Fähigkeiten von GPAI-Modellen definiert, die erhebliche Auswirkungen auf den Unionsmarkt haben. Dies könnte aufgrund ihrer Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Auswirkungen auf die öffentliche Gesundheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft als Ganzes sein, die sich in großem Umfang über die gesamte Wertschöpfungskette ausbreiten können. Bei Modellen wird davon ausgegangen, dass sie eine hohe Auswirkung haben, wenn der kumulative Rechenaufwand für ihre Ausbildung mehr als 10(^25) Gleitkommaoperationen (FLOP) beträgt. Dies ist eine widerlegbare Vermutung, die die Modelle nicht automatisch qualifiziert. Derzeit bieten schätzungsweise 11 Anbieter weltweit Modelle an, die diesen Schwellenwert überschreiten. ︎