Zuletzt aktualisiert: 14. August 2025.
Im Zuge der schrittweisen Umsetzung des AI-Gesetzes ist es wichtig, die verschiedenen in der Verordnung enthaltenen Durchsetzungsmechanismen zu verstehen. Einer der wichtigsten ist der allgemeine KI-Praxiskodex, der vom KI-Büro und einem breiten Spektrum von Interessengruppen entwickelt wurde.
Diese Zusammenfassung, die den Verhaltenskodex für Anbieter von KI-Modellen für allgemeine Zwecke detailliert beschreibt, wurde zusammengestellt von Jimmy Farrelldem Mitverantwortlichen für die EU-KI-Politik bei Pour Demainund Tekla Emborg, Politikforscherin am Institut Zukunft des Lebens. Für weitere Fragen, wenden Sie sich bitte an jimmy.farrell@pourdemain.eu.
Im Zuge der schrittweisen Umsetzung des AI-Gesetzes ist es wichtig, die verschiedenen in der Verordnung vorgesehenen Durchsetzungsmechanismen zu verstehen. Einer der wichtigsten ist der allgemeine Verhaltenskodex für Künstliche Intelligenz (GPAI), der vom Amt für Künstliche Intelligenz und einem breiten Spektrum von Interessengruppen entwickelt und im Juli 2025 veröffentlicht wurde.
In diesem Beitrag geht es weiter:
- Einführung
- Normen und der Bedarf an einem Verhaltenskodex
- Kurze Zusammenfassung des Inhalts des Verhaltenskodex
- Geltungsbereich des GPAI-Modells Anbieterdefinition
- Unterschriften: Wer hat unterschrieben und was bedeutet das?
- Durchsetzung des Verhaltenskodexes
- Vorgeschichte: Der Redaktionsprozess auf dem Weg zum Verhaltenskodex
Eine kurze Zusammenfassung des Verhaltenskodexes:
- Zweck: Der Verhaltenskodex zum KI-Gesetz (eingeführt in Artikel 56) ist eine Reihe von Leitlinien für die Einhaltung des KI-Gesetzes. Er ist ein entscheidendes Instrument, um die Einhaltung der Verpflichtungen des EU-KI-Gesetzes zu gewährleisten, insbesondere in der Übergangszeit zwischen dem Inkrafttreten der Verpflichtungen für GPAI-Modellanbieter (August 2025) und der Annahme von Standards (August 2027 oder später). Obwohl sie rechtlich nicht bindend sind, können sich GPAI-Modellanbieter an den Verhaltenskodex halten, um die Einhaltung der GPAI-Modellanbieterverpflichtungen bis zum Inkrafttreten der europäischen Normen nachzuweisen.
- Prozess: Der Kodex wurde im Rahmen eines Multi-Stakeholder-Prozesses entwickelt, an dem akademische und unabhängige Experten, Anbieter von GPAI-Modellen, nachgeschaltete Anwender, Mitglieder der Zivilgesellschaft und andere beteiligt waren.
- Inhalt: Der Kodex besteht aus drei Kapiteln. Die ersten beiden, Transparenz und Urheberrecht, gelten für alle GPAI-Modellanbieter. Das dritte Kapitel, Sicherheit und Schutz, gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Für jedes Kapitel legt der Kodex bestimmte Verpflichtungen und entsprechende Maßnahmen fest, wie die Anbieter den Verpflichtungen nachkommen können.
- Umsetzung: Die Kommission und der EU-AI-Ausschuss haben bestätigt, dass der GPAI-Kodex ein angemessenes freiwilliges Instrument für Anbieter von GPAI-Modellen ist, um die Einhaltung des AI-Gesetzes nachzuweisen. Der Kodex deckt nämlich die in den Artikeln 53 und 55 des AI-Gesetzes vorgesehenen Verpflichtungen für Anbieter von GPAI-Modellen und GPAI-Modellen mit systemischem Risiko angemessen ab.
Einführung
Dieser Blog-Beitrag erläutert das Konzept, den Prozess und die Bedeutung des Verhaltenskodex, eines Instruments des KI-Gesetzes zur Überbrückung der Übergangszeit zwischen dem Inkrafttreten der Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke (GPAI) und der letztendlichen Annahme harmonisierter europäischer GPAI-Modellstandards. Nach der Veröffentlichung des endgültigen Verhaltenskodexes am 10. Juli und der Bestätigung der Angemessenheit des endgültigen Kodexes durch die Kommission und den AI Board, fasst dieser Beitrag die wichtigsten und aktuellsten Informationen zusammen. Eine umfassende Zusammenfassung des Inhalts des Kodexes finden Sie in einem anderen Blogbeitrag.
Normen und der Bedarf an einem Verhaltenskodex
Nach dem Inkrafttreten des KI-Gesetzes am 1. August 2024 werden die Verpflichtungen im Rahmen der Verordnung schrittweise eingeführt, wie in einem früheren Blog-Beitrag beschrieben, wobei die Bestimmungen zu verbotenen KI-Systemen seit Februar 2025 und die Bestimmungen zu GPAI-Modellen seit dem 2. August 2025 in Kraft sind. In der Zwischenzeit hat der komplexe Prozess der Entwicklung harmonisierter europäischer Normen begonnen, die die Verpflichtungen aus dem KI-Gesetz umsetzen. Während ein offizieller Normungsantrag von der Kommission angenommen und von CEN-CENELEC bezüglich der Normen für KI-Systeme genehmigt wurde1angenommen wurde, muss ein entsprechender Antrag für GPAI-Modellnormen noch ausgearbeitet werden. Wann ein solcher Normungsauftrag erteilt wird, hängt weitgehend davon ab, wie wirksam der Verhaltenskodex die einschlägigen Verpflichtungen aus dem AI-Gesetz umsetzt. Der Normungsprozess wird in einem separaten Blog-Beitrag ausführlich beschrieben.
Nach dem AI-Gesetz sind die Verpflichtungen für GPAI-Modelle, die in den Artikeln 50-55 aufgeführt sind, zwölf Monate lang einklagbar2 nach Inkrafttreten des Gesetzes (2. August 2025). Der europäische Normungsprozess, an dem hauptsächlich3 das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (CENELEC), dauert jedoch oft bis zu drei Jahre4. Bei technischeren Normen, wie denen für GPAI, kann dieser Prozess sogar noch länger dauern, und wenn sie in Abstimmung mit internationalen Normen erstellt werden5wie im AI-Gesetz vorgeschrieben6. Die Einbeziehung mehrerer Interessengruppen und die Konsensbildung, die für die Festlegung von Normen charakteristisch sind, verlängern den Zeitrahmen noch weiter. Daher ist es unwahrscheinlich, dass die GPAI-Modellanbieterverpflichtungen in absehbarer Zeit als technische Normen umgesetzt werden.
Rechtliche Anforderungen an den Verhaltenskodex
In Artikel 56 des AI-Gesetzes wird der Verhaltenskodex als Platzhalter zur Überbrückung der Zeit zwischen dem Inkrafttreten der GPAI-Musteranbieterverpflichtungen (zwölf Monate) und der Verabschiedung von Standards (drei Jahre oder mehr) beschrieben. Obwohl er rechtlich nicht bindend ist, können sich GPAI-Modellanbieter auf den Verhaltenskodex berufen, um die Einhaltung der GPAI-Modellanbieterverpflichtungen in folgenden Bereichen nachzuweisen Artikel 53 und 55 nachzuweisen, bis Standards entwickelt sind. Diese Verpflichtungen umfassen7:
- Bereitstellung von technischen Unterlagen für das AI-Büro und die zuständigen nationalen Behörden
- Bereitstellung relevanter Informationen für nachgeschaltete Anbieter, die Modelle in ihr KI- oder GPAI-System integrieren wollen (z. B. Fähigkeiten und Grenzen)
- Zusammenfassungen der verwendeten Trainingsdaten
- Maßnahmen zur Einhaltung des geltenden Unionsrechts zum Urheberrecht
Für GPAI-Modelle mit systemischem Risiko (Modelle, die oberhalb des Schwellenwerts von 10^25 Gleitkommaoperationen (FLOP) ausgebildet werden), gelten folgende weitere Verpflichtungen8:
- Modellbewertungen nach dem Stand der Technik
- Risikobewertung und -minderung
- Meldung schwerwiegender Zwischenfälle, einschließlich Abhilfemaßnahmen
- Angemessener Schutz der Cybersicherheit
Anbieter, die nicht nachweisen können, dass sie den Verhaltenskodex einhalten, müssen der Kommission die Einhaltung der oben genannten Verpflichtungen mit anderen, möglicherweise aufwändigeren und zeitraubenderen Mitteln nachweisen.9
Kurze Zusammenfassung des Inhalts des Verhaltenskodex
Seit Beginn des Entwurfsprozesses im Oktober 2024 wurden drei Entwürfe des Verhaltenskodexes veröffentlicht, bevor im Juli 2025 die endgültige Fassung erschien. Die Vorsitzenden und stellvertretenden Vorsitzenden des Entwurfsprozesses haben eine interaktive Webseite mit dem vollständigen Text, FAQ und Zusammenfassungen eingerichtet. Ein umfassender Überblick über den Inhalt des Kodex wird auch in einem anderen Blogbeitrag gegeben. Nachstehend finden Sie eine kurze Zusammenfassung.
Insgesamt besteht der Kodex aus drei Kapiteln. Die ersten beiden, Transparenz und Urheberrecht, gelten für alle GPAI-Modellanbieter. Das dritte Kapitel, Sicherheit, gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko (über dem Schwellenwert von 10^25 FLOP), derzeit eine kleine Gruppe von 5-15 Unternehmen weltweit10. Der Kodex enthält insgesamt 12 Verpflichtungen - eine für jedes der beiden ersten Kapitel und 10 für das Kapitel "Sicherheit" - sowie entsprechende Maßnahmen, wie die Anbieter den Verpflichtungen nachkommen können.
Kapitel Transparenz (alle GPAI-Modellanbieter)
Im Rahmen dieses Kapitels verpflichten sich die Unterzeichner, für jedes GPAI-Modell, das sie in der EU vertreiben, eine aktuelle und umfassende Dokumentation zu führen (mit Ausnahme von Modellen, die frei und quelloffen sind und kein systemisches Risiko darstellen). Diese Dokumentation muss einem standardisierten Modelldokumentationsformular folgen, in dem Lizenzierung, technische Spezifikationen, Anwendungsfälle, Datensätze, Rechen- und Energieverbrauch und vieles mehr aufgeführt sind. Diese Dokumentation sollte mindestens zehn Jahre lang sicher aufbewahrt und dem KI-Büro und den nachgeschalteten Nutzern auf Anfrage zur Verfügung gestellt werden. Die Veröffentlichung dieser Informationen wird zur Förderung der Transparenz empfohlen.
Kapitel Urheberrecht (alle GPAI-Modellanbieter)
Die Unterzeichner verpflichten sich, eine solide Urheberrechtspolitik zu entwickeln und regelmäßig zu aktualisieren, in der die internen Zuständigkeiten klar definiert sind und die den rechtlichen Standards entspricht. Sie müssen sicherstellen, dass die durch Web-Crawling gesammelten Daten rechtmäßig zugänglich sind, maschinenlesbare Rechtssignale wie robots.txt respektieren und den Zugriff auf Websites vermeiden, die wegen Urheberrechtsverletzungen gekennzeichnet sind. Technische Sicherheitsvorkehrungen sollten die Generierung rechtsverletzender Inhalte minimieren, und die Nutzungsbedingungen müssen die unerlaubte Nutzung eindeutig untersagen. Urheberrechtsinhabern muss eine Kontaktstelle zur Verfügung gestellt werden, bei der sie Beschwerden einreichen können, und es müssen effiziente und faire Verfahren für die Bearbeitung dieser Beschwerden eingerichtet werden.
Kapitel Sicherheit (nur GPAI-Modell mit Anbietern systemischer Risiken)
Dieses Kapitel betrifft nur Anbieter von GPAI-Modellen mit systemischen Risiken. Die Unterzeichner müssen vor der Modellfreigabe einen dem Stand der Technik entsprechenden Rahmen für Sicherheit und Gefahrenabwehr entwickeln, in dem Bewertungsauslöser, Risikokategorien, Minderungsstrategien, Prognosemethoden und organisatorische Zuständigkeiten festgelegt sind. Systemische Risiken sind durch strukturierte Prozesse wie Bestandsaufnahmen, Szenarioanalysen und Konsultationen mit internen und externen Experten zu ermitteln. Bevor mit der Entwicklung oder Einführung fortgefahren wird, müssen die Unterzeichner bewerten, ob die ermittelten Risiken akzeptabel sind, und dabei festgelegte Risikostufen mit eingebauten Sicherheitsmargen anwenden. Ein obligatorischer Sicherheitsmodellbericht muss vor der Freigabe vorgelegt und bei sich verändernden Risiken aktualisiert werden. Um die Rechenschaftspflicht der Organisation zu gewährleisten, müssen die Unterzeichner die Aufgaben der Aufsicht, des Eigentums, der Überwachung und der Sicherheit innerhalb ihrer Führungsstrukturen klar zuweisen und für angemessene Ressourcen, eine starke Risikokultur und den Schutz von Hinweisgebern sorgen. Schwerwiegende Vorfälle müssen umgehend nachverfolgt, dokumentiert und den Aufsichtsbehörden je nach Schweregrad und innerhalb enger Fristen gemeldet werden. Schließlich sind die Unterzeichner verpflichtet, detaillierte Aufzeichnungen über Sicherheits- und Risikomanagementaktivitäten mindestens zehn Jahre lang aufzubewahren.
Geltungsbereich des GPAI-Modells Anbieterdefinition
GPAI-Modell-Anbieter
Die Kapitel über Transparenz und Urheberrecht des Kodex sind für alle Anbieter von GPAI-Modellen relevant. KI-Modelle für allgemeine Zwecke" werden im Rahmen des KI-Gesetzes als Modelle definiert, die eine erhebliche Allgemeinheit aufweisen und in der Lage sind, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, und die in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden können.11 Als indikatives Kriterium schlagen die GPAI-Richtlinien vor, dass Modelle, die mit mehr als 10^23 FLOP trainiert wurden und Sprache, Text-zu-Bild oder Text-zu-Video generieren können, als GPAI zu betrachten sind.12 Der Modus der Modellfreigabe (offene Gewichte, API usw.) spielt für die Definition des GPAI-Modells keine Rolle, es sei denn, das Modell wird für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten vor der Markteinführung verwendet.13 Der Freigabemodus ist jedoch für die geltenden Verpflichtungen von Bedeutung, da Anbieter von GPAI-Modellen, die unter einer freien und quelloffenen Lizenz freigegeben werden, von den Verpflichtungen nach Artikel 53 Absatz 1 Buchstaben a und b befreit sind.14 Anbieter von GPAI-Modellen sind natürliche oder juristische Personen, Behörden, Agenturen oder andere Einrichtungen, die ein GPAI-Modell entwickeln oder entwickeln lassen und es unter ihrem eigenen Namen oder ihrer eigenen Marke entgeltlich oder unentgeltlich in den Verkehr bringen.15
Es ist möglich, dass ein nachgelagerter Modifizierer zum Anbieter eines GPAI-Modells wird, das zunächst von einem vorgelagerten Akteur bereitgestellt wurde. In den Leitlinien der Kommission wird davon ausgegangen, dass dies nur dann der Fall ist, wenn die Änderung zu einer "erheblichen Änderung der Allgemeinheit, der Fähigkeiten oder des Systemrisikos" des Modells führt.16 Von einer solchen Änderung wird ausgegangen, wenn der nachgelagerte Modifizierer für die Änderung mehr als ein Drittel der für das ursprüngliche Modell verwendeten Berechnungen verwendet.17 Ist dieser Wert dem nachgeschalteten Anbieter nicht bekannt, wird dieser Schwellenwert durch ein Drittel des Schwellenwerts für das Modell, das als GPAI-Modell gilt, ersetzt, der derzeit 10^23 FLOP beträgt.18
Die GPAI-Leitlinien enthalten Beispiele zur Verdeutlichung des Anwendungsbereichs. So gilt ein Modell, das mit mehr als 10^24 FLOP für die enge Aufgabe trainiert wurde, die Auflösung von Bildern zu erhöhen, nicht als GPAI-Modell.19 Das Modell in diesem Beispiel erfüllt zwar den Schwellenwert für Berechnungen, kann aber nur eine begrenzte Anzahl von Aufgaben kompetent ausführen und gilt daher nicht als Allzweckmodell.
GPAI-Modell mit Anbietern von systemischen Risiken
Das Kapitel "Sicherheit" des Kodex ist für Unternehmen relevant, die GPAI-Modelle mit systemischem Risiko anbieten. Systemisches Risiko" ist definiert als spezifisch für die hochwirksamen Fähigkeiten von GPAI-Modellen, die erhebliche Auswirkungen auf den Markt der Union haben.20 Dies könnte aufgrund ihrer Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Auswirkungen auf die öffentliche Gesundheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft als Ganzes sein, die sich in großem Umfang über die gesamte Wertschöpfungskette ausbreiten können. Bei Modellen wird davon ausgegangen, dass sie eine hohe Auswirkung haben, wenn der kumulative Rechenaufwand für ihre Ausbildung mehr als 10^25 FLOP beträgt. Diese Vermutung ist widerlegbar. Derzeit bieten schätzungsweise 11 Anbieter weltweit Modelle an, die diesen Schwellenwert überschreiten.
Es ist möglich, dass nachgeschaltete Modifizierer zu Anbietern eines neuen GPAI-Modells mit systemischem Risiko werden, und zwar auf der Grundlage ähnlicher Überlegungen wie oben für nachgeschaltete GPAI-Modifizierer beschrieben. D.h. wenn der nachgeschaltete Modifizierer mehr als ein Drittel der Berechnungen für die Modifizierung im Vergleich zu den Trainingsberechnungen für das ursprüngliche GPAI-Modell mit systemischem Risiko verwendet, wird der nachgeschaltete Modifizierer zum Anbieter.21 Wenn der ursprüngliche Umfang der Trainingsberechnungen dem nachgeschalteten Anbieter nicht bekannt ist, wird der Schwellenwert durch ein Drittel des Schwellenwerts für das Modell ersetzt, bei dem davon ausgegangen wird, dass es sich um ein GPAI-Modell mit systemischem Risiko handelt, was derzeit 10^25 FLOP beträgt.
Anbieter von GPAI-Modellen mit systemischem Risiko können die Einstufung anfechten, indem sie nachweisen, dass ihr Modell trotz Überschreitung der Berechnungsschwelle keine "High-Impact-Fähigkeiten" besitzt, die den fortgeschrittensten Modellen entsprechen oder diese übertreffen.22
Unterschriften: Wer hat unterschrieben und was bedeutet das?
Die Kommission hat das Unterzeichnerformular, die Beschreibung des Verfahrens und eine Liste der Unterzeichner auf ihrer Website veröffentlicht. Zu den Unterzeichnern gehören die meisten Unternehmen, die die fortschrittlichsten GPAI-Modelle entwickeln, mit den bemerkenswerten Ausnahmen von META und Unternehmen mit Sitz in China. Zum Zeitpunkt dieser Aktualisierung haben die folgenden Unternehmen den Verhaltenskodex unterzeichnet:
- Erreichbar unter
- AI Alignment Lösungen
- Aleph Alpha
- Almawave
- Amazon
- Anthropisch
- Bria AI
- Cohere
- Cyber-Institut
- Domyn
- Dweve
- Euc Inovação Portugal
- Fastweb
- Humane Technologie
- IBM
- Lawise
- Microsoft
- Mistral AI
- Flusspferd öffnen
- OpenAI
- Pleias
- Wiedereinführung
- ServiceNow
- Virtuo Turing
- SCHREIBER
Die GPAI-Leitlinien legen fest, dass Anbieter von GPAI-Modellen (mit Systemrisiko) die Einhaltung ihrer Verpflichtungen aus dem AI-Gesetz durch die Einhaltung des Verhaltenskodexes nachweisen können, nachdem der AI-Vorstand und das AI-Büro ihre bestätigenden Bewertungen des Kodexes veröffentlicht haben. Bei den Unterzeichnern wird die Kommission ihre Durchsetzungsmaßnahmen auf die Überwachung der Einhaltung des Kodexes konzentrieren, das gestiegene Vertrauen zeigen und die Verpflichtungen zum Kodex bei der Festsetzung der Höhe der Geldbußen möglicherweise als mildernde Faktoren berücksichtigen.23 Von Nicht-Unterzeichnern wird hingegen erwartet, dass sie die Einhaltung des Kodex auf andere angemessene Weise nachweisen.24 Sie erhalten unter Umständen eine größere Anzahl von Auskunftsersuchen und müssen in der Regel detailliertere Informationen vorlegen.
Durchsetzung des Verhaltenskodexes
Die GPAI-Vorschriften traten am 2. August 2025 in Kraft, was bedeutet, dass alle neuen Modelle, die ab diesem Datum auf den Markt kommen, den Vorschriften entsprechen müssen. Die Durchsetzungsmaßnahmen der Kommission - wie Auskunftsersuchen, Zugang zu Modellen oder Modellrückrufe - beginnen jedoch erst ein Jahr später, am 2. August 2026. Diese Frist gibt den Anbietern Zeit, mit dem Amt für künstliche Intelligenz zusammenzuarbeiten, um sicherzustellen, dass sie die Normen erfüllen. Für Modelle, die vor dem 2. August 2025 auf den Markt gebracht wurden, haben die Anbieter bis zum 2. August 2027 Zeit, um sie in Übereinstimmung mit den Normen zu bringen.
Gemäß den GPAI-Leitlinien wird die Kommission bei der Überwachung, Untersuchung, Durchsetzung und Kontrolle der GPAI-Bestimmungen einen kooperativen, abgestuften und verhältnismäßigen Ansatz verfolgen.25
Die Kommission kann beschließen, den Kodex im Wege eines Durchführungsrechtsakts zu genehmigen, wodurch er in der Union "allgemeine Gültigkeit" erlangen würde.26 Es ist unklar, ob die Kommission dies tun wird und welche rechtlichen Auswirkungen ein solcher Durchführungsrechtsakt hätte.
Akademiker und Organisationen der Zivilgesellschaft sowie unabhängige Sachverständige, die an der Ausarbeitung des Kodexes beteiligt waren, haben darauf hingewiesen, dass für eine angemessene Durchsetzung des Kodexes wesentlich mehr Ressourcen und Personal benötigt würden als derzeit zugewiesen. Insbesondere die Zahl der Mitarbeiter in den Referaten "Regulierung und Einhaltung der Vorschriften" und "Sicherheit von Künstlicher Intelligenz" des Amtes für Künstliche Intelligenz müsste im Vergleich zum Stand von Mitte 2025 fast verdreifacht werden. Es ist noch nicht klar, ob diese Ressourcen zugewiesen werden.
Vorgeschichte: Der Redaktionsprozess auf dem Weg zum Verhaltenskodex
Der Entwurfsprozess begann im Oktober 2024 und umfasste nach einem offenen Aufruf zur Interessenbekundung mehr als tausend Beteiligte. Diese Interessengruppen lieferten schriftliche Beiträge zu drei verschiedenen Entwürfen des Kodex. Zu den Teilnehmern gehörten eine Reihe von Akteuren, darunter GPAI-Modellanbieter, nachgelagerte Anbieter, Wirtschaftsverbände, Wissenschaftler, unabhängige Experten und Organisationen der Zivilgesellschaft. Dieser Multi-Stakeholder-Prozess wurde von dreizehn unabhängigen Vorsitzenden und stellvertretenden Vorsitzenden geleitet.
Struktur der Arbeitsgruppe
Die Vorsitzenden unterteilten die Entwürfe in vier verschiedene inhaltliche Kategorien in Übereinstimmung mit dem GPAI-Musterabschnitt des AI-Gesetzes:
- Arbeitsgruppe 1: Transparenz und urheberrechtliche Vorschriften
Detaillierte Dokumentation für nachgeschaltete Anbieter und das AI-Büro auf der Grundlage der Anhänge XI und XII des AI-Gesetzes, Maßnahmen zur Einhaltung des Unionsrechts zum Urheberrecht und zu verwandten Schutzrechten und Veröffentlichung einer Zusammenfassung der Schulungsinhalte.
- Arbeitsgruppe 2: Risikoermittlung und Bewertungsmaßnahmen für systemische Risiken
Detaillierung der Risikotaxonomie auf der Grundlage eines Vorschlags des Amtes für künstliche Intelligenz und Identifizierung und Detaillierung relevanter technischer Risikobewertungsmaßnahmen, einschließlich Modellbewertung und kontradiktorischer Tests.
- Arbeitsgruppe 3: Risikominderungsmaßnahmen für systemische Risiken
Identifizierung und detaillierte Beschreibung relevanter technischer Risikominderungsmaßnahmen, einschließlich des Schutzes der Cybersicherheit für das KI-Allzweckmodell und die physische Infrastruktur des Modells.
- Arbeitsgruppe 4: Internes Risikomanagement und Governance für Anbieter von KI-Modellen für allgemeine Zwecke
Identifizierung und Detaillierung von Richtlinien und Verfahren zur Operationalisierung des Risikomanagements in der internen Governance von Anbietern von KI-Modellen für allgemeine Zwecke, einschließlich der Verfolgung, Dokumentation und Meldung schwerwiegender Vorfälle und möglicher Abhilfemaßnahmen.
Quelle: Europäische Kommission
Plenarsitzung
Nach jeder neuen Iteration des Entwurfs veranstalteten die Vorsitzenden Plenarsitzungen, um Fragen zu beantworten und Präsentationen der Interessengruppen zu ermöglichen. Die Plenarsitzungen waren in vier Arbeitsgruppen unterteilt, die sich auf die oben genannten Inhaltskategorien stützten, wobei in jeder Arbeitsgruppe nur ein Vertreter pro Organisation zugelassen war. Das "Auftaktplenum" fand am 30. September 2024 statt - ein virtuelles Treffen mit fast tausend Teilnehmern27 aus der Industrie, den Rechteinhabern, der Zivilgesellschaft und der Wissenschaft.28 Drei weitere Plenarsitzungen fanden für alle Arbeitsgruppen statt. Parallel zu den vier Arbeitsgruppen fanden spezielle Workshops mit den Anbietern von GPAI-Modellen und den Vorsitzenden/Vizevorsitzenden der Arbeitsgruppen statt, um jede iterative Entwurfsrunde zu informieren, da diese Interessengruppen als die Hauptadressaten der CoP angesehen wurden. Außerdem gab es einen separaten Workshop für Organisationen der Zivilgesellschaft.
In den ersten Phasen des Erarbeitungsprozesses wurde der ursprünglich festgelegte Zeitplan eingehalten. In der letzten Phase kam es zu einer zweiwöchigen Verzögerung bei der Freigabe des dritten Entwurfs und der Plenarrunde sowie zu einer einmonatigen Verzögerung bei der Veröffentlichung des endgültigen Kodex, der am 3. Juli 2025 in einer abschließenden Plenarsitzung vorgestellt und am 10. Juli veröffentlicht wurde.
Abbildung 1: CoP-Erstellungsprozess - Quelle: Europäische Kommission
Vorsitzende und stellvertretende Vorsitzende
Die Vorsitzenden und stellvertretenden Vorsitzenden waren ein entscheidender Bestandteil des Entwurfsprozesses für den Verhaltenskodex. Sie wurden auf der Grundlage ihres nachgewiesenen Fachwissens in den relevanten Bereichen, ihrer Fähigkeit, die Rolle zu erfüllen (zeitliche Verpflichtungen und operative Erfahrung) und ihrer Unabhängigkeit ( keine finanziellen oder sonstigen Interessen, die ihre Unabhängigkeit, Unparteilichkeit und Objektivität beeinträchtigen könnten) ernannt. Sie waren die "Federhalter", die dafür verantwortlich waren, die Beiträge aller Interessengruppen in einem prägnanten Verhaltenskodex zusammenzufassen. Die Vorsitzenden und ihr jeweiliger Hintergrund sind im Folgenden aufgeführt:
Arbeitsgruppe 1: Transparenz und urheberrechtliche Vorschriften
Name | Rolle | Fachwissen | Land |
---|---|---|---|
Nuria Oliver | Ko-Vorsitzender | Direktor der Stiftung ELLIS Alicante | Spanien |
Alexander Peukert | Ko-Vorsitzender | Professor für Zivil-, Handels- und Informationsrecht an der Goethe-Universität Frankfurt am Main | Deutschland |
Rishi Bommasani | Stellvertretender Vorsitz | Leiterin der Gesellschaft am Stanford Center for Research on Models als Teil des Stanford Institute for Human-Centered AI | US |
Céline Castets-Renard | Stellvertretender Vorsitz | Ordentlicher Professor an der Fakultät für Zivilrecht der Universität Ottawa und Inhaber des Forschungslehrstuhls Accountable AI in a Global Context | Frankreich |
Arbeitsgruppe 2: Risikoermittlung und -bewertung, einschließlich Bewertungen
Name | Rolle | Fachwissen | Land |
---|---|---|---|
Matthias Samwald | Stuhl | Außerordentlicher Professor am Institut für Künstliche Intelligenz an der Medizinischen Universität Wien | Österreich |
Marta Ziosi | Stellvertretender Vorsitz | Postdoc-Forscher bei der Oxford Martin AI Governance Initiative | Italien |
Alexander Zacherl | Stellvertretender Vorsitz | Unabhängiger Systemdesigner. Zuvor bei UK AI Safety Institute und DeepMind | Deutschland |
Arbeitsgruppe 3: Technische Risikominderung
Name | Rolle | Fachwissen | Land |
---|---|---|---|
Yoshua Bengio | Stuhl | Ordentlicher Professor an der Université de Montréal und Gründer und wissenschaftlicher Direktor von Mila - Quebec AI Institute (Turing Award Winner) | Kanada |
Daniel Privitera | Stellvertretender Vorsitz | Gründerin und Geschäftsführerin des KIRA-Zentrums | Italien und Deutschland |
Nitarshan Rajkumar | Stellvertretender Vorsitz | Doktorand in der KI-Forschung an der Universität von Cambridge | Kanada |
Arbeitsgruppe 4: Internes Risikomanagement und Governance von KI-Anbietern für allgemeine Zwecke
Name | Rolle | Fachwissen | Land |
---|---|---|---|
Marietje Schaake | Stuhl | Fellow am Stanford Cyber Policy Center und am Institute for Human-Centred AI | Niederlande |
Markus Anderljung | Stellvertretender Vorsitz | Direktor für Politik und Forschung am Zentrum für die Steuerung von KI | Schweden |
Anka Reuel | Stellvertretender Vorsitz | Doktorand der Informatik an der Universität Stanford | Deutschland |
Der Zeitaufwand für diese Folgepositionen war beträchtlich. Aus Gründen der finanziellen Unabhängigkeit waren die Ämter des Vorsitzenden bzw. stellvertretenden Vorsitzenden jedoch alle unbezahlt (dies galt auch für alle Plenarteilnehmer), wurden aber von externen Auftragnehmern unterstützt, nämlich einem Konsortium von Beratungsunternehmen, darunter das französische Beratungsunternehmen Wavestone.
Hinweise und Referenzen
- Normungsantrag für KI-Systeme ︎
- Artikel 113 Buchstabe b ︎
- Das Europäische Institut für Telekommunikationsnormen (ETSI) kann ebenfalls einbezogen werden. ︎
- CEN-CENELEC ︎
- ISO ︎
- Artikel 40 Absatz 3 ︎
- Artikel 53 ︎
- Artikel 55 ︎
- Artikel 53 Absatz 4 und Artikel 55 Absatz 2 ︎
- Sicherheit und Sicherheit FAQ ︎
- Artikel 3(63) ︎
- Leitlinien der Kommission Ziffer 17 ︎
- Beachten Sie jedoch, dass der Veröffentlichungsmodus für die geltenden Verpflichtungen von Bedeutung ist, da Anbieter von GPAI-Modellen, die unter einer freien und quelloffenen Lizenz veröffentlicht werden, von den Verpflichtungen gemäß Artikel 53 Absatz 1 Buchstaben a und b befreit sind (siehe Artikel 53 Absatz 2 und GPAI-Leitlinien Kapitel 4) ︎
- Artikel 53 Absatz 2 und GPAI-Leitlinien Kapitel 4 ︎
- Artikel 3 Absatz 3 ︎
- Leitlinien der Kommission Ziffer 62 ︎
- Leitlinien der Kommission Ziffer 63 ︎
- Leitlinien der Kommission Ziffer 64 ︎
- Leitlinien der Kommission Ziffer 20 ︎
- Artikel 3 Absatz 65 ︎
- Leitlinien der Kommission Ziffer 63 ︎
- Artikel 52 Absatz 2 ︎
- Leitlinien der Kommission Ziffer 94 ︎
- Leitlinien der Kommission Ziffer 95 ︎
- Leitlinien der Kommission Ziffer 102 ︎
- Artikel 56 Absatz 6 ︎
- In der Pressemitteilung der Kommission bekannt gegebene Zahl ︎
- Euractiv-Artikel über die Vielfalt der Teilnehmer ︎