Eine Einführung in den Code of Practice für das AI-Gesetz

03 Jul, 2024

Aktualisiert: 22. April 2025. Dieser Blogbeitrag wird aktualisiert, sobald neue Informationen verfügbar sind.

Diese Zusammenfassung, die den Verhaltenskodex für Anbieter von allgemeinen KI-Modellen (GPAI) beschreibt, wurde von Jimmy Farrelldem Mitverantwortlichen für die EU-KI-Politik bei Pour Demainund Tekla Emborg, Politikforscherin am Institut Zukunft des Lebens. Für weitere Fragen, wenden Sie sich bitte an jimmy.farrell@pourdemain.eu.


Im Zuge der schrittweisen Umsetzung des AI-Gesetzes ist es wichtig, die verschiedenen in der Verordnung vorgesehenen Durchsetzungsmechanismen zu verstehen. Einer der wichtigsten ist der allgemeine Verhaltenskodex für Künstliche Intelligenz (GPAI), der derzeit vom Amt für Künstliche Intelligenz und einem breiten Spektrum von Interessengruppen entwickelt wird.

Dieser Beitrag kommt gleich:


Eine kurze Zusammenfassung des Verhaltenskodexes:

  • Zweck: Der Verhaltenskodex zum KI-Gesetz (eingeführt in Artikel 56) ist eine Reihe von Leitlinien für die Einhaltung des KI-Gesetzes. Sie werden ein entscheidendes Instrument sein, um die Einhaltung der Verpflichtungen des EU-KI-Gesetzes zu gewährleisten, insbesondere in der Übergangszeit zwischen dem Inkrafttreten der Verpflichtungen für GPAI-Modellanbieter (August 2025) und der Annahme von Standards (August 2027 oder später). Obwohl sie rechtlich nicht bindend sind, können sich GPAI-Modellanbieter an den Verhaltenskodex halten, um die Einhaltung der GPAI-Modellanbieterverpflichtungen bis zum Inkrafttreten der europäischen Normen nachzuweisen.
  • Prozess: Der Kodex wird im Rahmen eines Multi-Stakeholder-Prozesses entwickelt, an dem akademische und unabhängige Experten, Anbieter von GPAI-Modellen, nachgeschaltete Unternehmen, Mitglieder der Zivilgesellschaft und andere beteiligt sind.
  • Inhalt: Der Kodex besteht aus drei Abschnitten. Die ersten beiden, Transparenz und Urheberrecht, gelten für alle GPAI-Modellanbieter. Der dritte Abschnitt, der Abschnitt Sicherheit, gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Für jeden Abschnitt legt der Kodex bestimmte Verpflichtungen und entsprechende Maßnahmen fest, wie die Anbieter den Verpflichtungen nachkommen können.
  • Umsetzung: Das EU-Büro für künstliche Intelligenz wird die Angemessenheit des Kodexes bewerten und ihn gegebenenfalls durch einen Durchführungsrechtsakt genehmigen. Wenn ein Verhaltenskodex nicht fertiggestellt werden kann, kann die Kommission gemeinsame Regeln für die Umsetzung aufstellen.

Einführung

Dieser Blog-Beitrag erläutert das Konzept, den Prozess und die Bedeutung des Verhaltenskodex, eines Instruments des KI-Gesetzes zur Überbrückung der Übergangszeit zwischen dem Inkrafttreten der Verpflichtungen für Anbieter von KI-Modellen für allgemeine Zwecke (GPAI) und der endgültigen Annahme harmonisierter europäischer GPAI-Modellstandards. Nach der Veröffentlichung des dritten Entwurfs des Verhaltenskodexes am 11. März fasst dieser Beitrag die wichtigsten und aktuellsten Informationen zusammen. 

Hintergrund: Normen und die Notwendigkeit eines Verhaltenskodexes 

Nach dem Inkrafttreten des KI-Gesetzes am 1. August werden die Verpflichtungen im Rahmen der Verordnung schrittweise eingeführt, wie in unserem Überblick über den Zeitplan für die Umsetzung dargelegt, wobei die Bestimmungen über verbotene KI-Systeme bereits seit Februar 2025 in Kraft sind. In der Zwischenzeit hat der komplexe Prozess der Entwicklung harmonisierter europäischer Normen begonnen, die die Verpflichtungen aus dem KI-Gesetz umsetzen. Ein offizieller Normungsantrag für Normen für KI-Systeme wurde von der Kommission angenommen und von CEN-CENELEC genehmigt,1 muss ein entsprechender Antrag für GPAI-Modellnormen noch ausgearbeitet werden. Wann ein solcher Normungsauftrag erteilt wird, hängt weitgehend davon ab, wie wirksam der Verhaltenskodex die einschlägigen Verpflichtungen aus dem KI-Gesetz umsetzt. Der Normungsprozess wird in einem früheren Blog-Beitrag ausführlich beschrieben. 

Nach dem AI-Gesetz sind die Verpflichtungen für GPAI-Modelle, die in den Artikeln 50-55 aufgeführt sind, zwölf Monate lang einklagbar2 nach Inkrafttreten des Gesetzes (2. August 2025). Der europäische Normungsprozess, an dem hauptsächlich3 das Europäische Komitee für Normung (CEN) und das Europäische Komitee für elektrotechnische Normung (CENELEC) beteiligt sind, dauert oft bis zu drei Jahre.4 Bei technischeren Normen, wie denen für GPAI, kann dieser Prozess sogar noch länger dauern, wenn sie in Abstimmung mit internationalen Normen ausgearbeitet werden,5 wie im AI-Gesetz vorgeschrieben.6 Die Einbeziehung mehrerer Interessengruppen und die Konsensbildung, die für die Festlegung von Normen charakteristisch sind, verlängern den Zeitrahmen noch weiter. Daher ist es unwahrscheinlich, dass die GPAI-Modellanbieterverpflichtungen in absehbarer Zeit als technische Standards operationalisiert werden.

Rechtliche Anforderungen an den Verhaltenskodex

In Artikel 56 des AI-Gesetzes wird der Verhaltenskodex als Platzhalter zur Überbrückung der Zeit zwischen dem Inkrafttreten der GPAI-Musteranbieterverpflichtungen (zwölf Monate) und der Verabschiedung von Standards (drei Jahre oder mehr) beschrieben. Obwohl er rechtlich nicht bindend ist, können sich GPAI-Modellanbieter auf den Verhaltenskodex berufen, um die Einhaltung der GPAI-Modellanbieterverpflichtungen in folgenden Bereichen nachzuweisen Artikel 53 und 55 nachzuweisen, bis Standards entwickelt sind. Diese Verpflichtungen umfassen:7

  • Bereitstellung von technischen Unterlagen für das AI-Büro und die zuständigen nationalen Behörden
  • Bereitstellung relevanter Informationen für nachgeschaltete Anbieter, die ihr Modell in ihr KI- oder GPAI-System integrieren wollen (z. B. Fähigkeiten und Grenzen)
  • Zusammenfassungen der verwendeten Trainingsdaten
  • Maßnahmen zur Einhaltung des geltenden Unionsrechts zum Urheberrecht

Für GPAI-Modelle mit systemischem Risiko (Modelle, die oberhalb des Schwellenwerts von 1025 FLOPS ausgebildet werden), gelten weitere Verpflichtungen:8

  • Modellbewertungen nach dem Stand der Technik
  • Risikobewertung und -minderung
  • Meldung schwerwiegender Zwischenfälle, einschließlich Abhilfemaßnahmen
  • Angemessener Schutz der Cybersicherheit

Anbieter, die den Verhaltenskodex nicht einhalten, müssen die Einhaltung der oben genannten Verpflichtungen gegenüber der Kommission mit anderen, möglicherweise aufwändigeren und zeitraubenderen Mitteln nachweisen.9

Der Verhaltenskodex wird wahrscheinlich die Grundlage für die GPAI-Standards bilden. Der Inhalt des Kodex soll daher die Intentionen des AI-Gesetzes getreu widerspiegeln, auch im Hinblick auf Gesundheit, Sicherheit und Grundrechtsbelange.

Was? Inhalt des Verhaltenskodexes (dritter Entwurf)

Seit Beginn des Entwurfsprozesses im Oktober 2024 wurden drei Entwürfe des Verhaltenskodexes veröffentlicht. Während die endgültige Fassung für Anfang Mai erwartet wird, gibt der jüngste dritte Entwurf des Kodex vom 11. März einen guten Hinweis auf die Struktur und den Inhalt der erwarteten endgültigen Fassung. Die Vorsitzenden und stellvertretenden Vorsitzenden haben eine interaktive Website mit dem vollständigen Text, den FAQ und Zusammenfassungen eingerichtet.

Insgesamt besteht der Kodex aus drei Abschnitten. Die ersten beiden, Transparenz und Urheberrecht, gelten für alle GPAI-Modellanbieter. Der dritte Abschnitt, Sicherheit und Schutz, gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko (über dem Schwellenwert von 10^25), derzeit eine sehr kleine Gruppe von 5-15 Unternehmen weltweit.10 Für jeden Abschnitt legt der Kodex bestimmte Verpflichtungen und entsprechende Maßnahmen fest, wie die Anbieter den Verpflichtungen nachkommen können.

Abschnitt "Transparenz" (alle GPAI-Modellanbieter)

In diesem Abschnitt verpflichten sich die Unterzeichner, eine Musterdokumentation zu erstellen und auf dem neuesten Stand zu halten, nachgeschalteten Anbietern und dem AI-Büro auf Anfrage relevante Informationen zur Verfügung zu stellen und die Qualität, Sicherheit und Integrität der dokumentierten Informationen zu gewährleisten. Der Kodex enthält ein Musterdokumentationsformular, das vollständig interaktiv sein wird. Dieser Abschnitt gilt nicht für quelloffene AI-Modelle, es sei denn, die Modelle gelten als GPAI mit systemischem Risiko.

Abschnitt Urheberrecht (alle GPAI-Modellanbieter)

Die Unterzeichner verpflichten sich, eine Urheberrechtspolitik auszuarbeiten, auf dem neuesten Stand zu halten und umzusetzen. Gemäß den Maßnahmen des Kodex soll diese Politik sicherstellen, dass die Unterzeichner beim Crawlen des World Wide Web nur rechtmäßig zugängliche, urheberrechtlich geschützte Inhalte vervielfältigen und extrahieren, Rechtevorbehalte einhalten, das Risiko der Produktion von urheberrechtswidrigem Output mindern, eine Kontaktstelle benennen und die Einreichung von Beschwerden über die Nichteinhaltung ermöglichen. 

Abschnitt Sicherheit (nur GPAI-Modell mit Anbietern systemischer Risiken)

Dieser Abschnitt betrifft nur Anbieter von GPAI-Modellen mit systemischem Risiko. Die Unterzeichner verpflichten sich, einen Rahmen für Sicherheit und Gefahrenabwehr anzunehmen und umzusetzen. Darin werden Risikobewertung, -minderung und -steuerung detailliert beschrieben, um systemische Risiken auf einem akzeptablen Niveau zu halten. Die Unterzeichner werden die Risiken während des gesamten Lebenszyklus des Modells bewerten und abmildern, systemische Risiken identifizieren und analysieren, um deren Schwere und Wahrscheinlichkeit zu verstehen, und Kriterien für die Akzeptanz von Risiken festlegen. Dazu gehört auch die Umsetzung geeigneter, dem Stand der Technik entsprechender Sicherheitsvorkehrungen, um Risiken durch unbefugten Zugriff auf nicht freigegebene Modellgewichte, auch durch Insider-Bedrohungen, zu verhindern. Die Unterzeichner berichten über ihre Umsetzung des Kodex in Form von Sicherheitsmodellberichten für jedes ihrer GPAI-Modelle mit systemischem Risiko. Darüber hinaus werden die Unterzeichner die Verantwortung intern zuweisen, eine unabhängige externe Bewertung durchführen, sofern keine Ausnahmen gelten, eine Überwachung schwerwiegender Vorfälle durchführen, Schutzmaßnahmen gegen Vergeltungsmaßnahmen ergreifen, das AI-Büro zu bestimmten Meilensteinen benachrichtigen und relevante Informationen dokumentieren und veröffentlichen, wann immer dies für das öffentliche Verständnis der von GPAI-Modellen ausgehenden systemischen Risiken relevant ist.

Wer? Umfang der GPAI-Modellanbieterdefinition

Der erste Teil des Kodex ist für alle Anbieter von GPAI-Modellen relevant. KI-Modelle für allgemeine Zwecke" werden im Rahmen des KI-Gesetzes als Modelle definiert, die eine erhebliche Allgemeinheit aufweisen und in der Lage sind, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, und die in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden können.11 Der Modus der Modellfreigabe (offene Gewichte, API usw.) spielt für diese Definition keine Rolle, es sei denn, das Modell wird für Forschungs-, Entwicklungs- oder Prototyping-Aktivitäten vor der Markteinführung verwendet.12 Anbieter von GPAI-Modellen sind natürliche oder juristische Personen, Behörden, Agenturen oder andere Einrichtungen, die ein GPAI-Modell entwickeln oder entwickeln lassen und es unter ihrem eigenen Namen oder ihrer eigenen Marke auf den Markt bringen, unabhängig davon, ob dies gegen Bezahlung oder kostenlos geschieht.13

Darüber hinaus ist der zweite Teil des Kodex für Unternehmen relevant, die "GPAI-Modelle mit Systemrisiko" anbieten. Das "Systemrisiko" ist definiert als spezifisch für die hochwirksamen Fähigkeiten von GPAI-Modellen, die erhebliche Auswirkungen auf den Unionsmarkt haben. Dies könnte aufgrund ihrer Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Auswirkungen auf die öffentliche Gesundheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft als Ganzes sein, die sich in großem Umfang über die gesamte Wertschöpfungskette ausbreiten können.14 Bei Modellen wird davon ausgegangen, dass sie eine hohe Auswirkung haben, wenn der kumulative Rechenaufwand für ihre Ausbildung mehr als 10(^25) Gleitkommaoperationen (FLOPs) beträgt. Dies ist eine widerlegbare Vermutung, die die Modelle nicht automatisch qualifiziert. Derzeit bieten schätzungsweise 11 Anbieter weltweit Modelle an, die diesen Schwellenwert überschreiten.

Das AI-Gesetz legt diese Definitionen zwar fest, doch wird die Kommission weitere Leitlinien darüber herausgeben, was dies in der Praxis bedeutet. Dazu gehören vor allem klarere Leitlinien zu den Verpflichtungen in Bezug auf Modelländerungen, wie z. B. die Feinabstimmung.

Wie? Entwurfsverfahren

Aufgrund der zwölfmonatigen Frist für das Inkrafttreten der GPAI-Modellanbieterverpflichtungen muss der Verhaltenskodex bis zum 1. Mai 2025 fertig gestellt sein. Dies soll der Kommission nach einer Überprüfung durch das AI Office und den AI Board ermöglichen,15 Zeit zu geben, den Kodex mit einem Durchführungsrechtsakt zu genehmigen oder abzulehnen.16 Wird der Kodex abgelehnt, kann die Kommission alternative Methoden zur Durchsetzung entwickeln.

Der Entwurfsprozess ist seit Oktober 2024 im Gange. Im Anschluss an einen offenen Aufruf zur Interessenbekundung haben mehr als tausend Akteure schriftliche Beiträge zu drei verschiedenen Entwürfen des Kodexes geliefert. Zu den Teilnehmern gehörten eine Reihe von Akteuren, darunter Anbieter von GPAI-Modellen, nachgelagerte Anbieter, Wirtschaftsverbände, Wissenschaftler, unabhängige Experten und Organisationen der Zivilgesellschaft. Dieser Multi-Stakeholder-Prozess wurde von dreizehn unabhängigen Vorsitzenden und stellvertretenden Vorsitzenden geleitet. 

Struktur der Arbeitsgruppe

Die Vorsitzenden unterteilten die Entwürfe in vier verschiedene inhaltliche Kategorien in Übereinstimmung mit dem GPAI-Musterabschnitt des AI-Gesetzes:

  • Arbeitsgruppe 1: Transparenz und urheberrechtliche Vorschriften

Detaillierte Dokumentation für nachgeschaltete Anbieter und das AI-Büro auf der Grundlage der Anhänge XI und XII des AI-Gesetzes, Maßnahmen zur Einhaltung des Unionsrechts zum Urheberrecht und zu verwandten Schutzrechten und Veröffentlichung einer Zusammenfassung der Schulungsinhalte.

  • Arbeitsgruppe 2: Risikoermittlung und Bewertungsmaßnahmen für systemische Risiken

Detaillierung der Risikotaxonomie auf der Grundlage eines Vorschlags des Amtes für künstliche Intelligenz und Identifizierung und Detaillierung relevanter technischer Risikobewertungsmaßnahmen, einschließlich Modellbewertung und kontradiktorischer Tests.

  • Arbeitsgruppe 3: Risikominderungsmaßnahmen für systemische Risiken

Identifizierung und detaillierte Beschreibung relevanter technischer Risikominderungsmaßnahmen, einschließlich des Schutzes der Cybersicherheit für das KI-Allzweckmodell und die physische Infrastruktur des Modells.

  • Arbeitsgruppe 4: Internes Risikomanagement und Governance für Anbieter von KI-Modellen für allgemeine Zwecke

Identifizierung und Detaillierung von Richtlinien und Verfahren zur Operationalisierung des Risikomanagements in der internen Governance von Anbietern von KI-Modellen für allgemeine Zwecke, einschließlich der Verfolgung, Dokumentation und Meldung schwerwiegender Vorfälle und möglicher Abhilfemaßnahmen.

Quelle: Europäische Kommission

Plenarsitzung

Nach jeder neuen Iteration des Entwurfs veranstalteten die Vorsitzenden Plenarsitzungen, um Fragen zu beantworten und Präsentationen der Interessengruppen zu ermöglichen. Die Plenarsitzungen waren in vier Arbeitsgruppen unterteilt, die sich auf die oben genannten Inhaltskategorien stützten, wobei in jeder Arbeitsgruppe nur ein Vertreter pro Organisation zugelassen war. Das "Auftaktplenum" fand am 30. September 2024 statt - ein virtuelles Treffen mit fast tausend Teilnehmern17 aus Industrie, Rechteinhabern, Zivilgesellschaft und Wissenschaft.18 Seitdem haben drei weitere Plenarsitzungen für alle Arbeitsgruppen stattgefunden. Parallel zu den vier Arbeitsgruppen fanden spezielle Workshops mit den Anbietern von GPAI-Modellen und den Vorsitzenden/Vizevorsitzenden der Arbeitsgruppen statt, um jede iterative Entwurfsrunde zu informieren, da diese als Hauptadressaten der CoP angesehen werden. Darüber hinaus gab es auch einen separaten Workshop für Organisationen der Zivilgesellschaft.

Der Entwurfsprozess hat sich im Allgemeinen an den ursprünglich festgelegten Zeitplan gehalten, mit einer Ausnahme: die Veröffentlichung des dritten Entwurfs und der Plenarrunde wurde um zwei Wochen verschoben. Nach den drei Entwurfsrunden, den Plenarworkshops und den Workshops nur für Anbieter wird die endgültige Fassung des Verhaltenskodexes voraussichtlich im Mai 2025 in einer Abschlussplenarsitzung vorgestellt.

Abbildung 1: CoP-Erstellungsprozess - Quelle: Europäische Kommission

Vorsitzende und stellvertretende Vorsitzende

Die Vorsitzenden und stellvertretenden Vorsitzenden waren ein entscheidender Bestandteil des Entwurfsprozesses für den Verhaltenskodex. Sie wurden auf der Grundlage ihres nachgewiesenen Fachwissens in den relevanten Bereichen, ihrer Fähigkeit, die Rolle zu erfüllen (zeitliche Verpflichtungen und operative Erfahrung) und ihrer Unabhängigkeit ( keine finanziellen oder sonstigen Interessen, die ihre Unabhängigkeit, Unparteilichkeit und Objektivität beeinträchtigen könnten) ernannt. Sie waren die "Federhalter", die dafür verantwortlich waren, die Beiträge aller Interessengruppen in einem prägnanten Verhaltenskodex zusammenzufassen. Die Vorsitzenden und ihr jeweiliger Hintergrund sind im Folgenden aufgeführt:

Arbeitsgruppe 1: Transparenz und urheberrechtliche Vorschriften

NameRolleFachwissenLand
Nuria OliverKo-VorsitzenderDirektor der Stiftung ELLIS AlicanteSpanien
Alexander Peukert Ko-VorsitzenderProfessor für Zivil-, Handels- und Informationsrecht an der Goethe-Universität Frankfurt am MainDeutschland
Rishi BommasaniStellvertretender VorsitzLeiterin der Gesellschaft am Stanford Center for Research on Models als Teil des Stanford Institute for Human-Centered AIUS
Céline Castets-RenardStellvertretender VorsitzOrdentlicher Professor an der Fakultät für Zivilrecht der Universität Ottawa und Inhaber des Forschungslehrstuhls Accountable AI in a Global ContextFrankreich

Arbeitsgruppe 2: Risikoermittlung und -bewertung, einschließlich Bewertungen

NameRolleFachwissenLand
Matthias Samwald StuhlAußerordentlicher Professor am Institut für Künstliche Intelligenz an der Medizinischen Universität WienÖsterreich
Marta ZiosiStellvertretender VorsitzPostdoc-Forscher bei der Oxford Martin AI Governance InitiativeItalien
Alexander ZacherlStellvertretender VorsitzUnabhängiger Systemdesigner. Zuvor bei UK AI Safety Institute und DeepMindDeutschland

Arbeitsgruppe 3: Technische Risikominderung

NameRolleFachwissenLand
Yoshua BengioStuhlOrdentlicher Professor an der Université de Montréal und Gründer und wissenschaftlicher Direktor von Mila - Quebec AI Institute (Turing Award Winner)Kanada
Daniel PriviteraStellvertretender VorsitzGründerin und Geschäftsführerin des KIRA-ZentrumsItalien und Deutschland
Nitarshan RajkumarStellvertretender VorsitzDoktorand in der KI-Forschung an der Universität von CambridgeKanada

Arbeitsgruppe 4: Internes Risikomanagement und Governance von KI-Anbietern für allgemeine Zwecke

NameRolleFachwissenLand
Marietje SchaakeStuhlFellow am Stanford Cyber Policy Center und am Institute for Human-Centred AINiederlande
Markus AnderljungStellvertretender VorsitzDirektor für Politik und Forschung am Zentrum für die Steuerung von KISchweden
Anka ReuelStellvertretender VorsitzDoktorand der Informatik an der Universität StanfordDeutschland

Der Zeitaufwand für diese Folgepositionen war beträchtlich. Aus Gründen der finanziellen Unabhängigkeit sind die Ämter des Vorsitzenden und des stellvertretenden Vorsitzenden jedoch alle unbezahlt (dies gilt auch für alle Plenarteilnehmer), werden aber von externen Auftragnehmern unterstützt, nämlich einem Konsortium von Beratungsunternehmen, darunter das französische Beratungsunternehmen Wavestone.

Wann? Nächste Schritte

Es wird erwartet, dass die Vorsitzenden und stellvertretenden Vorsitzenden den endgültigen Verhaltenskodex in einer abschließenden Plenarsitzung im Mai 2025 vorstellen werden. Anschließend werden das AI-Büro und der AI-Vorstand ihre Bewertung des Kodexes veröffentlichen. Die Kommission kann beschließen, den Kodex im Wege eines Durchführungsrechtsakts zu genehmigen, wodurch er allgemeine Gültigkeit in der Union erlangen würde.19 Das AI-Gesetz sieht vor, dass ein Verhaltenskodex spätestens am 2. Mai 2025 vorliegen muss.20 Angesichts der leichten Verzögerung des dritten Entwurfs bleibt abzuwarten, ob die Vorsitzenden und das AI-Büro diesen Zeitplan einhalten können. 

Falls bis zum 2. August 2025 kein Verhaltenskodex fertiggestellt werden kann, ist die Kommission befugt, durch Durchführungsrechtsakte gemeinsame Regeln für die Umsetzung der Verpflichtungen für GPAI-Modellanbieter festzulegen. Die Kommission hat im Aktionsplan für den AI-Kontinent betont, dass die Durchführungsmaßnahmen rechtzeitig für das Inkrafttreten vorliegen werden.

Der Verhaltenskodex spricht durchgängig von "Unterzeichnern", d. h. von Unternehmen, die Verpflichtungen gemäß dem AI-Gesetz haben und sich verpflichten, den Kodex als Mittel zum Nachweis der Einhaltung ihrer Verpflichtungen gemäß dem AI-Gesetz zu verwenden. Die genaue Bedeutung und Auswirkung der Unterzeichnerschaft sowie das Verfahren, mit dem Unternehmen unterzeichnen können, ist zum jetzigen Zeitpunkt unklar - zum Beispiel, ob Unternehmen Unterzeichner sind, wenn sie Teile des Kodex verwenden, um die Einhaltung bestimmter Verpflichtungen nachzuweisen, aber andere Wege finden, um die Einhaltung anderer Maßnahmen nachzuweisen. Es ist auch unklar, ob Unterzeichner, die den Kodex nicht einhalten, andere Konsequenzen zu gewärtigen haben werden als Nicht-Unterzeichner, die das AI-Gesetz nicht einhalten.


Hinweise und Referenzen

  1. Normungsantrag für KI-Systeme
  2. Artikel 113 Buchstabe b
  3. Das Europäische Institut für Telekommunikationsnormen (ETSI) kann ebenfalls einbezogen werden.
  4. CEN-CENELEC
  5. ISO
  6. Artikel 40 Absatz 3
  7. Artikel 53
  8. Artikel 55
  9. Artikel 53 Absatz 4 und Artikel 55 Absatz 2
  10. Sicherheit und Sicherheit FAQ
  11. Artikel 3(63)
  12. Es ist jedoch zu beachten, dass die Art der Veröffentlichung für die geltenden Verpflichtungen von Bedeutung ist, da Anbieter von GPAI-Modellen, die unter einer freien und quelloffenen Lizenz veröffentlicht werden, von den Verpflichtungen nach Artikel 53 Absatz 1 Buchstaben a und b befreit sind (siehe Artikel 53 Absatz 2).
  13. Artikel 3 Absatz 3
  14. Artikel 3 Absatz 65
  15. Europäische Kommission: Künstliche Intelligenz - Fragen und Antworten
  16. Artikel 56 Absatz 9
  17. In der Pressemitteilung der Kommission bekannt gegebene Zahl
  18. Euractiv-Artikel über die Vielfalt der Teilnehmer
  19. Artikel 56 Absatz 6
  20. Artikel 56 Absatz 9
Dieser Beitrag wurde am 3 Jul, 2024 veröffentlicht

Ähnliche Artikel

Stellenangebote beim Europäischen AI-Büro für rechtliche und politische Hintergründe

Die Kommission hat zwei Aufforderungen zur Interessenbekundung veröffentlicht, um neue Mitglieder für das Europäische Amt für künstliche Intelligenz einzustellen. Bewerben Sie sich jetzt als Legal oder Policy Officer und nutzen Sie die Gelegenheit, vertrauenswürdige AI zu gestalten. Die Frist für die Interessenbekundung endet am 15. Januar 2025. Das Gehalt für...

Das AI-Gesetz: Zuständigkeiten der Europäischen Kommission (AI Office)

Wenn Sie sich nicht sicher sind, wer das neue digitale Recht um- und durchsetzt und wie die konkreten Zeitrahmen aussehen, könnten Sie diesen Beitrag - und unseren Beitrag über die Zuständigkeiten der EU-Mitgliedstaaten - sehr hilfreich finden. Die folgenden Tabellen enthalten eine umfassende Liste aller...