Inhaltsübersicht

Abschnitt 1: Einstufung von KI-Systemen als hochriskant

Artikel 6: Klassifizierungsregeln für KI-Systeme mit hohem Risiko

Artikel 7: Änderungen des Anhangs III

Abschnitt 2: Anforderungen an hochriskante KI-Systeme

Artikel 8: Erfüllung der Anforderungen

Artikel 9: Risikomanagementsystem

Artikel 10: Daten und Datenverwaltung

Artikel 11: Technische Dokumentation

Artikel 12: Aufbewahrung der Aufzeichnungen

Artikel 13: Transparenz und Bereitstellung von Informationen für Einsatzkräfte

Artikel 14: Menschliche Aufsichtsbehörden

Artikel 15: Genauigkeit, Robustheit und Cybersicherheit

Abschnitt 3: Verpflichtungen von Anbietern und Betreibern von KI-Systemen mit hohem Risiko und anderen Parteien

Artikel 16: Pflichten der Anbieter von KI-Systemen mit hohem Risiko

Artikel 17: Qualitätsmanagementsystem

Artikel 18: Führung der Dokumentation

Artikel 19: Automatisch erstellte Protokolle

Artikel 20: Abhilfemaßnahmen und Informationspflicht

Artikel 21: Zusammenarbeit mit den zuständigen Behörden

Artikel 22: Bevollmächtigte Vertreter von Anbietern von KI-Systemen mit hohem Risikopotenzial

Artikel 23: Pflichten der Importeure

Artikel 24: Pflichten des Händlers

Artikel 25: Verantwortlichkeiten entlang der KI-Wertschöpfungskette

Artikel 26: Pflichten der Bereitsteller von KI-Systemen mit hohem Risiko

Artikel 27: Grundrechtliche Folgenabschätzung für hochriskante KI-Systeme

Abschnitt 4: Notifizierende Behörden und benannte Stellen

Artikel 28: Notifizierende Behörden

Artikel 29: Antrag einer Konformitätsbewertungsstelle auf Notifizierung

Artikel 30: Notifizierungsverfahren

Artikel 31: Anforderungen an die benannten Stellen

Artikel 32: Vermutung der Konformität mit den Anforderungen in Bezug auf benannte Stellen

Artikel 33: Zweigstellen und Unteraufträge durch benannte Stellen

Artikel 34: Operative Verpflichtungen der benannten Stellen

Artikel 35: Kennnummern und Verzeichnisse der im Rahmen dieser Verordnung benannten Stellen

Artikel 36: Änderungen der Notifizierungen

Artikel 37: Anfechtung der Zuständigkeit der benannten Stellen

Artikel 38: Koordinierung der benannten Stellen

Artikel 39: Konformitätsbewertungsstellen von Drittländern

Abschnitt 5: Normen, Konformitätsbewertung, Bescheinigungen, Registrierung

Artikel 40: Harmonisierte Normen und Normungsdokumente

Artikel 41: Gemeinsame Spezifikationen

Artikel 42: Vermutung der Konformität mit bestimmten Anforderungen

Artikel 43: Konformitätsbewertung

Artikel 44: Bescheinigungen

Artikel 45: Informationsverpflichtungen der benannten Stellen

Artikel 46: Ausnahmen vom Konformitätsbewertungsverfahren

Artikel 47: EU-Konformitätserklärung

Artikel 48: CE-Kennzeichnung

Artikel 49: Registrierung

Abschnitt 1: Überwachung nach dem Inverkehrbringen

Artikel 72: Überwachung nach dem Inverkehrbringen durch die Anbieter und Plan zur Überwachung nach dem Inverkehrbringen für KI-Systeme mit hohem Risiko

Abschnitt 2: Weitergabe von Informationen über schwerwiegende Zwischenfälle

Artikel 73: Meldung schwerwiegender Vorkommnisse

Abschnitt 3: Durchsetzung

Artikel 74: Marktüberwachung und Kontrolle von KI-Systemen auf dem Unionsmarkt

Artikel 75: Gegenseitige Unterstützung, Marktüberwachung und Kontrolle von KI-Systemen für allgemeine Zwecke

Artikel 76: Überwachung von Tests unter realen Bedingungen durch Marktüberwachungsbehörden

Artikel 77: Befugnisse der Behörden zum Schutz der Grundrechte

Artikel 78: Vertraulichkeit

Artikel 79: Verfahren für den Umgang mit KI-Systemen, die ein Risiko auf nationaler Ebene darstellen

Artikel 80: Verfahren für den Umgang mit KI-Systemen, die vom Anbieter in Anwendung von Anhang III als nicht hochriskant eingestuft werden

Artikel 81: Schutzklauselverfahren der Union

Artikel 82: Konforme KI-Systeme, die ein Risiko darstellen

Artikel 83: Formale Nichteinhaltung

Artikel 84: Union AI Testing Support Structures

Abschnitt 4: Rechtsbehelfe

Artikel 85: Recht auf Einreichung einer Beschwerde bei einer Marktaufsichtsbehörde

Artikel 86: Das Recht auf Erläuterung der individuellen Entscheidungsfindung

Artikel 87: Meldung von Verstößen und Schutz der meldenden Personen

Abschnitt 5: Beaufsichtigung, Untersuchung, Durchsetzung und Überwachung in Bezug auf Anbieter von KI-Modellen für allgemeine Zwecke

Artikel 88: Durchsetzung der Verpflichtungen von Anbietern von KI-Modellen für allgemeine Zwecke

Artikel 89 : Überwachungsmaßnahmen

Artikel 90: Warnungen vor systemischen Risiken durch das Wissenschaftliche Gremium

Artikel 91: Befugnis zur Anforderung von Unterlagen und Informationen

Artikel 92: Befugnis zur Durchführung von Evaluierungen

Artikel 93: Befugnis, Maßnahmen zu beantragen

Artikel 94: Verfahrensrechte der Wirtschaftsbeteiligten des AI-Modells für allgemeine Zwecke

Anhänge

Suche innerhalb des Gesetzes

2. Mai 2024 - Der AI Act Explorer wurde nun mit dem Inhalt der "Corrigendum" -Fassung des Europäischen Parlaments vom 19. April 2024 aktualisiert. Es ist unwahrscheinlich, dass sich der Inhalt des Gesetzes weiter ändert.

Artikel 3: Begriffsbestimmungen

Feedback - Wir arbeiten an der Verbesserung dieses Tools. Bitte senden Sie Ihr Feedback an Risto Uuk unter risto@futureoflife.org

Für die Zwecke dieser Verordnung gelten die folgenden Definitionen:

(1) "KI-System": ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie operieren kann und nach dem Einsatz Anpassungsfähigkeit zeigen kann, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen können;

(2) "Risiko" ist die Kombination aus der Wahrscheinlichkeit des Eintritts eines Schadens und der Schwere dieses Schadens;

(3) "Anbieter" ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickelt oder ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickeln lässt und es unter ihrem eigenen Namen oder ihrer eigenen Marke in Verkehr bringt oder in Betrieb nimmt, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht;

(4) "Bereitsteller": eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System unter ihrer Aufsicht einsetzt, es sei denn, das KI-System wird im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet;

(5) "Bevollmächtigter": eine natürliche oder juristische Person, die in der Union ansässig oder niedergelassen ist und von einem Anbieter eines KI-Systems oder eines KI-Modells für allgemeine Zwecke ein schriftliches Mandat erhalten und angenommen hat, in seinem Namen die in dieser Verordnung festgelegten Verpflichtungen und Verfahren zu erfüllen und durchzuführen;

(6) "Importeur": eine in der Union ansässige oder niedergelassene natürliche oder juristische Person, die ein KI-System in Verkehr bringt, das den Namen oder die Marke einer in einem Drittland ansässigen natürlichen oder juristischen Person trägt;

(7) "Händler": eine natürliche oder juristische Person in der Lieferkette, die ein KI-System auf dem Unionsmarkt bereitstellt und nicht der Anbieter oder Einführer ist;

(8) "Betreiber": ein Anbieter, Produkthersteller, Verteiler, Bevollmächtigter, Importeur oder Händler;

(9) "Inverkehrbringen": die erstmalige Bereitstellung eines KI-Systems oder eines KI-Modells für allgemeine Zwecke auf dem Unionsmarkt;

(10) "Bereitstellung auf dem Markt": die entgeltliche oder unentgeltliche Abgabe eines KI-Systems oder eines KI-Modells für allgemeine Zwecke zum Vertrieb oder zur Verwendung auf dem Unionsmarkt im Rahmen einer gewerblichen Tätigkeit;

(11) "Inbetriebnahme": die Lieferung eines KI-Systems zur erstmaligen Verwendung direkt an den Einsatzbetrieb oder zur eigenen Verwendung in der Union für den vorgesehenen Zweck;

(12) "Verwendungszweck": die Verwendung, für die ein KI-System vom Anbieter vorgesehen ist, einschließlich des spezifischen Kontexts und der Verwendungsbedingungen, wie sie in den Informationen des Anbieters in der Gebrauchsanweisung, im Werbe- oder Verkaufsmaterial und in den Erklärungen sowie in den technischen Unterlagen angegeben sind;

(13) "vernünftigerweise vorhersehbarer Missbrauch": die Nutzung eines KI-Systems in einer Weise, die nicht mit dem beabsichtigten Zweck übereinstimmt, die sich aber aus vernünftigerweise vorhersehbarem menschlichen Verhalten oder der Interaktion mit anderen Systemen, einschließlich anderer KI-Systeme, ergeben kann;

(14) "Sicherheitsbauteil" ist ein Bauteil eines Produkts oder eines KI-Systems, das eine Sicherheitsfunktion für dieses Produkt oder KI-System erfüllt oder dessen Ausfall oder Fehlfunktion die Gesundheit und Sicherheit von Personen oder Sachen gefährdet;

(15) "Gebrauchsanweisung": die vom Anbieter bereitgestellten Informationen, die den Anwender insbesondere über den beabsichtigten Zweck und die ordnungsgemäße Verwendung eines KI-Systems informieren;

(16) "Rückruf eines KI-Systems": jede Maßnahme, die darauf abzielt, die Rückgabe an den Anbieter zu erreichen oder ein KI-System, das den Einsatzkräften zur Verfügung gestellt wird, außer Betrieb zu nehmen oder seine Nutzung zu unterbinden;

(17) "Rücknahme eines KI-Systems": jede Maßnahme, mit der verhindert werden soll, dass ein KI-System in der Lieferkette auf dem Markt bereitgestellt wird;

(18) "Leistung eines KI-Systems": die Fähigkeit eines KI-Systems, seinen beabsichtigten Zweck zu erfüllen;

(19) "notifizierende Behörde": die nationale Behörde, die für die Einrichtung und Durchführung der erforderlichen Verfahren für die Begutachtung, Benennung und Notifizierung von Konformitätsbewertungsstellen und für deren Überwachung zuständig ist;

(20) "Konformitätsbewertung": das Verfahren, mit dem nachgewiesen wird, dass die in Kapitel III Abschnitt 2 festgelegten Anforderungen an ein AI-System mit hohem Risiko erfüllt sind;

(21) "Konformitätsbewertungsstelle": eine Stelle, die als unabhängiger Dritter Konformitätsbewertungstätigkeiten, einschließlich Prüfung, Zertifizierung und Inspektion, durchführt;

(22) "notifizierte Stelle" eine Konformitätsbewertungsstelle, die im Einklang mit dieser Verordnung und anderen einschlägigen Harmonisierungsrechtsvorschriften der Union notifiziert wurde;

(23) "wesentliche Änderung": eine Änderung an einem AI-System nach seinem Inverkehrbringen oder seiner Inbetriebnahme, die in der ursprünglichen Konformitätsbewertung des Anbieters nicht vorgesehen oder geplant war und durch die die Konformität des AI-Systems mit den in Kapitel III Abschnitt 2 festgelegten Anforderungen beeinträchtigt wird oder die zu einer Änderung des Zwecks führt, für den das AI-System bewertet wurde;

(24) "CE-Kennzeichnung": eine Kennzeichnung, mit der ein Anbieter angibt, dass ein KI-System den Anforderungen von Kapitel III Abschnitt 2 und anderen anwendbaren Harmonisierungsrechtsvorschriften der Union, die ihre Anbringung vorsehen, entspricht;

(25) "System zur Überwachung nach dem Inverkehrbringen": alle Tätigkeiten, die von den Anbietern von KI-Systemen durchgeführt werden, um Erfahrungen mit der Verwendung von KI-Systemen, die sie in Verkehr bringen oder in Betrieb nehmen, zu sammeln und zu überprüfen, damit festgestellt werden kann, ob es notwendig ist, unverzüglich die erforderlichen Korrektur- oder Präventivmaßnahmen durchzuführen;

(26) "Marktüberwachungsbehörde": die nationale Behörde, die die Tätigkeiten durchführt und die Maßnahmen gemäß der Verordnung (EU) 2019/1020 trifft;

(27) "harmonisierte Norm": eine harmonisierte Norm im Sinne von Artikel 2 Absatz 1 Buchstabe c der Verordnung (EU) Nr. 1025/2012;

(28) "gemeinsame Spezifikation": eine Reihe technischer Spezifikationen im Sinne von Artikel 2 Nummer 4 der Verordnung (EU) Nr. 1025/2012, die Mittel zur Erfüllung bestimmter, in dieser Verordnung festgelegter Anforderungen bereitstellen;

(29) "Trainingsdaten": Daten, die zum Training eines KI-Systems durch Anpassung seiner lernfähigen Parameter verwendet werden;

(30) "Validierungsdaten": Daten, die zur Bewertung des trainierten KI-Systems und zur Abstimmung seiner nicht lernbaren Parameter und seines Lernprozesses verwendet werden, um unter anderem eine Unter- oder Überanpassung zu verhindern;

(31) "Validierungsdatensatz": ein separater Datensatz oder ein Teil des Trainingsdatensatzes, entweder als feste oder variable Aufteilung;

(32) "Prüfdaten": Daten, die für eine unabhängige Bewertung des KI-Systems verwendet werden, um die erwartete Leistung dieses Systems vor seinem Inverkehrbringen oder seiner Inbetriebnahme zu bestätigen;

(33) "Eingabedaten": Daten, die einem KI-System zur Verfügung gestellt oder von diesem direkt erfasst werden und auf deren Grundlage das System eine Ausgabe erzeugt;

(34) "biometrische Daten" personenbezogene Daten, die sich aus einer spezifischen technischen Verarbeitung ergeben und die sich auf die physischen, physiologischen oder verhaltensbezogenen Merkmale einer natürlichen Person beziehen, wie z. B. Gesichtsbilder oder daktyloskopische Daten;

(35) "biometrische Identifizierung": die automatisierte Erkennung physischer, physiologischer, verhaltensbezogener oder psychologischer menschlicher Merkmale zum Zwecke der Feststellung der Identität einer natürlichen Person durch Vergleich biometrischer Daten dieser Person mit biometrischen Daten von Personen, die in einer Datenbank gespeichert sind;

(36) "biometrische Überprüfung": die automatisierte Eins-zu-eins-Überprüfung, einschließlich Authentifizierung, der Identität natürlicher Personen durch Vergleich ihrer biometrischen Daten mit zuvor bereitgestellten biometrischen Daten;

(37) "besondere Kategorien personenbezogener Daten" sind die Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 der Verordnung (EU) 2016/679, Artikel 10 der Richtlinie (EU) 2016/680 und Artikel 10 Absatz 1 der Verordnung (EU) 2018/1725;

(38) "sensible operative Daten": operative Daten im Zusammenhang mit Tätigkeiten zur Verhütung, Aufdeckung, Untersuchung oder Verfolgung von Straftaten, deren Offenlegung die Integrität von Strafverfahren gefährden könnte;

(39) "Emotionserkennungssystem": ein KI-System, das dazu dient, Emotionen oder Absichten natürlicher Personen auf der Grundlage ihrer biometrischen Daten zu erkennen oder abzuleiten;

(40) "biometrisches Kategorisierungssystem": ein KI-System, das dazu dient, natürliche Personen auf der Grundlage ihrer biometrischen Daten bestimmten Kategorien zuzuordnen, es sei denn, es ist eine Ergänzung zu einem anderen kommerziellen Dienst und aus objektiven technischen Gründen unbedingt erforderlich;

(41. "Biometrisches Fernidentifizierungssystem": ein KI-System zur Identifizierung natürlicher Personen ohne deren aktives Zutun, in der Regel aus der Ferne, durch den Vergleich der biometrischen Daten einer Person mit den in einer Referenzdatenbank enthaltenen biometrischen Daten;

(42) "biometrisches Fernidentifizierungssystem in Echtzeit": ein biometrisches Fernidentifizierungssystem, bei dem die Erfassung der biometrischen Daten, der Vergleich und die Identifizierung ohne nennenswerte Verzögerung erfolgen und das nicht nur eine sofortige Identifizierung, sondern auch begrenzte kurze Verzögerungen zur Vermeidung von Umgehungen vorsieht;

(43) "post-biometrisches Fernidentifikationssystem": ein biometrisches Fernidentifikationssystem, das kein biometrisches Echtzeit-Fernidentifikationssystem ist;

(44) "öffentlich zugänglicher Raum": jeder in öffentlichem oder privatem Besitz befindliche physische Ort, der für eine unbestimmte Anzahl natürlicher Personen zugänglich ist, unabhängig davon, ob bestimmte Zugangsbedingungen gelten, und unabhängig von möglichen Kapazitätsbeschränkungen;

(45) "Strafverfolgungsbehörde"::

(a) jede Behörde, die für die Verhütung, Ermittlung, Feststellung oder Verfolgung von Straftaten oder die Vollstreckung strafrechtlicher Sanktionen, einschließlich des Schutzes vor und der Abwehr von Bedrohungen der öffentlichen Sicherheit, zuständig ist, oder

(b) jede andere Stelle oder Einrichtung, die nach dem Recht der Mitgliedstaaten mit der Ausübung hoheitlicher Befugnisse zum Zwecke der Verhütung, Ermittlung, Feststellung oder Verfolgung von Straftaten oder der Vollstreckung strafrechtlicher Sanktionen, einschließlich des Schutzes vor und der Abwehr von Bedrohungen der öffentlichen Sicherheit, betraut ist;

(46) "Strafverfolgung": Tätigkeiten, die von den Strafverfolgungsbehörden oder in deren Auftrag zur Verhütung, Ermittlung, Feststellung oder Verfolgung von Straftaten oder zur Vollstreckung strafrechtlicher Sanktionen, einschließlich des Schutzes vor und der Abwehr von Gefahren für die öffentliche Sicherheit, durchgeführt werden;

(47) "KI-Büro": die in der Entscheidung der Kommission vom 24. Januar 2024 vorgesehene Funktion der Kommission, zur Umsetzung, Überwachung und Beaufsichtigung von KI-Systemen und KI-Modellen für allgemeine Zwecke sowie zur KI-Governance beizutragen; Verweise in dieser Verordnung auf das KI-Büro gelten als Verweise auf die Kommission;

(48) "zuständige nationale Behörde": eine meldende Behörde oder eine Marktüberwachungsbehörde; in Bezug auf KI-Systeme, die von Organen, Agenturen, Ämtern und Einrichtungen der Union in Betrieb genommen oder genutzt werden, sind Bezugnahmen auf die zuständigen nationalen Behörden oder Marktüberwachungsbehörden in dieser Verordnung als Bezugnahmen auf den Europäischen Datenschutzbeauftragten zu verstehen;

(49) "schwerwiegender Vorfall": ein Vorfall oder eine Störung eines KI-Systems, der/die direkt oder indirekt zu einem der folgenden Punkte führt:

(a) den Tod einer Person oder eine schwere Schädigung der Gesundheit einer Person;

(b) eine schwerwiegende und irreversible Störung der Verwaltung oder des Betriebs kritischer Infrastrukturen.

(c) die Verletzung von Verpflichtungen aus dem Unionsrecht, die dem Schutz der Grundrechte dienen;

(d) schwere Schädigung von Eigentum oder der Umwelt;

(50) "personenbezogene Daten" sind personenbezogene Daten im Sinne von Artikel 4 Nummer 1 der Verordnung (EU) 2016/679;

(51) "nicht personenbezogene Daten" sind Daten, die keine personenbezogenen Daten im Sinne von Artikel 4 Nummer 1 der Verordnung (EU) 2016/679 sind;

(52) "Profiling" ist Profiling im Sinne von Artikel 4 Nummer 4 der Verordnung (EU) 2016/679;

(53) "Plan für die Durchführung von Prüfungen unter realen Bedingungen": ein Dokument, das die Ziele, die Methodik, den geografischen, bevölkerungsbezogenen und zeitlichen Umfang, die Überwachung, die Organisation und die Durchführung von Prüfungen unter realen Bedingungen beschreibt;

(54) "Sandkastenplan": ein zwischen dem teilnehmenden Anbieter und der zuständigen Behörde vereinbartes Dokument, das die Ziele, Bedingungen, den Zeitrahmen, die Methodik und die Anforderungen für die im Rahmen des Sandkastens durchgeführten Tätigkeiten beschreibt;

(55) "KI-Regulierungssandkasten": ein von einer zuständigen Behörde eingerichteter kontrollierter Rahmen, der Anbietern oder potenziellen Anbietern von KI-Systemen die Möglichkeit bietet, ein innovatives KI-System nach einem Sandkastenplan für eine begrenzte Zeit unter behördlicher Aufsicht zu entwickeln, zu trainieren, zu validieren und zu testen, gegebenenfalls unter realen Bedingungen;

(56) "KI-Kompetenz": Fähigkeiten, Kenntnisse und Verständnis, die es Anbietern, Anwendern und Betroffenen ermöglichen, KI-Systeme unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung in Kenntnis der Sachlage einzusetzen und sich über die Chancen und Risiken von KI und mögliche Schäden, die sie verursachen kann, bewusst zu werden;

(57) "Prüfung unter realen Bedingungen": die zeitlich begrenzte Prüfung eines KI-Systems für den vorgesehenen Zweck unter realen Bedingungen außerhalb eines Labors oder einer anderweitig simulierten Umgebung, um zuverlässige und belastbare Daten zu sammeln und die Konformität des KI-Systems mit den Anforderungen dieser Verordnung zu bewerten und zu überprüfen; sie gilt nicht als Inverkehrbringen oder Inbetriebnahme des KI-Systems im Sinne dieser Verordnung, sofern alle in Artikel 57 oder 60 festgelegten Bedingungen erfüllt sind;

(58) "Versuchsperson" bezeichnet für die Zwecke von Praxistests eine natürliche Person, die an den Tests unter realen Bedingungen teilnimmt;

(59) "Einwilligung nach Aufklärung": die frei gegebene, spezifische, unmissverständliche und freiwillige Bereitschaft einer Versuchsperson, an einem bestimmten Versuch unter realen Bedingungen teilzunehmen, nachdem sie über alle Aspekte des Versuchs, die für ihre Entscheidung zur Teilnahme relevant sind, informiert wurde;

(60) "Deep Fake": KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die existierenden Personen, Objekten, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheinen würden;

(61) "weitverbreiteter Verstoß": jede Handlung oder Unterlassung, die gegen das Unionsrecht zum Schutz der Interessen Einzelner verstößt und die:

(a) die kollektiven Interessen von Einzelpersonen, die in mindestens zwei anderen Mitgliedstaaten als dem Mitgliedstaat, in dem sie wohnen, ansässig sind, geschädigt hat oder zu schädigen droht:

(i) die Handlung oder Unterlassung ihren Ursprung hat oder stattgefunden hat;

(ii) der betreffende Dienstleistungserbringer oder gegebenenfalls sein bevollmächtigter Vertreter ansässig oder niedergelassen ist; oder

(iii) der Einsatzbetrieb wird festgestellt, wenn der Verstoß vom Einsatzbetrieb begangen wird;

(b) die kollektiven Interessen von Einzelpersonen geschädigt hat, schädigt oder schädigen kann und gemeinsame Merkmale aufweist, einschließlich derselben rechtswidrigen Praxis oder desselben verletzten Interesses, und die von demselben Betreiber in mindestens drei Mitgliedstaaten gleichzeitig begangen wird;

(62) "kritische Infrastrukturen": kritische Infrastrukturen gemäß der Definition in Artikel 2 Nummer 4 der Richtlinie (EU) 2022/2557;

(63) "universell einsetzbares KI-Modell": ein KI-Modell, auch wenn es mit einer großen Datenmenge unter Verwendung von Selbstüberwachung in großem Maßstab trainiert wurde, das eine erhebliche Allgemeinheit aufweist und in der Lage ist, ein breites Spektrum unterschiedlicher Aufgaben kompetent auszuführen, unabhängig davon, wie das Modell auf den Markt gebracht wird, und das in eine Vielzahl nachgelagerter Systeme oder Anwendungen integriert werden kann, mit Ausnahme von KI-Modellen, die für Forschungs-, Entwicklungs- oder Prototyping-Tätigkeiten verwendet werden, bevor sie auf den Markt gebracht werden;

(64) "hochwirksame Fähigkeiten": Fähigkeiten, die den Fähigkeiten der fortschrittlichsten KI-Modelle für allgemeine Zwecke entsprechen oder diese übertreffen;

(65) "Systemrisiko": ein Risiko, das spezifisch für die hochwirksamen Fähigkeiten von KI-Modellen für allgemeine Zwecke ist und aufgrund ihrer Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Auswirkungen auf die öffentliche Gesundheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft als Ganzes erhebliche Auswirkungen auf den Unionsmarkt hat, die sich in großem Umfang über die gesamte Wertschöpfungskette ausbreiten können;

(66) "Mehrzweck-KI-System": ein KI-System, das auf einem Mehrzweck-KI-Modell basiert und das für eine Vielzahl von Zwecken eingesetzt werden kann, sowohl für die direkte Nutzung als auch für die Integration in andere KI-Systeme;

(67) "Gleitkommaoperation": jede mathematische Operation oder Zuweisung mit Gleitkommazahlen, die eine Teilmenge der reellen Zahlen sind, die auf Computern typischerweise durch eine ganze Zahl mit fester Genauigkeit, skaliert durch einen ganzzahligen Exponenten mit fester Basis, dargestellt werden;

(68) "nachgeschalteter Anbieter": ein Anbieter eines KI-Systems, einschließlich eines KI-Systems für allgemeine Zwecke, in das ein KI-Modell integriert ist, unabhängig davon, ob das KI-Modell von ihm selbst bereitgestellt und vertikal integriert ist oder von einem anderen Unternehmen auf der Grundlage vertraglicher Beziehungen bereitgestellt wird.

Der in diesem Tool verwendete Text ist das "Gesetz über künstliche Intelligenz, Berichtigung, 19. April 2024". Interinstitutionelle Akte: 2021/0106(COD)