Artikel 3: Begriffsbestimmungen
Artikel 3 ist das Begriffsverzeichnis der EU-KI-VO: 68 nummerierte Konzepte—von KI-System, Anbieter, Betreiber und Operator über Marktbegriffe und Konformitätsbewertung bis zu biometrischen Systemen, Sandbox und GPAI. Er ersetzt nicht Art. 2 (Anwendungsbereich) oder die Pflichtenartikel; er liefert die Sprache für spätere Kapitel. Vollständige Liste auf EUR-Lex.
Für wen gilt das?
- -Legal-, Produkt- und Compliance-Teams zur Rollenverteilung in der KI-Wertschöpfungskette
- -Daten- und ML-Teams zur Abstimmung mit Begriffen zu Trainings-, Validierungs- und Testdaten sowie GPAI
- -Öffentliche Auftraggeber und Strafverfolgung zu biometrischen Definitionen im Kontext von Kapitel II und Transparenz
- -Verfasser von Policies, Verträgen und DSFA mit Querverweisen zur DSGVO in Art. 3
Szenarien
Eine Beratung hostet ein Fine-tuned-Modell für eine Bank, in der UI erscheint aber die Marke eines anderen Unternehmens.
Eine Kommune kauft ein SaaS-Produkt eines Anbieters und konfiguriert Schwellen für Alarme.
Ein EU-Händler importiert fertige KI-Geräte aus China mit Herstellerkennzeichnung.
Ein Team fine-tuned ein offenes Foundation Model und integriert es in mehrere kundenorientierte Apps.
Was Artikel 3 leistet (Klartext)
Artikel 3 ist ein Wörterbuch für die gesamte KI-VO. Er präzisiert Akteure (Anbieter, Betreiber, Importeur, Händler, Bevollmächtigter, Operator), Lebenszyklusmomente (Inverkehrbringen, Bereitstellung, Inbetriebnahme) und technische/regulatorische Begriffe (Konformitätsbewertung, benannte Stellen, biometrische Systeme, Sandbox, GPAI u. a.).
Er ersetzt weder Artikel 2 noch die Detailpflichten (z. B. Kapitel III). Er stabilisiert die Terminologie, damit spätere Artikel Pflichten, Fristen und Sanktionen zuordenbar sind.
Mehrere Definitionen verweisen auf die DSGVO—Art. 3 verweist auf die genannten Unionsakte; Datenschutzrecht und KI-VO zusammen lesen.
Artikel 3: Umgang mit der Begriffsliste
- Akteure (3)–(8) zuerst klären (RACI): Anbieter vs. Betreiber vs. Händler ändert Nachweispflichten.
- Marktverben (9)–(11) mit Go-to-Market abgleichen: „Inverkehrbringen“ und „Inbetriebnahme“ triggern unterschiedliche Zeitachsen (Art. 113).
- (12)–(13) für Gebrauchsanweisung und Missbrauchsszenarien im Risikomanagement nutzen.
- Biometrie-Cluster (34)–(43) bei Analytics im öffentlichen Raum oder LE-Kontext früh einbeziehen.
- GPAI-Block (63)–(68) für Foundation Models und Integration—mit Kapitel V lesen.
- (26)–(68) vollständig auf EUR-Lex; die Auszugsseite ist Navigationshilfe.
Anschluss an andere Artikel
- Artikel 1 — Gegenstand: wofür die Verordnung steht.
- Artikel 2 — Anwendungsbereich: wer erfasst ist, bevor Rollenlabels greifen.
- Artikel 4 — KI-Kompetenz: Organisationspflicht für Anbieter/Betreiber; der Begriff steht in Art. 3 Nr. 56.
- Artikel 5 — Verbote: biometrische und andere Begriffe werden in Kapitel II konkret.
- Artikel 6 + Anhang III — Hochrisiko-Einordnung nutzt u. a. Sicherheitskomponente und Bestimmungszweck.
- Artikel 50 — Transparenz (z. B. Deepfake in Art. 3 Nr. 60).
- Artikel 51 — GPAI-Pflichten knüpfen an KI-Modell für allgemeine Zwecke / System an.
- Artikel 113 — Anwendungszeitpunkte.
Querschnitt: Art. 3 Nr. 50–52 verweisen auf DSGVO; weitere Verweise im Amtswortlaut z. B. zu Verordnung (EU) 2019/1020, Verordnung (EU) Nr. 1025/2012 und Richtlinie (EU) 2022/2557—jeweils auf EUR-Lex im zitierten Wortlaut von Art. 3 öffnen.
Praktische Checkliste (Begriffe)
- Glossar mit Art.-3-Nummern pro Produkt und Lieferantenbeziehung pflegen.
- Rollenwechsel (White-Label, Subunternehmer, Marktplatz) neu gegen Nr. 3–8 spiegeln.
- Biometrie/Emotion: welche Art.-3-Begriffe die DSFA nennt, dokumentieren.
- Foundation Models: Art. 3 Nr. 63–68 mit Modellkarte und Architektur verknüpfen.
- Datierter EUR-Lex-Abdruck von Art. 3 in der Beweisdokumentation.
Amtlicher Wortlaut (Auszug): Art. 3 Nr. 1–25 + Verzeichnis 26–68
Note: Für buchstabentreue Zitate folgt hier die englische Amtsfassung von Artikel 3 (vollständig (1)–(25), plus Stichwortverzeichnis für (26)–(68)). Die Definitionen (26)–(68) vollständig nur auf EUR-Lex (DE)—bitte dort den maßgeblichen Wortlaut prüfen.
For the purposes of this Regulation, the following definitions apply:
(1) ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments;
(2) ‘risk’ means the combination of the probability of an occurrence of harm and the severity of that harm;
(3) ‘provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or a general-purpose AI model or that has an AI system or a general-purpose AI model developed and places it on the market or puts the AI system into service under its own name or trademark, whether for payment or free of charge;
(4) ‘deployer’ means a natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal non-professional activity;
(5) ‘authorised representative’ means a natural or legal person located or established in the Union who has received and accepted a written mandate from a provider of an AI system or a general-purpose AI model to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation;
(6) ‘importer’ means a natural or legal person located or established in the Union that places on the market an AI system that bears the name or trademark of a natural or legal person established in a third country;
(7) ‘distributor’ means a natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market;
(8) ‘operator’ means a provider, product manufacturer, deployer, authorised representative, importer or distributor;
(9) ‘placing on the market’ means the first making available of an AI system or a general-purpose AI model on the Union market;
(10) ‘making available on the market’ means the supply of an AI system or a general-purpose AI model for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge;
(11) ‘putting into service’ means the supply of an AI system for first use directly to the deployer or for own use in the Union for its intended purpose;
(12) ‘intended purpose’ means the use for which an AI system is intended by the provider, including the specific context and conditions of use, as specified in the information supplied by the provider in the instructions for use, promotional or sales materials and statements, as well as in the technical documentation;
(13) ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems, including other AI systems;
(14) ‘safety component’ means a component of a product or of an AI system which fulfils a safety function for that product or AI system, or the failure or malfunctioning of which endangers the health and safety of persons or property;
(15) ‘instructions for use’ means the information provided by the provider to inform the deployer of, in particular, an AI system’s intended purpose and proper use;
(16) ‘recall of an AI system’ means any measure aiming to achieve the return to the provider or taking out of service or disabling the use of an AI system made available to deployers;
(17) ‘withdrawal of an AI system’ means any measure aiming to prevent an AI system in the supply chain being made available on the market;
(18) ‘performance of an AI system’ means the ability of an AI system to achieve its intended purpose;
(19) ‘notifying authority’ means the national authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring;
(20) ‘conformity assessment’ means the process of demonstrating whether the requirements set out in Chapter III, Section 2 relating to a high-risk AI system have been fulfilled;
(21) ‘conformity assessment body’ means a body that performs third-party conformity assessment activities, including testing, certification and inspection;
(22) ‘notified body’ means a conformity assessment body notified in accordance with this Regulation and other relevant Union harmonisation legislation;
(23) ‘substantial modification’ means a change to an AI system after its placing on the market or putting into service which is not foreseen or planned in the initial conformity assessment carried out by the provider and as a result of which the compliance of the AI system with the requirements set out in Chapter III, Section 2 is affected or results in a modification to the intended purpose for which the AI system has been assessed;
(24) ‘CE marking’ means a marking by which a provider indicates that an AI system is in conformity with the requirements set out in Chapter III, Section 2 and other applicable Union harmonisation legislation providing for its affixing;
(25) ‘post-market monitoring system’ means all activities carried out by providers of AI systems to collect and review experience gained from the use of AI systems they place on the market or put into service for the purpose of identifying any need to immediately apply any necessary corrective or preventive actions;
**Artikel 3 auf EUR-Lex öffnen (Definitionen 26–68 vollständig)**
(26)–(68) — Vollständiger englischer Amtswortlaut nur auf EUR-Lex; inhaltlich u. a.: Marktüberwachungsbehörde; harmonisierte Normen und gemeinsame technische Spezifikationen; Trainings-, Validierungs- und Testdaten; biometrische Identifizierung, -kategorisierung und Fernidentifikation (Echtzeit und nachträglich); öffentlich zugänglicher Raum; Strafverfolgungsbehörde und Strafverfolgung; KI-Stelle; nationale zuständige Behörde; schwerer Vorfall; personenbezogene/nicht personenbezogene Daten und Profiling; Sandbox und Tests unter realen Bedingungen; Deepfake; weitreichende Verletzung; kritische Infrastruktur; KI-Modell und -System für allgemeine Zwecke; hochwirksame Fähigkeiten; systemisches Risiko; Gleitkommaoperation; nachgeschalteter Anbieter.
Erwägungsgründe (Präambel) auf EUR-Lex
Die Erwägungsgründe im selben konsolidierten KI-Rechtsakt auf EUR-Lex erläutern oft den Regelungszweck bestimmter Definitionen. Nutzen Sie die offizielle Präambel auf EUR-Lex—keine inoffiziellen Erwägungsgrund-Listen ohne Abgleich mit Reihenfolge und Wortlaut.
Checkliste
- Lebendes Glossar mit Art.-3-Nummern pro KI-Produkt und Vendor pflegen.
- Bei Rollenwechseln (White-Label, Marktplatz) Art. 3 Nr. 3–8 neu bewerten.
- Biometrie-/Emotionsfeatures: Art.-3-Begriffe in DSFA und Risikoakten konsistent halten.
- Foundation Models: Art. 3 Nr. 63–68 mit Modellkarte und Integration verknüpfen.
- Datierter EUR-Lex-Abdruck von Art. 3 ablegen.
Rollen und Begriffe den Pflichten zuordnen—kostenlose Einschätzung starten.
Kostenlose Bewertung startenVerwandte Artikel
Artikel 1: Gegenstand
Artikel 2: Anwendungsbereich
Artikel 4: KI-Kompetenz (AI literacy)
Artikel 5: Verbotene KI-Praktiken
Artikel 6: Einordnungsregeln für Hochrisiko-KI-Systeme
Anhang III: Hochrisiko-Anwendungsbereiche
Artikel 50: Transparenzpflichten für begrenzte Risiken
Artikel 51: GPAI-Modelle mit Systemrisiko
Artikel 113: Entry into force and application, EU AI Act
Verwandte Anhänge
- Anhang III — Hochrisiko-Anwendungsfälle (nutzt viele Begriffe aus Art. 3)
Häufige Fragen
Sagt Artikel 3, ob mein Produkt hochriskant ist?
Nein. Artikel 3 definiert Begriffe; die Einordnung folgt aus Art. 6, Anhang III und weiteren Vorschriften.
Dürfen wir intern „Provider-light“ erfinden?
Interne Spitznamen sind möglich, aber Behörden lesen die Art.-3-Begriffe. Verträge sollten auf die definierten Rollen mappen.
Warum verweist Artikel 3 auf die DSGVO?
Mehrere Begriffe (personenbezogene Daten, Profiling, besondere Kategorien) werden per Verweis definiert, damit KI-VO und Datenschutzrecht zusammenpassen—Art. 3 Nr. 50–52 und die DSGVO parallel führen.