Artikel 14: Menschliche Aufsicht
Art. 14 verlangt, dass Hochrisiko-KI-Systeme so ausgelegt und entwickelt werden—einschließlich geeigneter Mensch-Maschine-Schnittstellen—dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Ziel ist, Risiken trotz bestimmungsgemäßer Nutzung oder vorhersehbarer Fehlverwendung zu verhindern oder zu minimieren. Maßnahmen müssen verhältnismäßig zu Risiko, Autonomie und Kontext sein (Anbieter- und/oder Betreiber-Maßnahmen). Abs. 4 nennt konkrete Befähigungen (Überwachung, Automation Bias, Interpretation, Override, Stopp). Abs. 5 ergänzt Zweipersonenprüfung für Anhang III 1 lit. a mit Rechtsausnahmen im authentischen Wortlaut.
Für wen gilt das?
- -Anbieter, die Aufsichts-UI und Verfahren vor dem Inverkehrbringen definieren
- -Betreiber, die kompetente Personen zuweisen und Maßnahmen umsetzen
Szenarien
Nur grün/rot ohne Begründung, Override oder Eskalation.
Pause, Attribution, manuelle Prüfung, sicherer Stopp mit Audit-Trail.
Wirksame Aufsicht gestalten (Klartext)
Abs. 1–3: Ziel, Risikominimierung und Verhältnismäßigkeit; Anbieter- und/oder Betreiber-Pfad.
Abs. 4: konkrete menschliche Handlungsfähigkeiten.
Abs. 5: Biometrie-Kontext Anhang III 1 lit. a—keine Maßnahme ohne gesonderte Bestätigung durch zwei qualifizierte Personen, außer wenn Unions- oder nationales Recht Unverhältnismäßigkeit feststellt—genauer Wortlaut auf EUR-Lex.
Amtlicher Wortlaut (Auszug): Art. 14 Abs. 1–3 (englische Fassung)
Hinweis (Redaktion): Art. 14 Abs. 1–3 englisch; Abs. 4–5 vollständig auf EUR-Lex Art. 14. Maßgeblich die deutsche Fassung.
1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.
2. Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular where such risks persist despite the application of other requirements set out in this Section.
3. The oversight measures shall be commensurate with the risks, level of autonomy and context of use of the high-risk AI system, and shall be ensured through either one or both of the following types of measures:
(a) measures identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;
(b) measures identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the deployer.
(4)–(5) — EUR-Lex.
Erwägungsgründe (Präambel) auf EUR-Lex
Die Erwägungsgründe im konsolidierten KI-Rechtsakt stützen menschliche Aufsicht und Automation Bias. Präambel EUR-Lex—keine inoffiziellen Listen ohne Abgleich.
Checkliste
- Human-Factors-Review in echten Workflows.
- Overrides, Stops, Zeit bis zur Intervention loggen.
- Schulung zu Automation Bias und Eskalation.
- Niedrige Konfidenz immer an Menschen.
- Nach UI-Redesigns erneut testen.
Aufsichtslücken prüfen—kostenlose Einschätzung.
Kostenlose Bewertung startenVerwandte Artikel
Artikel 4: KI-Kompetenz (AI literacy)
Artikel 9: Risikomanagementsystem
Artikel 11: Technische Dokumentation
Artikel 12: Aufzeichnungen (Logging)
Artikel 13: Transparenz und Information der Betreiber
Artikel 26: Pflichten der Betreiber
Artikel 27: Grundrechte-Folgenabschätzung (FRIA)
Anhang III: Hochrisiko-Anwendungsbereiche
Artikel 113: Entry into force and application, EU AI Act
Verwandte Anhänge
- Anhang IV — Technische Dokumentation
Häufige Fragen
Muss jede Entscheidung einen Menschen haben?
Nicht immer, aber Intervention muss möglich sein, wo Risiken es erfordern.
Wer haftet, wenn die UI den Stopp versteckt?
Anbieter müssen wirksame Werkzeuge liefern; Betreiber setzen zugewiesene Maßnahmen um—beide Ebenen abstimmen.