Kapitel III, Abschnitt 2 — Anforderungen an Hochrisiko-KI-SystemeArtikel 14

Artikel 14: Menschliche Aufsicht

Gilt ab 2. Aug. 2026ca. 596 WörterEUR-Lex geprüft Apr. 2026

Art. 14 verlangt, dass Hochrisiko-KI-Systeme so ausgelegt und entwickelt werden—einschließlich geeigneter Mensch-Maschine-Schnittstellen—dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Ziel ist, Risiken trotz bestimmungsgemäßer Nutzung oder vorhersehbarer Fehlverwendung zu verhindern oder zu minimieren. Maßnahmen müssen verhältnismäßig zu Risiko, Autonomie und Kontext sein (Anbieter- und/oder Betreiber-Maßnahmen). Abs. 4 nennt konkrete Befähigungen (Überwachung, Automation Bias, Interpretation, Override, Stopp). Abs. 5 ergänzt Zweipersonenprüfung für Anhang III 1 lit. a mit Rechtsausnahmen im authentischen Wortlaut.

Für wen gilt das?

  • -Anbieter, die Aufsichts-UI und Verfahren vor dem Inverkehrbringen definieren
  • -Betreiber, die kompetente Personen zuweisen und Maßnahmen umsetzen

Szenarien

Nur grün/rot ohne Begründung, Override oder Eskalation.

Vermutlich unzureichend zu Art. 14 Abs. 4.
Ref. Art. 14(4)

Pause, Attribution, manuelle Prüfung, sicherer Stopp mit Audit-Trail.

Näher an Art. 14 Abs. 4 lit. a–e—EUR-Lex prüfen.
Ref. Art. 14(4)

Wirksame Aufsicht gestalten (Klartext)

Abs. 1–3: Ziel, Risikominimierung und Verhältnismäßigkeit; Anbieter- und/oder Betreiber-Pfad.

Abs. 4: konkrete menschliche Handlungsfähigkeiten.

Abs. 5: Biometrie-Kontext Anhang III 1 lit. a—keine Maßnahme ohne gesonderte Bestätigung durch zwei qualifizierte Personen, außer wenn Unions- oder nationales Recht Unverhältnismäßigkeit feststellt—genauer Wortlaut auf EUR-Lex.

Anschluss an andere Artikel

Amtlicher Wortlaut (Auszug): Art. 14 Abs. 1–3 (englische Fassung)

Hinweis (Redaktion): Art. 14 Abs. 1–3 englisch; Abs. 4–5 vollständig auf EUR-Lex Art. 14. Maßgeblich die deutsche Fassung.

1. High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons during the period in which they are in use.
2. Human oversight shall aim to prevent or minimise the risks to health, safety or fundamental rights that may emerge when a high-risk AI system is used in accordance with its intended purpose or under conditions of reasonably foreseeable misuse, in particular where such risks persist despite the application of other requirements set out in this Section.
3. The oversight measures shall be commensurate with the risks, level of autonomy and context of use of the high-risk AI system, and shall be ensured through either one or both of the following types of measures:
(a) measures identified and built, when technically feasible, into the high-risk AI system by the provider before it is placed on the market or put into service;
(b) measures identified by the provider before placing the high-risk AI system on the market or putting it into service and that are appropriate to be implemented by the deployer.

(4)–(5)EUR-Lex.

Erwägungsgründe (Präambel) auf EUR-Lex

Die Erwägungsgründe im konsolidierten KI-Rechtsakt stützen menschliche Aufsicht und Automation Bias. Präambel EUR-Lexkeine inoffiziellen Listen ohne Abgleich.

Checkliste

  • Human-Factors-Review in echten Workflows.
  • Overrides, Stops, Zeit bis zur Intervention loggen.
  • Schulung zu Automation Bias und Eskalation.
  • Niedrige Konfidenz immer an Menschen.
  • Nach UI-Redesigns erneut testen.

Aufsichtslücken prüfen—kostenlose Einschätzung.

Kostenlose Bewertung starten

Verwandte Anhänge

  • Anhang IV — Technische Dokumentation

Häufige Fragen

Muss jede Entscheidung einen Menschen haben?

Nicht immer, aber Intervention muss möglich sein, wo Risiken es erfordern.

Wer haftet, wenn die UI den Stopp versteckt?

Anbieter müssen wirksame Werkzeuge liefern; Betreiber setzen zugewiesene Maßnahmen um—beide Ebenen abstimmen.