Artikel 5: Verbotene KI-Praktiken
Artikel 5 der EU-KI-VO verbietet acht KI-Praktiken mit inakzeptablem Risiko. Die Unionsverbote in Art. 5(1) sind seit 2. Februar 2025 vollziehbar (Art. 113). Trifft Ihr Szenario zu, dürfen Sie das System nicht in der Union in Verkehr bringen oder in Betrieb nehmen—Absatzgenau immer EUR-Lex prüfen.
Für wen gilt das?
- -Anbieter, die verbotene KI-Systeme auf dem Unionsmarkt in Verkehr bringen oder in Betrieb nehmen
- -Betreiber, deren Nutzung unter Art. 5(1) lit. a bis h fällt
- -Produkt-, Policy- und Einkaufsteams bei Roadmaps vor Build-or-Buy
- -Strafverfolgung und Security bei Biometrie, Emotionsinferenz oder Öffentlichkeitsanalytik in der Union
Szenarien
Eine Stadtverwaltung bewertet Bürger anhand sozialer Medien und Beschwerden für den Zugang zu Sozialwohnungen.
Ein Einzelhändler setzt Emotions-KI in der Logistik ein, um Stimmungen von Beschäftigten zu inferieren.
Ein Start-up scraped öffentliche Profilfotos, um eine Gesichtsdatenbank ohne gezielte Person zu erweitern.
Eine Bank prognostiziert Straftaten ausschließlich anhand von Profiling und Demografie.
Was Artikel 5 leistet (Klartext)
Artikel 5 ist die rote Linie der Verordnung: bestimmte KI-Praktiken sind in der Union unionsweit verboten. Sie sind keine „Hochrisiko“-Systeme, die man nur mit Konformitätsdokumentation entschärfen kann—liegt der Sachverhalt vor, muss die Praxis gestoppt oder so umgestaltet werden, dass sie außerhalb des Verbots liegt.
Art. 5(1) nennt acht Tatbestände lit. a bis h in Kurzlogik:
1. Subliminale oder vorsätzlich manipulative/täuschende Techniken, die Verhalten wesentlich verzerren und signifikanten Schaden ermöglichen (a). 2. Ausnutzung von Schwächen (Alter, Behinderung, soziale oder wirtschaftliche Lage) mit vergleichbarem Verzerrungs- und Schadensrisiko (b). 3. Social Scoring durch öffentliche Stellen über Zeit aus Sozialverhalten oder inferierten Merkmalen mit benachteiligender Wirkung in unpassenden oder unverhältnismäßigen Kontexten (c). 4. Individuelles prädiktives „Kriminalitätsrisiko“ ausschließlich aus Profiling oder Persönlichkeitsmerkmalen—nicht dasselbe wie menschlich geführte Ermittlung mit objektiven, überprüfbaren Fakten (d). 5. Unzielgerichtetes Scraping von Gesichtsbildern aus Internet oder CCTV zur Erstellung oder Erweiterung von Gesichtsdatenbanken (e). 6. Emotionsinferenz am Arbeitsplatz und in Bildungseinrichtungen, eng begrenzte medizinische oder Sicherheits-Ausnahmen (f). 7. Biometrische Kategorisierung sensibler Attribute (u. a. ethnische Herkunft, Religion, Gewerkschaft, intimes Leben) mit ausdrücklichen Ausnahmen für zulässige Datenhaltung (g). 8. Echtzeit-Fernidentifikation in öffentlich zugänglichen Räumen für die Strafverfolgung nur unter strengen Voraussetzungen, vorheriger Genehmigung, FRIA und EU-Datenbank-Registrierung gemäß Art. 5 Abs. 2–8 auf EUR-Lex (h).
Diese Übersicht ist navigational—verbindlich sind lit. a bis h im Amtswortlaut.
Anschluss an andere Artikel
- Artikel 1 — Gegenstand: Kapitel II gehört zu den Bausteinen aus Art. 1 Abs. 2 lit. b.
- Artikel 2 — Anwendungsbereich: Verbote gelten für erfasste Anbieter und Betreiber (inkl. Drittland-Anknüpfungen).
- Artikel 3 — Begriffe: Anbieter, Betreiber, Biometriedaten, Fernbiometrische Identifikation u. a.
- Artikel 4 — KI-Kompetenz: Teams müssen wissen, dass Art.-5-Verstöße nicht „wegdokumentiert“ werden.
- Artikel 6 + Anhang III — Hochrisiko nur, wenn kein Verbot greift.
- Artikel 50 — Transparenz ist eine andere Risikostufe.
- Artikel 27 + Artikel 49 — FRIA und Registrierung für bestimmte (h)-Einsätze.
- Artikel 99 — Geldbußen (EUR-Lex).
- Artikel 113 — Anwendungszeitpunkte.
Querschnitt: DSGVO—nach (h) verweist der Text auf Art. 9 DSGVO für nicht-strafverfolgende Verarbeitung; siehe EUR-Lex Art. 5.
Red-flags (nicht abschließend)
- Öffentliche Vertrauenswerte aus entkoppelten Verhaltensdaten → c.
- Lager- oder Büro-Emotionsanalysen → f (Ausnahme nur bei nachweislich erfüllten medizinischen/Sicherheits-Voraussetzungen).
- Massenhaftes Gesichts-Sammeln aus Netz/CCTV für eine ID-Galerie → e.
- „Zukünftige Straftat“ nur aus Demografie/Persönlichkeit → d.
- Dark Patterns zur wesentlichen Verhaltensverzerrung → a.
- Sensible Merkmale aus Biometrie ohne Ausnahmetatbestand → g.
- Live-Gesicht-im-Kalender für Polizei ohne nationales Rahmenwerk, Genehmigung, FRIA und Registrierung → h plus Art. 5 Abs. 2–5 auf EUR-Lex.
Ausnahmen und Garantien (v. a. lit. h)
Die Schlagwort-Ausnahmen für Echtzeit-Fernbiometrie in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken (Art. 5(1) h) stehen nur im EUR-Lex-Wortlaut präzise (lit. h i–iii, Erforderlichkeit/Verhältnismäßigkeit in Abs. 2, vorherige Genehmigung in Abs. 3 inkl. 24-Stunden-Eilfall, Meldepflichten in Abs. 4, nationales Ermächtigungsrecht in Abs. 5, Berichte in Abs. 6–7).
Im Legalithm-Leitfaden: Art. 27 (Grundrechte-Folgenabschätzung) und Art. 49 (EU-Datenbank) sind in Art. 5 Abs. 2 ausdrücklich genannt.
Anhang II ist für lit. h iii relevant—Anhang II auf EUR-Lex.
Bußgelder und Vollzugskontext
Wesentliche Verstöße gegen Art. 5 können unter Art. 99 (EUR-Lex) die höchsten Verwaltungsgeldbußen auslösen (Zahlen auf dieser Seite sind Obergrenzen; Behörden wenden Art. 99 Abs. 3 an).
- Unternehmen: bis 35 Mio. € oder 7 % des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahrs—je nachdem, welcher Wert höher ist.
- KMU und Start-ups: niedrigere Höchstbeträge in derselben Tabellenlage.
Verbote technisch ausschließen—nicht als „Budgetposten“ behandeln.
Amtlicher Wortlaut (Auszug): Art. 5(1) Einleitung und lit. a bis d (englische Fassung)
Hinweis (Redaktion): Im Englischen konsolidierten Text folgen die Einleitung von Art. 5(1) und lit. a bis d (wie auf EUR-Lex üblich zitiert). Lit. e bis h sowie Art. 5 Abs. 2–8 nur vollständig auf EUR-Lex Artikel 5. Maßgeblich für deutsche Behörden ist die deutsche Fassung—dort stets öffnen.
1. The following AI practices shall be prohibited:
(a) the placing on the market, the putting into service or the use of an AI system that deploys subliminal techniques beyond a person's consciousness or purposefully manipulative or deceptive techniques, with the objective, or the effect of materially distorting the behaviour of a person or a group of persons by appreciably impairing their ability to make an informed decision, thereby causing them to take a decision that they would not have otherwise taken in a manner that causes or is reasonably likely to cause that person, another person or group of persons significant harm;
(b) the placing on the market, the putting into service or the use of an AI system that exploits any of the vulnerabilities of a natural person or a specific group of persons due to their age, disability or a specific social or economic situation, with the objective, or the effect, of materially distorting the behaviour of that person or a person belonging to that group in a manner that causes or is reasonably likely to cause that person or another person significant harm;
(c) the placing on the market, the putting into service or the use of AI systems for the evaluation or classification of natural persons or groups of persons over a certain period of time based on their social behaviour or known, inferred or predicted personal or personality characteristics, with the social score leading to either or both of the following:
(i) detrimental or unfavourable treatment of certain natural persons or groups of persons in social contexts that are unrelated to the contexts in which the data was originally generated or collected;
(ii) detrimental or unfavourable treatment of certain natural persons or groups of persons that is unjustified or disproportionate to their social behaviour or its gravity;
(d) the placing on the market, the putting into service for this specific purpose, or the use of an AI system for making risk assessments of natural persons in order to assess or predict the risk of a natural person committing a criminal offence, based solely on the profiling of a natural person or on assessing their personality traits and characteristics; this prohibition shall not apply to AI systems used to support the human assessment of the involvement of a person in a criminal activity, which is already based on objective and verifiable facts directly linked to a criminal activity;
(e)–(h) und Absätze 2–8 von Artikel 5 nicht oben wiedergegeben—EUR-Lex.
Erwägungsgründe (Präambel) auf EUR-Lex
Die Erwägungsgründe im selben konsolidierten KI-Rechtsakt auf EUR-Lex erläutern die Politikziele hinter den Verboten. Nutzen Sie die offizielle Präambel auf EUR-Lex—keine inoffiziellen Erwägungsgrund-Listen ohne Abgleich mit Reihenfolge und Wortlaut.
Checkliste
- Jeden Use Case gegen die acht Verbote des Art. 5(1) prüfen, bevor entwickelt oder eingekauft wird.
- Begründung dokumentieren, wenn keine Verbotspraxis vorliegt (besonders Biometrie, Emotionen, öffentliches Scoring).
- Für Strafverfolgung mit Echtzeit-Biometrie nationales Recht, Genehmigungen und FRIA/Registrierung prüfen.
- Teams schulen: Verbot vs. Hochrisiko vs. Transparenzpflichten.
- Bei Modell-, Daten- oder Kontextänderung erneut prüfen.
Unsicher, ob Ihr System verbotene Praktiken berührt? Nutzen Sie unsere kostenlose Einschätzung.
Kostenlose Bewertung startenVerwandte Artikel
Artikel 1: Gegenstand
Artikel 2: Anwendungsbereich
Artikel 3: Begriffsbestimmungen
Artikel 4: KI-Kompetenz (AI literacy)
Artikel 6: Einordnungsregeln für Hochrisiko-KI-Systeme
Anhang III: Hochrisiko-Anwendungsbereiche
Artikel 27: Grundrechte-Folgenabschätzung (FRIA)
Artikel 49: Registrierung in der EU-Datenbank
Artikel 50: Transparenzpflichten für begrenzte Risiken
Artikel 99: Penalties, EU AI Act
Artikel 113: Entry into force and application, EU AI Act
Verwandte Anhänge
- Anhang II — Straftatenkatalog zu Art. 5(1)(h)(iii)
Häufige Fragen
Gilt Art. 5 für uns außerhalb der EU?
Ja, wenn Sie ein KI-System auf dem EU-Markt in Verkehr bringen, in der Union in Betrieb nehmen oder die Ausgabe in der Union verwendet werden soll.
Ist Emotions-KI immer verboten?
Nein. Art. 5(1)(f) betrifft Arbeitsplatz und Bildung; andere Kontexte können anders reguliert sein (z. B. Hochrisiko oder Transparenz).
Unterschied zu Hochrisiko nach Anhang III?
Art. 5 verbietet Praktiken. Hochrisiko nach Art. 6 und Anhang III darf unter Erfüllung von Kapitel III in Verkehr gebracht werden.
Darf Gesichtserkennung nie genutzt werden?
Nicht pauschal: Verifikation zur Identitätsprüfung fällt anders als die Fernidentifikation in (h). Unzielgerichtetes Scraping und viele Echtzeit-Szenarien in öffentlichen Räumen sind der Kern der strengsten Regeln—Einzelnachweis mit Fachanwalt.