Alle Artikel
AI Act

KI‑VO (EU AI Act) Artikel 50 Transparenz: Checkliste + Copy/Paste‑Templates (Disclosure Pack v1)

Evergreen‑Guide für Produktteams: wann Artikel‑50‑Offenlegung gilt, UX‑Patterns, Copy/Paste‑Strings, Markierung/Wasserzeichen, Logging‑Felder und Evidenz‑Artefakte. Inkl. PDF‑Download.

Legalithm Team6 Min. Lesezeit
Teilen

KI‑VO (EU AI Act) Artikel 50 Transparenz: Checkliste + Copy/Paste‑Templates (Disclosure Pack v1)

Wenn dein Produkt KI‑generierte oder KI‑bearbeitete Inhalte an Nutzer ausgibt, ist Artikel‑50‑Transparenz kein „Policy‑Thema“. Es ist Produkt‑UX: Offenlegung, Labels, Exporte und (wo machbar) Markierung/Wasserzeichen – damit klar ist, was durch KI erzeugt oder verändert wurde.

Teams scheitern an Artikel 50 oft aus denselben Gründen:

  • Offenlegung ist in AGB/Policies versteckt,
  • manche Oberflächen offenlegen (Web), andere nicht (PDF‑Export, E‑Mails, geteilte Reports),
  • unklar: was loggen und welche Evidenz aufbewahren.

Dieser Guide ist evergreen und ship‑ready: wann Artikel 50 greift, wie Nutzer es wirklich verstehen und konkrete Copy/Paste‑Templates für eine konsistente Umsetzung.

Verwandt: „Digital Omnibus“ & Planung August 2026 (Englisch)

Die EU verhandelt weiter am Digital Omnibus — er kann spätere Anwendungsdaten für Teile der KI‑VO bringen, aber sicher ist nichts, solange kein geänderter Text im Amtsblatt / EUR‑Lex steht. Stand Anfang Mai 2026 ist eine politische Trilog‑Runde vom 28. April ohne Abschluss geblieben; Details: EU AI Act Omnibus talks stalled — what SMEs should do now (Englisch).

Warum das hier steht: Artikel‑50‑Umsetzung (Labels, Export‑Footer, Logs, Evidenz) hängt nur begrenzt davon ab, ob einzelne Hochrisiko‑Fristen politisch verschoben werden — Transparenz liefern und beweisen bleibt trotzdem Pflicht‑nahe und verkaufbar.

TL;DR — was du heute in 60 Minuten shippen kannst

  • Sichtbares Label „KI‑generiert / KI‑unterstützt“ direkt am Output.
  • 1‑Satz‑Disclosure bei der ersten Interaktion (nicht versteckt).
  • Exporte absichern: Footer‑Disclosure in PDFs/E‑Mails/Reports.
  • Markierungsansatz pro Modalität (Text/Bild/Audio/Video) festlegen und dokumentieren.
  • Proof sammeln: Screenshots + 1 Export‑Sample + kurze Notiz „wo umgesetzt“.

Ist Ihr KI-System hochriskant?

Finden Sie es in 2 Minuten heraus — kostenlos, ohne Anmeldung.

Jetzt prüfen

Disclosure Pack PDF (v1) herunterladen

Was Artikel‑50‑Transparenz praktisch bedeutet

Artikel 50 verlangt Transparenz darüber,

  • wann Menschen mit einem KI‑System interagieren, und
  • wann Inhalte durch KI erzeugt oder wesentlich verändert wurden (insb. wenn das irreführen kann).

In Produkt‑Sprache heißt das: Nutzer sollen nicht raten müssen:

  • „War das KI?“
  • „Hat KI das verändert?“
  • „Ist das echt oder synthetisch?“

Der beste Default ist: Offenlegung am Nutzungspunkt und so, dass sie Exporte/Sharing überlebt.

Offizieller Rechtstext (EUR‑Lex)

Die Transparenzregeln stammen aus der Verordnung (EU) 2024/1689 (KI‑Verordnung / AI Act), insbesondere Artikel 50 (Kapitel IV). Bitte immer gegen den authentischen Unionsrechtstext prüfen:

Hinweise von Legalithm sind keine Rechtsberatung.

Für wen ist das?

Für Produkt‑ und Engineering‑Teams mit Features wie:

  • Copilots / Chat‑Assistenten
  • „Zusammenfassen / Umschreiben / Übersetzen“
  • KI‑Bilder oder KI‑Videos
  • KI‑Bearbeitung von Nutzer‑Content (z. B. „verbessern“, „korrigieren“, „erweitern“)

Wann greift Artikel 50? (praktische Entscheidungsregeln)

  1. Interagieren Nutzer mit einem KI‑System? (Chat, „Generate“, „Rewrite“, „Summarize“)
    → Wenn ja: Disclosure am Nutzungspunkt.
  2. Erzeugt KI neuen Content oder verändert bestehenden wesentlich?
    → Wenn ja: Output labeln + Exporte disclosure‑sicher machen.
  3. Kann der Output als menschlich/real missverstanden werden? (v. a. Medien)
    → Wenn ja: Markierung/Wasserzeichen prüfen (wo machbar).

Wenn du unsicher bist: Offenlegung shippen. Das ist günstig und reduziert Nutzerverwirrung.

1) Produkt/UI‑Checkliste (Definition von „done“)

  • Disclosure am Nutzungspunkt (nicht in Policies versteckt).
  • Sichtbares „KI‑generiert / KI‑unterstützt“‑Label direkt am Output – auf jeder relevanten Oberfläche.
  • Exporte erhalten Disclosure/Markierung (PDF, E‑Mail, Download‑Reports).
  • Markierungsansatz pro Modalität dokumentiert (Text/Bild/Audio/Video). Wenn nicht machbar: Begründung + Mitigation dokumentiert.
  • Logging für Disclosure/Exporte (inkl. Version + Surface).
  • Retention für Logs/Evidenz definiert (Owner).
  • Evidenz gesammelt: Screenshots, Export‑Sample, kurze Implementierungsnotiz.

2) UX‑Placement‑Patterns (was Nutzer verstehen)

  • Direkt am Output: kleines „KI‑generiert“ Badge in jedem Output‑Block.
  • An Aktionen: bei „Export / Senden / Publish“ kurzer Hinweis + Export‑Footer.
  • In Listen/Feeds: „KI“‑Label in Karten/Rows.
  • In geteilten Outputs: PDFs/E‑Mails/Reports brauchen einen Footer – UI‑Chrome verschwindet.

Illustrative UI‑Mockups (Platzierung)

Es folgen vereinfachte Mockups — keine echten Produkt‑Screenshots — für Design‑ und Legal‑Reviews.

Chat / Assistent — erste Interaktion

Illustratives Mockup: Chat mit Hinweis auf KI‑System
Illustratives Mockup: Chat mit Hinweis auf KI‑System

Pattern: Kurzer, klarer Satz beim ersten Assistenten‑Turn, optional Link „Wie funktioniert das?“.

Export / Teilen — bevor die Datei das System verlässt

Illustratives Mockup: Export‑Dialog mit KI‑Hinweis
Illustratives Mockup: Export‑Dialog mit KI‑Hinweis

Pattern: Wenn der Export synthetische Inhalte enthalten kann: Hinweis im Dialog + fester Footer in der Datei.

PDF / Dokument — dauerhafte Kennzeichnung

Illustratives Mockup: PDF‑Seite mit Footer‑Disclosure
Illustratives Mockup: PDF‑Seite mit Footer‑Disclosure

Pattern: Footer (oder Hinweis auf Seite 1) auf jedem PDF; sichtbarer Text plus maschinenlesbare Metadaten, wo technisch möglich (vgl. Art. 50 Abs. 2).

3) Copy/Paste‑Templates (UI‑Strings)

Badge (kurz)

Direkt am Output platzieren.

KI-generiert
KI-unterstützt
KI-bearbeitet

Tooltip / Helper (1 Satz)

Nahe am Output oder im UI‑Chrome um die KI‑Funktion.

Dieser Inhalt wurde mithilfe von KI erzeugt.

First‑use Disclosure (simpel)

Beim ersten Use oder beim Aktivieren der KI‑Funktion.

Du interagierst mit einem KI-System. Ausgaben können durch KI erzeugt oder verändert werden.

Pre‑Export Warning (für „High‑signal“ Flows)

Bei Export/Senden/Publish.

KI-generierter Inhalt
Du bist dabei, KI-generierten Inhalt zu exportieren. Bitte prüfe die Inhalte auf Richtigkeit und stelle sicher, dass sie deinen Policies entsprechen.
Buttons: Prüfen / Fortfahren
Dieses Dokument enthält KI-generierte oder KI-unterstützte Inhalte.

Accessibility (aria-label Beispiel)

aria-label="Offenlegung: KI-generierter Inhalt"

4) Markierung / Wasserzeichen (was tun)

Pro Oberfläche und Modalität einen Ansatz wählen. Wenn „nicht machbar“, dann Begründung + Mitigation (z. B. Export‑Footer + Disclosure) dokumentieren.

Text

  1. Sichtbares Label am Output + Disclosure in Exports.
  2. „Export“ als Grenze behandeln: PDFs/E‑Mails immer mit Footer‑Disclosure.

Bilder

  1. Sichtbares Wasserzeichen (Ecke), wenn machbar.
  2. Metadaten‑Tagging, wenn unterstützt.

Audio / Video

  1. Overlay + Metadaten, wenn machbar.
  2. Bei Video‑Exports ggf. Intro/Outro‑Slate mit Hinweis.

„Nicht machbar“ ist ok — aber dokumentieren

Wenn du nicht garantieren kannst, dass Markierung überlebt (Copy/Paste, externe Tools), dann:

  • UI‑Disclosure + Export‑Footer beibehalten,
  • „nicht machbar“ mit kurzer Mitigation dokumentieren.

5) Was loggen? (Minimalfelder)

Minimum: Surface, Disclosure‑Version, Marking‑Methode, Export‑Format, Timestamp.

FeldWarum
surfaceBelegt Coverage (web/app/export)
disclosure_versionWelche Copy war aktiv?
content_typeText/Bild/Audio/Video
marking_methodLabel / Wasserzeichen / Metadaten / nicht machbar
export_formatPDF/E‑Mail/Report/etc.
timestampAudit‑Timeline

6) Evidenz‑Artefakte (Nachweis in 5 Minuten)

Screenshots

  • Disclosure pro Oberfläche (web/app).
  • Markierung/Wasserzeichen sichtbar (wenn vorhanden).
  • Pre‑Export‑Warning (falls genutzt).

Export‑Samples

  • 1–2 PDFs/DOCs mit Disclosure + Markierung.
  • 1 E‑Mail‑Sample mit Footer‑Disclosure.

Logs (Samples)

  • Je 1 Beispiel: Disclosure gezeigt, Markierung angewandt (falls relevant), Export durchgeführt.

Policies / Runbooks

  • Wann markieren vs „nicht machbar“.
  • Wo Copy konfiguriert ist und wie sie versioniert wird.
  • Retention (was, wie lange, Owner).

Häufige Fehler (und Fixes)

  1. Nur in Policies offenlegen → Disclosure am Output + First‑use.
  2. Exporte vergessen → Footer‑Disclosure in PDF/E‑Mail/Reports + QA‑Test.
  3. Inkonsistente Copy → 1 Canonical Copy + Versioning.
  4. Kein Proof → 3 Screenshots + 1 Export‑Sample + 1 Log‑Sample.

Frequently Asked Questions (FAQ)

Brauchen wir das auch bei „KI‑unterstützt“?

Ja, wenn KI den Inhalt materiell verändert. Nutzer sollen nicht raten müssen.

Müssen wir alles watermarken?

Nein. Für Text reicht oft Label + Export‑Footer. Für Medien: Wasserzeichen/Metadaten wo machbar.

Minimum für v1?

  • Label am Output\n+- 1 Satz Disclosure\n+- Export‑Footer\n+- 3 Screenshots + 1 Export‑Sample

Disclaimer

Dieser Beitrag dient nur Informationszwecken und stellt keine Rechtsberatung dar.

AI Act
Artikel 50
Transparenz
Compliance
Produkt

Prüfen Sie die Compliance Ihres KI-Systems

Kostenlose Bewertung ohne Signup. Erhalten Sie Ihre Risikoklassifizierung in wenigen Minuten.

Kostenlose Bewertung starten