Leitfaden zur „Meaningful Human Intervention“: Niederländische Datenschutzbehörde konkretisiert Anforderungen an menschliche Aufsicht bei KI-Entscheidungen
Den Haag, 30. September 2025 – Die niederländische Datenschutzbehörde Autoriteit Persoonsgegevens (AP) veröffentlicht heute einen Leitfaden für die praktische Ausgestaltung einer bedeutsamen menschlichen Intervention („meaningful human intervention“) in automatisierten und KI-gestützten Entscheidungsprozessen. Ziel ist es, Unternehmen, Behörden und sonstige Stellen bei der rechtskonformen Umsetzung von Entscheiden zu unterstützen, wenn diese (mit)automatisiert getroffen werden.
Hintergrund & rechtlicher Rahmen
Automatisierte Entscheidungen mit erheblichen Auswirkungen auf betroffene Personen sind gemäß Artikel 22 DSGVO grundsätzlich unzulässig, sofern sie ausschließlich auf algorithmischer Verarbeitung beruhen. Um eine Ausnahme dieser Regel zu ermöglichen, schreibt das Gesetz vor, dass eine menschliche Überprüfung oder Intervention vorgesehen sein muss (Art. 22 Abs. 3). Ergänzend zur DSGVO stellt die KI-Verordnung (Verordnung (EU) 2024/1689, KI-VO) Anforderungen an die menschliche Aufsicht bei Hochrisiko-KI-Systemen (Art. 14).
Der AP-Leitfaden basiert auf einer öffentlichen Konsultation mit Behörden, Fachleuten, Unternehmen und Interessensvertretungen. Er greift die Vorgaben des EDPB (Europäischer Datenschutzausschuss) auf und überführt sie in konkrete Handlungsprinzipien und Gestaltungshinweise.
Vier Säulen der menschlichen Intervention
Der Leitfaden strukturiert die Anforderungen in vier miteinander verwobene Kategorien: Mensch, Technologie & Design, Prozess und Governance.
-
Mensch
-
Der menschliche Entscheider muss über kompetente Kenntnisse verfügen, d. h. ein grundsätzliches Verständnis der Funktionsweise des eingesetzten KI-Systems.
-
Er oder sie muss in der Lage sein, Informationen einzubeziehen, die der automatisierte Prozess nicht berücksichtigt hat (kontextuelle, ethische, individuelle Faktoren).
-
Entscheidend ist, dass das Eingreifen tatsächlich Wirkung entfalten kann – Formalismen ohne Wirkungsgrad sind unzulässig.
-
Technologie & Design
-
Interface und Visualisierung dürfen das menschliche Urteil nicht systematisch verzerren (z. B. durch zu dominante Risikohinweise oder suggestive Gradeinteilungen).
-
Mechanismen wie Explainability (Erklärbarkeit) und transparente Kontextinformationen sind zu integrieren, um den menschlichen Entscheider zu unterstützen.
-
Funktionen zur Dokumentation oder Revision der Entscheidung (z. B. Änderung, Widerspruch) sollen vorgesehen sein.
-
Prozess
-
Der Zeitpunkt der menschlichen Intervention muss so gewählt sein, dass tatsächlich Änderungen am Ergebnis möglich sind — idealerweise bevor es endgültig wird.
-
Eskalationsmechanismen und klare Verantwortlichkeiten sollen festgelegt und kommuniziert werden.
-
Der Entscheider muss formal ermächtigt sein, von der automatischen Entscheidung abzuweichen, ohne negativen Einfluss befürchten zu müssen.
-
Governance
-
Gesamtverantwortung für den Einsatz und die Eingriffe trägt die Organisation selbst.
-
Rollen und Zuständigkeiten sind offen zu dokumentieren (z. B. wer bewertet, wer eskaliert).
-
Kontrollen, Audits oder Monitoring (z. B. Analyse von Widerspruchsfällen) sind zu etablieren.
-
Eine Datenschutz-Folgenabschätzung (DPIA) wird insbesondere bei Hochrisiko-Anwendungen ausdrücklich empfohlen.
Bedeutung & praktische Wirkung
Mit dieser Orientierungshilfe setzt die AP Maßstäbe für die praktische Ausgestaltung menschlicher Aufsicht bei KI-Entscheidungen. Sie verdeutlicht, dass menschliche Beteiligung mehr sein muss als nur ein formaler Schritt am Ende eines automatisierten Prozesses.
Für Unternehmen und Behörden bedeutet das konkret:
-
Bei Systemen, die rechtliche Wirkungen oder erhebliche Auswirkungen auf Personen haben, muss bereits in der Konzeptionsphase geprüft werden, wo und wie menschliches Eingreifen sinnvoll und zulässig ist.
-
Entscheidende Fragen wie Schulung, Befugnisse, Eskalation und Dokumentation müssen früh operativ geregelt sein.
-
Technische Gestaltung (UI/UX, Erklärmechanismen) darf das menschliche Urteil nicht verfälschen – Gestaltung und Usability werden somit zu Pflichtaufgaben.
-
Eine bloße Automatisierung mit nachträglichem „Check durch eine Person“ genügt nicht, wenn das Eingreifen rein symbolischen Charakter trägt.
Ausblick
Die AP kündigt an, auch künftig an der Weiterentwicklung zu arbeiten, insbesondere zur Konkretisierung, was eine „erhebliche Beeinträchtigung“ im Sinne des Artikel 22 genau bedeutet, und wie betroffene Personen angemessen über automatisierte Entscheidungen informiert werden müssen.
Vor dem Hintergrund dieser Empfehlungen wird zu erwarten sein, dass nationale Datenschutzbehörden in der EU vergleichbare Leitlinien herausgeben – und dass Organisationen zunehmend gezwungen werden, KI-Einsatzstrategien datenschutzgerecht von vornherein zu planen.
Unterstützung durch Bitkom Consult
Die Anforderungen der AP zeigen einmal mehr, wie komplex die Regulierung von KI-Systemen ist. Neben der technischen Umsetzung braucht es rechtssichere Prozesse, klare Zuständigkeiten und eine fundierte Compliance-Strategie.
Bitkom Consult unterstützt Unternehmen und öffentliche Einrichtungen dabei:
-
bei der Beratung und Umsetzung von KI-Projekten,
-
durch praxisnahe Workshops und Schulungen, um die Vorgaben von DSGVO und KI-VO nachhaltig zu erfüllen,
-
sowie mit unseren KI-Compliance-Seminaren, die aufzeigen, wie sich regulatorische Anforderungen in konkrete Unternehmensprozesse übersetzen lassen.