Was Unternehmen nach Art. 50 KI-VO beachten müssen 

Mit dem zunehmenden Einsatz generativer KI in Marketing, Kundenkommunikation, E-Commerce und Medienarbeit gewinnt eine Frage immer mehr an Bedeutung: Wann müssen KI-generierte oder KI-manipulierte Inhalte als solche offengelegt werden? 

Die Antwort ergibt sich aus Art. 50 KI-VO. Die Vorschrift enthält mehrere Transparenzpflichten für bestimmte KI-Systeme und ihre Nutzung. Ziel ist es insbesondere, Täuschungen zu vermeiden und sicherzustellen, dass Nutzer erkennen können, ob sie mit einem KI-System interagieren oder ob Inhalte künstlich erzeugt oder manipuliert wurden.  

Keine pauschale Kennzeichnungspflicht für alle KI-Inhalte 

Wichtig ist zunächst: Art. 50 KI-VO begründet keine allgemeine Pflicht, jeden KI-Einsatz pauschal zu kennzeichnen. Die Regelung unterscheidet vielmehr zwischen verschiedenen Fallgruppen. Entscheidend ist daher immer der konkrete Einsatzkontext.  

Für Unternehmen ist das besonders relevant, weil die Vorschrift nicht nur Entwickler von KI-Systemen betrifft. Je nach Fall können auch Unternehmen in der Rolle des Betreibers betroffen sein, also dann, wenn sie KI-Systeme im eigenen Geschäftsbetrieb einsetzen.  

Transparenz bei der Interaktion mit KI 

Werden KI-Systeme eingesetzt, die unmittelbar mit Personen interagieren – etwa Chatbots oder virtuelle Assistenten –, muss grundsätzlich darüber informiert werden, dass es sich um ein KI-System handelt. Eine Ausnahme gilt nur dann, wenn dies für die betroffene Person ohnehin offensichtlich ist.  

Gerade im Kundenservice, in digitalen Self-Service-Prozessen oder im Recruiting kann diese Pflicht praktisch relevant werden. Unternehmen sollten daher prüfen, ob bei ihren eingesetzten Dialogsystemen ein klarer Hinweis auf die KI-Interaktion erforderlich ist. 

Kennzeichnung synthetischer Inhalte und Deepfakes 

Darüber hinaus sieht Art. 50 besondere Transparenzanforderungen für Systeme vor, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen. Auf Ebene des Anbieters verlangt die KI-VO hier zunächst eine maschinenlesbare Kennzeichnung bestimmter künstlich erzeugter oder manipulierter Inhalte.  

Besonders praxisrelevant ist jedoch die Offenlegungspflicht für sogenannte Deepfakes. Werden Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die einen realistischen Eindruck vermitteln, müssen Betreiber grundsätzlich offenlegen, dass diese Inhalte künstlich erzeugt oder manipuliert wurden. Für offensichtlich künstlerische, satirische, fiktionale oder vergleichbare Inhalte gelten dabei Besonderheiten.  

Für Unternehmen kann das etwa bei KI-generierten Avataren, synthetischen Werbevideos, realitätsnahen Personenbildern oder künstlich erzeugten Nutzungsszenarien relevant werden. Gerade in Marketing und E-Commerce kommt es deshalb auf eine sorgfältige Einzelfallprüfung an. 

KI-generierte Texte nur in bestimmten Fällen 

Besonders wichtig ist die Abgrenzung bei Texten. Nicht jeder KI-generierte Text ist automatisch kennzeichnungspflichtig. Art. 50 KI-VO erfasst insoweit insbesondere Texte, die veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. Zudem kann die Pflicht entfallen, wenn eine echte menschliche Überprüfung oder redaktionelle Kontrolle stattfindet und eine natürliche oder juristische Person die redaktionelle Verantwortung übernimmt.  

Für die Praxis bedeutet das: Klassische Produktbeschreibungen, allgemeine Marketingtexte oder werbliche Inhalte sind nicht allein deshalb kennzeichnungspflichtig, weil sie mit KI erstellt wurden. Anders kann die Bewertung allerdings ausfallen, wenn Inhalte einen besonderen Öffentlichkeitsbezug haben oder realitätsnahe künstliche Darstellungen erzeugt werden. 

Weitere Transparenzpflichten 

Art. 50 KI-VO enthält außerdem Informationspflichten für Betreiber von Systemen zur Emotionserkennung oder biometrischen Kategorisierung. Auch diese Konstellationen sollten in Unternehmen bei der Prüfung des KI-Einsatzes mitgedacht werden, selbst wenn sie in der öffentlichen Diskussion häufig weniger Beachtung finden als Deepfakes oder Chatbots.  

Was Unternehmen jetzt tun sollten 

Auch wenn Art. 50 KI-VO keine pauschale Kennzeichnungspflicht für alle KI-Inhalte vorsieht, zeigt die Regelung doch deutlich, dass Unternehmen den Einsatz generativer KI nicht nur technisch, sondern auch rechtlich strukturiert bewerten müssen. Maßgeblich sind dabei insbesondere: 

  • die Art des erzeugten oder manipulierten Inhalts,
  • der konkrete Nutzungskontext,
  • die Rolle des Unternehmens als Anbieter oder Betreiber,
  • sowie der Grad menschlicher Kontrolle über die Veröffentlichung. 

Unternehmen sollten daher frühzeitig erfassen, an welchen Stellen KI zur Interaktion, Inhaltserzeugung oder Inhaltsmanipulation eingesetzt wird, und auf dieser Grundlage prüfen, ob Transparenz- oder Offenlegungspflichten bestehen. 

Wie Bitkom Consult unterstützt 

Bitkom Consult unterstützt Unternehmen dabei, den Einsatz generativer KI rechtlich und organisatorisch sauber einzuordnen. Dazu gehören insbesondere die Prüfung konkreter Use Cases, die Einordnung von Transparenz- und Kennzeichnungspflichten nach der KI-VO, die Abgrenzung zwischen Anbieter- und Betreiberpflichten sowie die Entwicklung praxistauglicher Governance- und Freigabeprozesse für Marketing, Kommunikation, E-Commerce und interne Fachbereiche. So lassen sich regulatorische Anforderungen frühzeitig in belastbare und umsetzbare Prozesse überführen. 

Share