KI in der Medienproduktion

Kennzeichnungspflichten, Urheberrecht und Verantwortung in Kürze erklärt

Stimmen, die nie gesprochen haben, Bilder, die nie aufgenommen wurden, Videos, die Ereignisse zeigen, die es nie gab: Künstliche Intelligenz ist in der Medienproduktion längst ein alltägliches Phänomen. Für Producer, Publisher, Plattformbetreiber und Studios stellt sich damit ganz praktisch die Frage, wann der Einsatz von KI gekennzeichnet werden muss und wann der Inhalt noch vom urheberrechtlichen Schutz erfasst ist.
Der EU-AI-Act und das Urheberrecht geben dazu den Rahmen vor. Die Transparenzpflichten des Art. 50 AI-Act gelten ab dem 2. August 2026, sodass sich Unternehmen bereits jetzt auf diese Anforderungen vorbereiten sollten.

Kennzeichnungspflichten nach dem EU-AI-Act

Maßgeblich ist insbesondere Art. 50 EU-AI-Act. Danach müssen KI-generierte oder KI-manipulierte Inhalte kenntlich gemacht werden, wenn sie geeignet sind, das Publikum über ihre Echtheit zu täuschen. Gemeint sind typischerweise sogenannte Deepfakes. Dabei handelt es sich um Bild-, Ton- oder Videoinhalte, die mithilfe von KI so realistisch erzeugt oder verändert werden, dass sie als echte Aussagen, echte Szenen oder echte Personen erscheinen.

Bei Bildaufnahmen ist eine Kennzeichnung erforderlich, wenn eine vermeintlich reale Situation gezeigt wird, die es so nie gab. Bei Tonaufnahmen reicht es, wenn die Stimme einer realen Person künstlich erzeugt oder so verändert wird, dass der Eindruck einer echten Äußerung entsteht. Bei audiovisuellen Inhalten (Video mit Ton) ist die Pflicht besonders relevant, weil Manipulationen hier besonders überzeugend wirken können.

Rein technische Bearbeitungen, etwa Rauschreduktion, Lautstärkeanpassung oder Farbkorrekturen, lösen dagegen in der Regel keine Kennzeichnungspflicht aus, solange sie den Aussagegehalt nicht verändern und keine falsche Authentizität suggerieren.

Wen trifft die Kennzeichnungspflicht?

Der AI-Act knüpft primär an diejenigen an, die Inhalte der Öffentlichkeit bereitstellen. In der Praxis sind das meist Publisher, Sender, Plattformbetreiber oder vergleichbare Akteure. Sie müssen sicherstellen, dass deepfake-relevante Inhalte als KI-generiert oder KI-bearbeitet erkennbar sind.

Producer, Studios und Dienstleister bleiben dennoch in der Pflicht. Sie sollten transparent machen, ob und in welchem Umfang KI eingesetzt wurde. Ohne diese Information können Publisher ihre gesetzlichen Pflichten kaum erfüllen. Sinnvoll ist daher, den KI-Einsatz ausdrücklich in den allgemeinen Geschäftsbedingungen, Produktions- und Lizenzverträgen, einschließlich der Frage, wer im Außenverhältnis kennzeichnet und wie dies zu erfolgen hat, zu regeln.

Urheberrecht: Was bleibt geschützt, was nicht?

Der Einsatz von KI führt nicht automatisch dazu, dass ein Werk seinen urheberrechtlichen Schutz verliert. Das Urheberrecht schützt jedoch ausschließlich persönliche geistige Schöpfungen eines Menschen im Sinne von § 2 Abs. 2 UrhG.

Nach der derzeit maßgeblichen Auffassung sind rein KI-generierte Inhalte ohne prägende menschliche Gestaltung deshalb nicht urheberrechtlich geschützt, weil es an einem menschlichen Urheber fehlt. Gleiches gilt für nur minimal bearbeiteten KI-Output. Erst wenn der Nutzer den KI-Inhalt eigenständig weiterentwickelt und in Auswahl, Komposition oder Ausformung kreativ prägt, kann ein sogenanntes hybrides Werk entstehen, das als menschliche Schöpfung geschützt ist.

Die jüngere Rechtsprechung bestätigt zumindest, dass der Schutz bereits bestehender menschlicher Werke durch die Nutzung in KI-Systemen nicht „verbraucht“ wird. So hat das Landgericht München I im Verfahren GEMA gegen OpenAI eine Urheberrechtsverletzung durch KI-Ausgaben ausdrücklich bejaht und damit vorausgesetzt, dass der Schutz der zugrunde liegenden Songtexte trotz KI-Verarbeitung fortbesteht. Ferner hat das Landgericht Hamburg im Rahmen von Text- und Data-Mining nach § 60d UrhG zur Nutzung von Fotografien als Trainingsdaten entschieden, ohne den Urheberrechtsschutz der Bilder in Frage zu stellen.

Unabhängig vom Urheberrecht bleiben Persönlichkeitsrechte ein scharfes Schwert. Die Imitation oder Klonung realer Stimmen und Gesichter ist ohne Einwilligung regelmäßig unzulässig, selbst wenn das Ergebnis als künstlerische Verfremdung gedacht ist und selbst wenn korrekt gekennzeichnet wird.

Aktuelle Entwicklungen: Kodifizierungspläne der EU

Parallel zur Einführung des EU-AI-Acts arbeitet die EU-Kommission an der Entwicklung eines „Code of Practice on Marking and Labelling of AI-Generated Content“, der künftig europaweit einheitliche Standards für die Kennzeichnung von KI-Inhalten schaffen soll. Der Kodex soll klären, wie synthetische Bilder, Tonaufnahmen und Videos technisch und visuell markiert werden müssen, etwa durch verpflichtende Metadaten, digitale Wasserzeichen oder standardisierte Hinweise. Damit wird deutlich, dass Transparenzpflichten in Zukunft nicht nur rechtlich, sondern zunehmend auch technisch verbindlich umgesetzt werden sollen. Medienunternehmen werden daher frühzeitig eigene Kennzeichnungs- und Prüfprozesse etablieren müssen, um den kommenden europäischen Vorgaben gerecht zu werden.

Praktische Konsequenzen für die Medienbranche

Für Produzenten und Publisher empfiehlt sich ein schlanker, aber klarer Dreischritt:

  1. Der Einsatz von KI sollte intern dokumentiert und bewertet werden, insbesondere mit Blick auf mögliche Deepfakes.
  2. Vertragswerke sind anzupassen, um KI-Einsatz, Kennzeichnungspflichten und Rechteklärung sauber zu regeln.
  3. Vor Veröffentlichung sollte geprüft werden, ob eine Kennzeichnung nach Art. 50 EU-AI-Act erforderlich oder zumindest aus Compliance- und Reputationsgründen sinnvoll ist.

Wer diese Punkte frühzeitig umsetzt, kann KI kreativ nutzen und gleichzeitig rechtliche Risiken kontrollieren. Sollten Sie bei der Umsetzung, bei der Vertragsgestaltung oder bei der rechtlichen Bewertung von KI-Inhalten professionelle Unterstützung benötigen, steht Ihnen unsere Kanzlei jederzeit kompetent zur Seite. Sie erreichen uns unter 040/35004890 oder per E-Mail an info@it-recht.net.