Kurzfassung

KI-generierte Inhalte geniessen keinen urheberrechtlichen Schutz, da das Urheberrecht nur menschliche, kreative Schöpfungen erfasst. Nutzer können jedoch durch Nachbearbeitung oder Markeneintragung Schutz erreichen. Aktuelle Gerichtsurteile zeigen: KI-Anbieter haften teilweise für urheberrechtsverletzungen im Output, Nutzende bleiben aber verantwortlich. Eine klare KI-Richtlinie im Unternehmen senkt Risiken erheblich.

Personen

Themen

  • Urheberrecht und KI
  • Haftungsrisiken bei KI-Nutzung
  • Markenrecht vs. Urheberrecht
  • Gerichtliche Präzedenzfälle
  • Content-Generierung und Compliance

Clarus Lead

Der Urheberrechtsschutz für KI-Output bleibt rechtlich umstritten, obwohl sich eine klare Tendenz abzeichnet: Rein KI-generierte Inhalte sind nicht geschützt. Entscheidend für Marketingverantwortliche ist die Erkenntnis, dass menschliche Nachbearbeitung Schutz ermöglicht – jedoch nur bei hinreichender kreativer Leistung. Parallele Risiken entstehen durch mögliche Urheberrechtsverletzungen im Trainingsmaterial der KI-Modelle, die den Nutzer und teilweise auch den KI-Anbieter haften lassen.

Detaillierte Zusammenfassung

Grundprinzip: Menschliche Kreativität als Schutzvoraussetzung

Das Urheberrechtsgesetz schützt ausschliesslich „persönliche geistige Schöpfungen". Ein Prompt allein erfüllt diese Anforderung nicht, da der Nutzer nur eine Richtung vorgibt, während die KI die finalen Entscheidungen trifft. Dieses Prinzip wird durch die fehlende Gerichtspraxis bestätigt – Juristen bewerten es als so eindeutig, dass Klagen nicht eingereicht werden.

Anders ist die Situation bei Nachbearbeitung: Wer KI-Output mit eigener Kreativität weiterbearbeitet (beispielsweise in Photoshop), kann urheberrechtlichen Schutz erlangen – jedoch nur, wenn die Bearbeitung „über alltägliche Basics" hinausgeht. Farben heller machen oder das Unternehmenslogo aufzukleben reicht nicht aus.

Markenrecht als Alternative

Parallel zum Urheberrecht bietet das Markenrecht einen praktischen Schutzweg: Ein KI-generiertes Logo kann markenrechtlich eingetragen werden, ohne dass urheberrechtlicher Schutz vorliegen muss. Dies schützt vor Kopien durch Konkurrenten – der Anbieter muss die Marke jedoch aktiv nutzen, sonst droht Verlust.

Haftungsrisiken für Nutzer

Drei Gerichtsurteile zeigen, wie Haftung konkret verteilt wird:

  1. GEMA gegen OpenAI (Landgericht München): KI-Anbieter haften selbst für urheberrechtsverletzungen im Output, etwa wenn generierte Song-Lyrics existierende Werke reproduzieren.

  2. Stimmen-Deepfake (Landgericht Berlin): KI-Imitation von Stimmen verletzt Persönlichkeitsrechte und benötigt Einwilligung – auch bei Kennzeichnung.

  3. Training auf geschützten Werken (OLG Hamburg): KI-Anbieter dürfen Werke zum Training nutzen, es sei denn, der Urheber hat einen maschinenlesbaren Nutzungsvorbehalt erklär.

Der Nutzer trägt Haftung für Veröffentlichungen – Unwissenheit schützt nicht. Selbst fahrlässige Verstösse (etwa nicht überprüfter Songlyrics) führen zu vollumfänglicher Haftung.

Kernaussagen

  • KI-Output allein hat keinen urheberrechtlichen Schutz; menschliche Nachbearbeitung ist erforderlich
  • KI-Anbieter haften teilweise für Urheberrechtsverletzungen, Nutzer haften jedoch immer
  • Markenrecht bietet praktische Alternative zum Urheberrechtsschutz
  • Nutzer müssen vor Veröffentlichung prüfen, ob Inhalte urheberrechtlich geschützte Werke reproduzieren
  • Ein Nutzungsvorbehalt („nicht für KI-Training verwenden") schützt vor unkontrollierter Datennutzung

Kritische Fragen

(a) Evidenz & Datenqualität:

  1. Wie können Nutzer praktisch überprüfen, ob KI-generierte Lyrics oder Bilder geschützte Werke reproduzieren, ohne forensische Expertise?

  2. Welche Transparenzpflichten gelten konkret für KI-Anbieter, um Trainingsmaterialien offenzulegen – und sind diese ausreichend granular?

(b) Interessenskonflikte & Anreize:

  1. Profitieren grosse KI-Anbieter derzeit von rechtlichen Grauzonen beim Training auf geschützten Werken, solange keine Klagen durchdringen?

  2. Wie können Urheber maschinenlesbare Nutzungsvorbehalte wirksam implementieren, wenn es keine standardisierten Formate gibt?

(c) Kausalität & Alternativen:

  1. Ist die These haltbar, dass blosse „Unwissenheit" des Nutzers das Haftungsrisiko senkt – oder ist die Haftung objektiv, unabhängig von Verschulden?

  2. Könnte eine Versicherung gegen Urheberrechtsverletzungen im KI-Output ein praktikables Risikoinstrument werden?

(d) Umsetzbarkeit & Risiken:

  1. Welche konkreten Punkte sollten in einer unternehmensinternen KI-Richtlinie enthalten sein, um Haftungsrisiken nachweislich zu minimieren?

  2. Wie realistisch ist es, dass KI-Anbieter ihre Filter so schnell verbessern, dass urheberrechtliche Verstösse in der Praxis ausbleiben?


Quellenverzeichnis

Primärquelle:

Podcast-Episode „KI-Urheberrecht: Wem gehört der Output?" – https://www.buzzsprout.com/2417957/episodes/18666664-ki-urheberrecht-wem-gehort-der-output.mp3

Relevante Gerichtsurteile (erwähnt):

  • Landgericht München: GEMA vs. OpenAI (Urheberrechtsverletzung durch Songlyrics-Output)
  • Landgericht Berlin: Stimmen-Deepfake-Urteil (Persönlichkeitsrechte)
  • Oberlandesgericht Hamburg: KI-Training auf geschützten Werken
  • Landgericht Kiel: Nutzer-Haftung trotz KI-Delegation (Entscheidung erwähnt)

Normen:

  • Deutsches Urheberrechtsgesetz (UrhG), insbesondere § 2
  • EU AI Act, Artikel 50 (Kennzeichnungspflicht Deepfakes/Chatbots)
  • UrhG § 44b Abs. 3 (Ausnahme KI-Training bei Nutzungsvorbehalt)

Verifizierungsstatus: ✓ 12.02.2026


Dieser Text wurde mit Unterstützung eines KI-Modells erstellt. Redaktionelle Verantwortung: clarus.news | Faktenprüfung: 12.02.2026