Mehr als ein Foto – rechtliche Herausforderungen bei der Nutzung von KI

So verlockend der Einsatz von KI-generierten Bildern ist, so groß ist die Unsicherheit in rechtlicher Hinsicht. Wir sprechen mit dem Datenschutzexperten Dr. Thomas Schwenke über die Regulierung von KI – über die Feinheiten des Urheberrechts, die Debatte um eine Kennzeichnungspflicht, die Gefahr von Markenrechtsverletzungen und den Missbrauch durch Deepfakes.

Dr. Thomas Schwenke

AGEV: Was ist zu beachten, wenn man KI-generierte Bilder kommerziell nutzen will?

Dr. Thomas Schwenke: Der Einsatz von KI-generierten Bildern bringt zahlreiche rechtliche Aspekte mit sich, die berücksichtigt werden sollten. Zuerst ist das Urheberrecht zu beachten. Traditionell sind Bilder, die von Menschen geschaffen wurden, urheberrechtlich geschützt, da das Urheberrecht als Anreiz dient, um Kreativität und Innovation in Literatur, Kunst und Kultur zu fördern. KI-Systeme, die solche Werke generieren, haben jedoch keine eigenen kreativen Fähigkeiten im menschlichen Sinne. Daher fallen KI-generierte Bilder nicht automatisch unter den herkömmlichen urheberrechtlichen Schutz. Dies könnte bedeuten, dass solche Bilder von jedermann kopiert werden dürfen.

Wenn man beispielsweise plant, KI-generierte Bilder in Werbekampagnen zu verwenden, sollte man sich bewusst sein, dass Mitbewerber potenziell dieselben Bilder nutzen könnten. Es wäre daher ratsam, vertraglich festzulegen, in welchem Umfang und unter welchen Bedingungen KI zur Bildgenerierung verwendet werden darf. Es ist ebenso wichtig, Mitarbeiter über diese rechtlichen Feinheiten aufzuklären.

Selbst wenn KI-Anbieter in ihren AGB die Nutzung der generierten Bildern einschränken oder exklusive Rechte an den Bildern vergeben, bleiben solche Bilder gemeinfrei. Denn AGB gelten nur zwischen dem Anbieter und dem direkten KI-Nutzer. Dritte, die keinen Vertrag mit dem KI-Anbieter abgeschlossen haben, sind nicht an diese AGB gebunden und können daher die Bilder nutzen, ohne sich an diese Beschränkungen zu halten.

AGEV: Kann man mit KI-Bildern gegen fremde Urheberrechte verstoßen?

Dr. Thomas Schwenke: Die Befürchtung, dass eine KI von Menschen erstellte Werke kopiert, ist ein häufig geäußertes Anliegen. Es ist jedoch wichtig zu betonen, dass KI-Systeme nicht einfach fremde Werke replizieren. Stattdessen analysieren sie eine Vielzahl von Daten und erkennen darin Muster – seien es Farbkombinationen, Formen, Kontext, Musiknoten oder andere Datenpunkte. In gewisser Weise ähnelt dieser Prozess dem Lernverhalten eines Menschen.

Da abstrakte Konzepte wie Wissen, Ideen, Fakten oder bestimmte Stile nicht urheberrechtlich geschützt sind, ist die Wahrscheinlichkeit, mit KI-generierten Werken Urheberrechte Dritter zu verletzen, in der Regel eher niedrig. Dennoch gibt es vereinzelt Berichte darüber, dass in KI-generierten Werken Elemente aus bestehenden Werken zu finden sind. Angesichts der schieren Menge an KI-generierten Werken erscheint das Risiko eines Urheberrechtsverstoßes jedoch relativ gering. Trotzdem bleibt ein gewisses Restrisiko bestehen. Bei Projekten mit hohem Risiko, wie beispielsweise Werbekampagnen, könnten lizenzierte Stockbilder eine rechtlich sicherere Option darstellen.

AGEV: Was halten Sie von einer Kennzeichnungspflicht für KI-generierte Inhalte?

Dr. Thomas Schwenke: Ich betrachte die Kennzeichnungspflicht als einen zentralen Punkt in der Debatte um die KI-Regulierung. Im privaten Bereich könnte die praktische Umsetzung einer solchen Pflicht ohne technische Lösungen, wie automatische Wasserzeichen, herausfordernd sein. Aber in Bereichen wie Medien, Nachrichten oder anderen Masseninformationsquellen erscheint eine klare Kennzeichnung von KI-generierten Inhalten als unverzichtbar. Ebenso wichtig wäre eine solche Kennzeichnung, wenn Unternehmen virtuelle Influencer als Produkttester oder Markenbotschafter nutzen, um so den Verbrauchern eine Realität vorzustellen, die tatsächlich nicht existiert. Hier würde sich eine Kennzeichnungspflicht jedoch bereits aus dem wettbewerbsrechtlichen Verbot, Verbraucher zu täuschen, ergeben.

AGEV: Müsste es nicht Vergütungsmodelle ähnlich der GEMA geben, die Urheber kreativer Inhalte, die für Trainings von KI genutzt werden, entschädigen?

Dr. Thomas Schwenke: Heutzutage gibt es bereits Abgaben auf Geräte wie Computer oder Tonträger, um Urheber für das Recht zu entschädigen, Privatkopien ihrer Werke anzufertigen. In ähnlicher Weise könnten auch kommerzielle KI-Anbieter durch eine Abgabe dazu beitragen, die kulturelle Entwicklung zu unterstützen. Auch wenn die kreative Kapazität von KI nahezu grenzenlos erscheinen mag, baut sie doch auf bestehenden Werken auf. Ihre „Kreationen“ sind nicht mit dem kreativen Prozess eines Menschen zu vergleichen. Daher erscheint ein zentrales Vergütungssystem, ähnlich dem für herkömmliche Medien, auch im Kontext von KI sinnvoll. Eine solche Initiative würde sicherlich eine zentrale Verwaltung erfordern.

AGEV: Wie hoch beurteilen Sie die Gefahr, mit KI-generierten Inhalten Markenrechte zu verletzen?

Dr. Thomas Schwenke: Es besteht definitiv ein Risiko, dass KI-generierte Inhalte gegen bestehende Markenrechte verstoßen könnten, besonders wenn es um die Erstellung von Produktnamen, Kampagnentiteln oder Logos geht. Vor deren Verwendung sollte stets überprüft werden, ob sie nicht schon als Marken geschützt sind. Insbesondere bei Logos kann diese Überprüfung umfangreich sein, und ein Verstoß kann angesichts hoher Markenwerte teuer werden.

Dieses Problem ist allerdings nicht neu, da es auch bei von Menschen gestalteten Produktnamen oder Logos auftreten kann. Ein Vorteil der KI liegt darin, dass sie darauf trainiert werden kann, potenzielle Markenrechtsverstöße proaktiv zu identifizieren, wodurch das Risiko minimiert werden könnte.

AGEV: Kommerzielle Bilddatenbanken wie Getty Images wollen in das Geschäft mit KI-generierten Bilder einsteigen. Erhält der Nutzer damit Rechtssicherheit?

Dr. Thomas Schwenke: Der Nutzer kann durch den Kauf von lizenzierten Bildern von renommierten Anbietern wie Getty Images in der Regel ein gewisses Plus an Rechtssicherheit erwarten. Viele dieser Anbieter bieten in ihren Lizenzvereinbarungen Gewährleistungen an. Das bedeutet, sollte es zu einem Urheberrechtsverstoß durch ein KI-generiertes Bild kommen, könnte der Nutzer Anspruch auf Schadensersatz haben, beispielsweise im Falle der Übernahme von Abmahnkosten. Jedoch ist die tatsächliche Notwendigkeit dieser zusätzlichen Rechtssicherheit mangels Urheberrechtsschutzes der Bilder individuell zu betrachten.

Dennoch ist bei der Verwendung von kostenlosen KI-Bilddatenbanken Vorsicht geboten, insbesondere bei Plattformen, auf denen Nutzer eigene Bilder hochladen können. Falls Werke von tatsächlichen Personen ohne entsprechende Rechte hochgeladen werden, könnten die ursprünglichen Urheber rechtliche Schritte einleiten und die Nutzung der Bilder untersagen.

AGEV: In den USA verklagen Urheber KI-Unternehmen wie OpenAI wegen angeblicher Urheberrechtsverletzungen. Wie schätzen Sie den Erfolg solcher Klagen ein?

Dr. Thomas Schwenke: Im US-amerikanischen Rechtssystem gibt es, anders als in der EU, keinen expliziten Rechtsrahmen für das Data Mining. Stattdessen stützen sich viele auf den Grundsatz des „Fair Use“. Dabei müssen die Gerichte anhand mehrerer Kriterien – wie dem Umfang der Nutzung, der wirtschaftlichen Bedeutung, dem Beitrag zur Kultur und Wissen – entscheiden, ob die Verwendung urheberrechtlich geschützter Werke zulässig ist. Das Ergebnis solcher Urteile kann daher stark von der subjektiven Einschätzung des jeweiligen Gerichts abhängen und sich zwischen verschiedenen Gerichtsbarkeiten unterscheiden. Zudem kann ein abschließendes Urteil erst nach einem langen Prozess und möglichen Berufungen feststehen.

In Anbetracht dieser Unsicherheiten wäre es vielleicht am treffendsten, die Erfolgsaussichten solcher Klagen als ungewiss oder „50/50“ einzustufen. Langfristig wird sich nach meiner Ansicht eher ein zentrales Vergütungssystem für Urheber etablieren, als dass das Training von KI-Systemen grundsätzlich als Verstoß gegen das Urheberrecht betrachtet wird. Für die Endnutzer der durch KI erstellten Werke sehe ich ohnehin keine direkten rechtlichen Risiken, da der Streitpunkt hauptsächlich die Lernprozesse der KI betrifft.

AGEV: In China gibt es bereits Gesetze gegen Missbrauch durch Deepfakes. Brauchen wir bei uns auch solche rechtlichen Regelungen?

Dr. Thomas Schwenke: Die Notwendigkeit solcher Regelungen ist unbestritten. Tatsächlich sind derartige Vorschriften bereits im Entwurf des AI-Act, also dem KI-Gesetz der EU, enthalten. Allerdings ist die Umsetzung dieses Gesetzes vor 2025 nicht zu erwarten. Angesichts der rasanten technologischen Entwicklung könnte diese Verzögerung zu einem erheblichen Vertrauensverlust in die Medien führen. Es ist daher von zentraler Bedeutung, sowohl gesetzliche Rahmenbedingungen als auch technische und ethische Leitlinien zu schaffen, um Missbrauch zu verhindern und das Vertrauen in digitale Medien aufrechtzuerhalten.

AGEV: Vielen Dank für das Gespräch.

Über Thomas Schwenke

Der Berliner Datenschutzexperte Dr. Thomas Schwenke, LL.M. (Auckland), Rechtsanwalt und Datenschutzauditor, hilft international Unternehmen, die rechtlichen Herausforderungen des KI-Einsatzes und Online-Marketings zu meistern. Er ist Buchautor, Co-Host des juristischen Podcasts Rechtsbelehrung.com und Anbieter der Plattform Datenschutz-Generator.de.

Weitere Infos: drschwenke.de