diebewertung.de:
Herr Rechtsanwalt Blazek, das Landgericht München I hat heute der GEMA weitgehend Recht gegeben. Was genau bedeutet dieses Urteil?
Daniel Blazek:
Das Urteil ist juristisch und wirtschaftlich ein Paukenschlag. Zum ersten Mal hat ein deutsches Gericht festgestellt, dass die Speicherung und Wiedergabe urheberrechtlich geschützter Texte in einem KI-Sprachmodell eine Vervielfältigung im Sinne des Urheberrechts darstellen kann. Damit sagt das Gericht im Klartext: Wenn KI-Modelle wie ChatGPT urheberrechtlich geschützte Inhalte beim Training „einprägen“ und diese später in ähnlicher Form wiedergeben, dann ist das eine Nutzung, die nur mit Zustimmung des Rechteinhabers zulässig wäre.
„Memorisierung“ – das neue juristische Schlüsselwort
diebewertung.de:
Das Gericht spricht von „Memorisierung“ in Sprachmodellen. Was steckt rechtlich dahinter?
Blazek:
„Memorisierung“ bedeutet, dass das Modell bestimmte Daten — hier also Liedtexte — nicht nur analysiert, sondern tatsächlich „abspeichert“, sodass sie später wieder reproduzierbar sind. Das Gericht sieht diese Memorisierung als Vervielfältigung im Sinne des § 16 UrhG und des Art. 2 InfoSoc-Richtlinie. Es reicht also, dass der Inhalt technisch abrufbar bleibt.
Das ist eine klare Absage an die bisherige Argumentation der KI-Anbieter, die behaupteten, das Modell „lerne nur Muster“ und speichere keine konkreten Texte.
KI-Anbieter tragen das Risiko – nicht die Nutzer
diebewertung.de:
OpenAI hatte argumentiert, verantwortlich seien die Nutzer, die die Prompts eingeben. Das Gericht sieht das anders.
Blazek:
Ja, das ist einer der entscheidenden Punkte. Das Landgericht München I sagt: Die Verantwortung liegt beim Betreiber der KI, also bei OpenAI selbst. Denn die Nutzer können nur das abrufen, was im Modell bereits angelegt ist.
Wenn ein Chatbot auf einfache Anfrage ganze Liedzeilen wiedergibt, ist das kein Nutzerfehler, sondern Folge des Modelltrainings. Das Gericht macht also deutlich: Wer ein Sprachmodell trainiert und betreibt, ist auch für urheberrechtliche Verstöße verantwortlich – unabhängig davon, wer sie auslöst.
Keine Deckung durch Text- und Data-Mining-Schranke
diebewertung.de:
Die Beklagten haben sich auf die Schranke für Text- und Data-Mining berufen. Warum hat das Gericht diesen Einwand zurückgewiesen?
Blazek:
Weil diese Schranke nur vorbereitende Analysen schützt – also das rein technische Extrahieren von Informationen, nicht aber das dauerhafte Speichern von Werken im Modell.
Das Gericht sagt: Wenn ein Werk als Ganzes im Modell verbleibt und wieder abrufbar ist, dann ist das keine bloße Analyse mehr, sondern eine wirtschaftlich relevante Nutzung. Diese Schranke darf also nicht als Freibrief für das Training von KI-Systemen mit geschützten Werken verstanden werden.
Folgen für die Praxis – und für die KI-Industrie
diebewertung.de:
Was heißt das nun praktisch – für OpenAI, aber auch für andere Anbieter von Sprachmodellen?
Blazek:
Kurz gesagt: Sie müssen künftig Lizenzen einholen. Wenn KI-Systeme mit urheberrechtlich geschützten Texten, Liedern oder anderen Werken trainiert werden, sind dafür Nutzungsrechte erforderlich.
Das Urteil macht deutlich, dass die bisherige Praxis – einfach große Datenmengen aus dem Internet zu verwenden – nicht rechtskonform ist, wenn sich darin geschützte Werke befinden.
Das betrifft nicht nur Musiktexte, sondern potenziell auch Bücher, journalistische Texte, Drehbücher oder wissenschaftliche Arbeiten.
GEMA als Türöffner für weitere Klagen
diebewertung.de:
Wird das Urteil weitere Klagen nach sich ziehen?
Blazek:
Davon ist auszugehen. Die GEMA hat hier stellvertretend für ihre Mitglieder geklagt, aber es ist nur eine Frage der Zeit, bis andere Verwertungsgesellschaften nachziehen – etwa VG Wort oder VG Bild-Kunst.
Das Urteil zeigt: Urheberrecht gilt auch im Zeitalter der KI. Wenn also Werke ohne Zustimmung in Trainingsdaten landen, können Rechteinhaber Unterlassung und Schadenersatz verlangen.
Ist das Urteil innovationsfeindlich?
diebewertung.de:
Manche Kritiker sagen, ein solches Urteil bremse Innovation. Wie sehen Sie das?
Blazek:
Das ist eine populäre, aber falsche Argumentation. Innovation braucht Rechtssicherheit. Wenn Urheber völlig ungeschützt sind, entsteht kein fairer Ausgleich.
Das Gericht sagt nicht, dass KI verboten ist – es sagt nur, dass sie nicht auf Kosten Dritter betrieben werden darf. Es zwingt die Branche dazu, legale, transparente und vergütete Lizenzmodelle zu entwickeln. Das ist kein Innovationshemmnis, sondern ein längst überfälliger Schritt in Richtung Rechtsstaatlichkeit im digitalen Zeitalter.
Ausblick: Berufung wahrscheinlich
diebewertung.de:
Das Urteil ist noch nicht rechtskräftig. Wie geht es jetzt weiter?
Blazek:
OpenAI wird mit hoher Wahrscheinlichkeit Berufung beim Oberlandesgericht München einlegen. Es ist zu erwarten, dass der Fall letztlich beim Bundesgerichtshof oder sogar beim Europäischen Gerichtshof landet.
Die Grundsatzfrage lautet: Wie weit reicht das Urheberrecht im Zeitalter von Künstlicher Intelligenz? Diese Entscheidung aus München wird ein wichtiger Baustein in der zukünftigen Rechtsprechung – und könnte europaweit Maßstäbe setzen.
Fazit der Redaktion
Das Urteil des Landgerichts München I ist ein Meilenstein: Zum ersten Mal wurde klargestellt, dass KI-Modelle urheberrechtlich relevante Vervielfältigungen erzeugen können, wenn sie geschützte Inhalte memorisieren und wiedergeben.
Für die Betreiber von KI-Systemen bedeutet das: Lizenzen werden Pflicht, Transparenz unabdingbar.
Für Urheber bedeutet es: Ein Stück Gerechtigkeit – und die Anerkennung, dass kreative Leistung auch im Zeitalter der künstlichen Intelligenz geschützt bleibt.
Kommentar hinterlassen