Redaktion: Herr Blazek, das Oberlandesgericht Frankfurt hat kürzlich entschieden, dass Plattformen nach einem Hinweis auf rechtswidrige Inhalte wie Deepfakes aktiv nach ähnlichen Beiträgen suchen müssen. Wie bewerten Sie dieses Urteil?
Daniel Blazek: Das Urteil ist ein starkes Signal an Plattformbetreiber. Es zeigt, dass die Gerichte bei schwerwiegenden Persönlichkeitsrechtsverletzungen, wie sie durch Deepfakes entstehen können, eine höhere Sorgfaltspflicht einfordern. Ein einmaliger Hinweis reicht aus – die Plattformen müssen anschließend selbst aktiv werden und nach ähnlichen Inhalten suchen.
Redaktion: Worum ging es im konkreten Fall?
Daniel Blazek: Ein prominenter Mann wurde in mehreren Deepfake-Videos fälschlicherweise als Werbefigur für Schlankheitsmittel dargestellt. Diese Videos nutzten Gesicht, Name und Stimme des Betroffenen ohne seine Zustimmung. Obwohl die Plattform nach der ersten anwaltlichen Abmahnung ein Video entfernte, blieb ein nahezu identisches zweites Video online. Daraufhin wandte sich der Betroffene erneut an das Gericht.
Redaktion: Warum entschied das OLG Frankfurt letztlich zugunsten des Klägers?
Daniel Blazek: Das Gericht stellte klar, dass Plattformen nicht nur auf einzelne Hinweise reagieren dürfen. Wenn ein konkreter rechtswidriger Inhalt gemeldet wurde, sind sie verpflichtet, aktiv nach weiteren sinngleichen oder nahezu identischen Inhalten zu suchen. Gerade bei Deepfakes, die sich nur minimal unterscheiden, wäre es unverhältnismäßig, für jede Variante eine neue Abmahnung zu fordern.
Redaktion: Ist das Urteil mit der aktuellen EU-Rechtslage vereinbar?
Daniel Blazek: Das ist ein kritischer Punkt. Laut EU-Recht besteht grundsätzlich keine generelle Überwachungspflicht für Host-Provider. Allerdings unterscheidet das OLG hier klar: Es geht nicht um eine umfassende Überwachung, sondern um eine gezielte Suche nach inhaltlich identischen Beiträgen, wenn bereits ein konkreter Rechtsverstoß gemeldet wurde. Das Gericht fordert also keine pauschale Überwachung, sondern eine Reaktion auf bekannte Missstände.
Redaktion: Welche Folgen hat dieses Urteil für Plattformbetreiber?
Daniel Blazek: Plattformen müssen technisch aufrüsten. Sie werden künftig nicht mehr nur auf individuelle Meldungen reagieren können, sondern proaktiv ähnliche Inhalte erkennen und sperren müssen. Das betrifft insbesondere Social-Media-Dienste und Videoportale, die häufig mit Deepfake-Inhalten konfrontiert sind. Technische Filter, die inhaltliche Übereinstimmungen erkennen, werden nun essenziell.
Redaktion: Was bedeutet das für Betroffene von Deepfake-Missbrauch?
Daniel Blazek: Für Betroffene ist das Urteil ein wichtiger Schritt. Es erleichtert ihnen den Kampf gegen Deepfakes, da sie nicht mehr gegen jedes ähnliche Video einzeln vorgehen müssen. Das spart Zeit und Kosten und schützt die Persönlichkeitsrechte effektiver.
Redaktion: Herr Blazek, vielen Dank für das Gespräch!
Kommentar hinterlassen