Startseite Allgemeines Interview mit Rechtsanwalt Jens Reime: „Der DSA ist kein Papiertiger – Plattformen müssen illegale Inhalte effektiv meldbar machen“
Allgemeines

Interview mit Rechtsanwalt Jens Reime: „Der DSA ist kein Papiertiger – Plattformen müssen illegale Inhalte effektiv meldbar machen“

TheDigitalArtist (CC0), Pixabay
Teilen

Anlass:
Der Verbraucherzentrale Bundesverband (vzbv) hat am 2. März 2026 eine Untersuchung veröffentlicht, wonach zehn große Online-Plattformen gegen Vorgaben des Digital Services Act (DSA) verstoßen. Beanstandet werden insbesondere technische Hürden, Dark Patterns, Intransparenz und unzureichende Meldewege für illegale Inhalte.

Im Gespräch erläutert Rechtsanwalt Jens Reime, was diese Feststellungen rechtlich bedeuten – und welche Konsequenzen für Plattformen, Verbraucher:innen und Aufsichtsbehörden drohen.

Interview

Redaktion: Herr Rechtsanwalt Reime, der Verbraucherzentrale Bundesverband spricht von Verstößen gegen den Digital Services Act. Wie gravierend ist dieser Befund?

Rechtsanwalt Jens Reime:
Das ist rechtlich durchaus gravierend. Der Digital Services Act verpflichtet Online-Plattformen nicht nur abstrakt zu mehr Verantwortung, sondern enthält sehr konkrete Anforderungen an die Ausgestaltung von Melde- und Beschwerdeverfahren. Wenn Nutzerinnen und Nutzer illegale Inhalte faktisch nur unter erheblichem Aufwand melden können, wenn sie durch manipulative Benutzerführung abgeschreckt werden oder wenn Entscheidungen ausbleiben, dann liegt nicht nur ein Usability-Problem vor – dann steht ein möglicher Verstoß gegen unmittelbar geltendes EU-Recht im Raum.

Der DSA ist gerade dafür geschaffen worden, dass Plattformen nicht bloß formal ein Meldesystem „irgendwo“ vorhalten, sondern dass dieses leicht zugänglich, transparent und wirksam ist.

Redaktion: Was genau verlangt der DSA von Plattformen beim Melden illegaler Inhalte?

Rechtsanwalt Jens Reime:
Im Kern verlangt der DSA, dass Plattformen leicht zugängliche und benutzerfreundliche Meldeverfahren bereitstellen. Nutzer:innen sollen illegale Inhalte ohne unnötige Hürden melden können. Dazu gehört insbesondere:

  • einfache Auffindbarkeit des Meldewegs,
  • klare und verständliche Formulare,
  • keine überflüssigen Klickstrecken,
  • keine unnötige Datenerhebung,
  • eine Bestätigung des Eingangs,
  • eine nachvollziehbare Entscheidung über die Meldung,
  • und eine zeitnahe Bearbeitung.

Rechtlich entscheidend ist: Ein System genügt nicht schon deshalb den Anforderungen, weil es technisch existiert. Wenn es in der Praxis abschreckt, verwirrt oder systematisch verzögert, kann das gegen Sinn und Zweck des DSA verstoßen.

Redaktion: Der Verbraucherzentrale Bundesverband spricht ausdrücklich von „Dark Patterns“. Warum ist das juristisch relevant?

Rechtsanwalt Jens Reime:
Dark Patterns sind manipulative Design- oder Interface-Elemente, die Nutzer:innen zu bestimmten Entscheidungen lenken oder sie von bestimmten Handlungen abhalten sollen. Im Zusammenhang mit Meldesystemen bedeutet das etwa:

  • der Meldebutton ist versteckt,
  • die Abbruchoption ist auffälliger als die Meldung,
  • Auswahlmenüs sind unnötig kompliziert,
  • Nutzer:innen werden in Sackgassen geführt,
  • oder es werden psychologisch abschreckende Hinweise eingeblendet.

Das ist juristisch relevant, weil der DSA nicht nur auf formale Compliance abstellt, sondern auch auf fair gestaltete, zugängliche und nicht-manipulative Prozesse. Ein Meldeweg, der zwar vorhanden ist, aber bewusst erschwert wird, kann dem DSA widersprechen. In Kombination mit verbraucherschutzrechtlichen Vorschriften kann das sogar über den DSA hinaus rechtlich problematisch sein.

Redaktion: Heißt das: Plattformen könnten sich nicht damit herausreden, dass ja „irgendeine“ Meldemöglichkeit vorhanden ist?

Rechtsanwalt Jens Reime:
Ganz genau. Das ist ein zentraler Punkt. Ein rein formales Vorhandensein genügt nicht. Die europäische Regulierung will effektive Durchsetzbarkeit, nicht bloß einen Feigenblatt-Button im Footer.

Wenn ein durchschnittlicher Nutzer – oder ein minderjähriger Nutzer – einen illegalen Inhalt nur mit Mühe, nach mehreren Umwegen oder unter Preisgabe unnötiger personenbezogener Daten melden kann, dann ist die Funktionalität des Systems aus rechtlicher Sicht zweifelhaft. Das ist im Ergebnis ähnlich wie bei Verbraucherinformationen: Eine Information, die irgendwo versteckt ist oder missverständlich präsentiert wird, erfüllt oft nicht die gesetzlichen Anforderungen.

Redaktion: In der Untersuchung geht es unter anderem um Werbung für Fakeshops oder nicht zugelassene Nahrungsergänzungsmittel. Warum ist gerade das so relevant?

Rechtsanwalt Jens Reime:
Weil wir hier über konkrete Verbraucher- und Gesundheitsrisiken sprechen. Werbung für Fakeshops kann zu unmittelbaren Vermögensschäden führen. Nicht zugelassene Nahrungsergänzungsmittel oder andere gesundheitsbezogene Produkte können sogar erhebliche Risiken für Leib und Leben mit sich bringen.

Der DSA ist deshalb kein bloßes Technikrecht, sondern in seiner praktischen Wirkung ein Schutzgesetz für Verbraucher:innen im digitalen Raum. Je schneller illegale Inhalte erkannt, gemeldet und entfernt werden, desto geringer ist das Risiko, dass sich Betrugsmodelle oder gefährliche Angebote massenhaft verbreiten.

Redaktion: Besonders kritisch bewertet der vzbv, dass sich Meldewege für Minderjährige nicht von denen für Erwachsene unterscheiden. Ist das wirklich ein Rechtsproblem?

Rechtsanwalt Jens Reime:
Ja, das ist jedenfalls ein ernstzunehmendes Rechts- und Compliance-Problem. Der DSA und die dazugehörigen europäischen Leitlinien stellen den Schutz Minderjähriger ausdrücklich in den Vordergrund. Plattformen müssen Risiken für Kinder und Jugendliche besonders berücksichtigen.

Wenn Meldewege für Minderjährige genauso komplex, überladen oder intransparent sind wie für Erwachsene, spricht viel dafür, dass das Anforderungen an altersgerechtes Design nicht genügt. Kinder und Jugendliche benötigen niedrigschwellige, verständliche und sichere Möglichkeiten, problematische oder illegale Inhalte zu melden – gerade bei Themen wie Betrug, sexualisierten Inhalten, gefährlichen Challenges oder manipulativer Werbung.

Juristisch betrachtet geht es hier nicht nur um Bedienkomfort, sondern um besonderen Schutzbedarf, den Plattformen aktiv berücksichtigen müssen.

Redaktion: Welche Konsequenzen drohen den Plattformen, wenn sich diese Verstöße bestätigen?

Rechtsanwalt Jens Reime:
Zunächst drohen aufsichtsrechtliche Maßnahmen. Die zuständigen Behörden können Plattformen zur Nachbesserung verpflichten. Bei systematischen oder schwerwiegenden Verstößen kommen auch Bußgelder in Betracht.

Darüber hinaus gibt es drei weitere Ebenen:

  1. Reputationsschäden:
    Öffentliche Untersuchungen durch Verbraucherverbände können erheblichen Druck erzeugen.
  2. Abmahn- und Verbandsklagerisiken:
    Verbraucherverbände und qualifizierte Einrichtungen können – je nach Sachverhalt – zusätzlich auf Unterlassung drängen.
  3. Haftungs- und Eskalationsrisiken:
    Wenn rechtswidrige Inhalte trotz problematischer Meldeverfahren länger online bleiben und dadurch Schäden entstehen, steigt das Risiko weiterer rechtlicher Auseinandersetzungen.

Für sehr große Plattformen ist besonders wichtig: Die Behörden betrachten nicht nur Einzelfehler, sondern auch strukturelle Risiken und systemische Defizite.

Redaktion: Können Verbraucher:innen aus solchen Verstößen unmittelbar eigene Rechte ableiten?

Rechtsanwalt Jens Reime:
In der Praxis oft nur eingeschränkt unmittelbar, aber mittelbar sehr wohl. Verbraucher:innen können sich auf bessere Transparenz, Beschwerdemöglichkeiten und nachvollziehbare Entscheidungen berufen. Vor allem aber stärkt der DSA ihre Position gegenüber Plattformen erheblich.

Wichtig ist: Der DSA schafft einen regulatorischen Rahmen, in dem Plattformen sich nicht mehr darauf zurückziehen können, bloß neutrale technische Vermittler zu sein. Für einzelne Nutzer:innen kann das bedeuten:

  • bessere Chancen, illegale Inhalte erfolgreich zu melden,
  • mehr Dokumentation und Nachvollziehbarkeit,
  • bessere Beschwerdemöglichkeiten gegen Entscheidungen oder Untätigkeit,
  • und mehr Druck auf Plattformen, zeitnah zu reagieren.

Redaktion: Welche Rolle spielen die Aufsichtsbehörden jetzt konkret?

Rechtsanwalt Jens Reime:
Eine ganz entscheidende. Der DSA entfaltet nur dann seine Wirkung, wenn er konsequent überwacht und durchgesetzt wird. Genau das fordert der Verbraucherzentrale Bundesverband zu Recht.

Die Behörden müssen nicht nur auf Beschwerden reagieren, sondern auch proaktiv kontrollieren, ob Plattformen ihre Pflichten tatsächlich erfüllen. Dazu gehört insbesondere:

  • Prüfung der Melde- und Beschwerdeprozesse in der Praxis,
  • Testung aus Sicht unterschiedlicher Nutzergruppen,
  • Kontrolle der Datenerhebung,
  • Bewertung von Dark Patterns,
  • und – wenn nötig – Sanktionierung.

Gerade bei großen Plattformen reicht es nicht, bloß Richtlinien zu lesen. Entscheidend ist, wie die Systeme im Alltag funktionieren.

Redaktion: Was sollten Plattformen jetzt sofort ändern, um rechtlich auf der sicheren Seite zu sein?

Rechtsanwalt Jens Reime:
Aus anwaltlicher Sicht gibt es fünf Sofortmaßnahmen:

  1. Meldewege radikal vereinfachen
    Weniger Klicks, klare Sprache, keine unnötigen Auswahlkaskaden.
  2. Dark Patterns entfernen
    Keine manipulativen Designs, keine versteckten Optionen, keine abschreckenden Hürden.
  3. Datensparsamkeit umsetzen
    Nur wirklich erforderliche personenbezogene Daten abfragen.
  4. Verfahrenssicherheit herstellen
    Eingangsbestätigung, Bearbeitungsstatus, nachvollziehbare Entscheidung, zeitnahe Rückmeldung.
  5. Kindgerechte Meldewege schaffen
    Speziell für Minderjährige leicht verständliche, sichere und niedrigschwellige Meldesysteme.

Wer das nicht tut, riskiert nicht nur Bußgelder, sondern auch den Eindruck, den DSA nur auf dem Papier umzusetzen.

Redaktion: Was ist Ihr Fazit zu der Untersuchung?

Rechtsanwalt Jens Reime:
Die Untersuchung zeigt sehr deutlich, dass zwischen gesetzlicher Pflicht und tatsächlicher Plattformpraxis noch eine erhebliche Lücke besteht. Der DSA ist kein Symbolgesetz, sondern verlangt echte, wirksame und faire Meldeverfahren.

Wenn Nutzer:innen illegale Inhalte nicht unkompliziert melden können, verliert das gesamte Schutzsystem an Wirkung. Gerade deshalb ist die Untersuchung so wichtig: Sie macht sichtbar, wo Plattformen bislang versagen – und sie erhöht den Druck auf Unternehmen und Behörden, den DSA endlich konsequent umzusetzen.

Mein Fazit lautet daher:
Plattformen müssen ihre Meldewege nicht nur anbieten, sondern so gestalten, dass sie tatsächlich funktionieren – für Erwachsene ebenso wie für Kinder und Jugendliche.

Kurzfazit für die redaktionelle Einordnung

Rechtsanwalt Jens Reime ordnet die Untersuchung des Verbraucherzentrale Bundesverbands als rechtlich bedeutsam ein:
Wenn Plattformen illegale Inhalte nur schwer meldbar machen, können sie gegen den Digital Services Act (DSA) verstoßen. Besonders problematisch sind laut Reime Dark Patterns, unnötige Datenerhebung, fehlende Transparenz und nicht altersgerechte Meldewege für Minderjährige. Die Folge können aufsichtsrechtliche Maßnahmen, Bußgelder und weiterer regulatorischer Druck sein.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Christian Ulmen: Das neue Hassobjekt – das Urteil haben längst die Medien gesprochen

Ob berechtigt oder unberechtigt – diese Frage scheint im Fall Christian Ulmen...

Allgemeines

OVG NRW: Gleitschirmflieger scheitern mit Eilantrag gegen Windkraftanlage

Ein Drachen- und Gleitschirmfliegerverein aus dem Hochsauerlandkreis ist mit seinem Eilantrag gegen...

Allgemeines

BVerwG: Private Krankenversicherer dürfen Diagnosedaten ohne Einwilligung nicht für Vorsorgeangebote auswerten

Private Krankenversicherungen dürfen die von Versicherten eingereichten Rechnungen nicht ohne deren ausdrückliche...

Allgemeines

BVerwG: Umweltrechtsbehelfsgesetz greift nicht bei Wohnnutzung neben lärmintensivem Betrieb

Das Bundesverwaltungsgericht hat entschieden, dass § 1 Abs. 1 Satz 1 Nr....