
Berlin Interview: Warum Hassreden schneller aus dem Netz verschwinden können
Hassreden, Morddrohungen – rechtswidrige Inhalte häufen sich im Netz. Die Berliner Organisation "Hate Aid" kann Strafbestände direkt an die Plattformen melden - mit Vorrang bei der Bearbeitung. Geschäftsführerin Anna-Lena von Hodenberg erklärt, was das verändert.
rbb: Frau von Hodenberg, Ihre Organisation "Hate Aid" ist seit dem 2. Juni von der Bundesnetzagentur als "Trusted Flagger" anerkannt. Was ist das genau?
Anna-Lena von Hodenberg: Ein Trusted Flagger ist eine von der Bundesnetzagentur zertifizierte Organisation, die strafbare Inhalte auf Plattformen meldet. Die Plattformen müssen diese Meldungen vorrangig prüfen und gegebenenfalls die Inhalte entfernen – oder auch nicht, wenn sie sie nicht als strafbar einstufen.
Nun setzt sich "Hate Aid" schon länger für Menschenrechte im digitalen Raum ein. Was verändert sich für Ihre Arbeit?
Wir freuen uns sehr über die Zertifizierung, denn wir sehen seit Jahren, dass strafbare Inhalte wie Morddrohungen, Holocaustleugnungen oder Vergewaltigungsandrohungen oft lange online bleiben. Social-Media-Plattformen sind nicht verpflichtet, diese Inhalte aktiv zu suchen und zu entfernen. Sie handeln erst nach einer Meldung – und selbst dann oft willkürlich. Als Trusted Flagger werden unsere Meldungen jetzt prioritär behandelt. Das erhöht die Chance, dass solche Inhalte schneller verschwinden. Für Betroffene ist das ein wichtiges Signal, dass sie sich im Internet sicher fühlen, nicht alleine gelassen werden.

Das heißt, Sie treffen eine juristische Vorauswahl, aber die Plattform entscheidet?
Genau. Wir prüfen Inhalte mit juristischer Expertise und melden nur, was wir für strafbar halten. Viele Inhalte werden uns auch von Betroffenen gemeldet. Die Plattformen entscheiden dann über die Entfernung. Wichtig ist: Unsere Meldungen werden jetzt bevorzugt bearbeitet, und wir können nachvollziehen, wie Plattformen darauf reagieren. Diese Ergebnisse dokumentieren wir in einem Tätigkeits- oder Transparenzbericht.
Welche Inhalte kann "Hate Aid" als "Trusted Flagger" melden?
Unsere Zuständigkeit liegt bei digitaler Gewalt, Betrug und Täuschung – speziell auf Social-Media-Plattformen. Andere Trusted Flagger decken andere Bereiche ab, etwa Produktfälschungen.

Wie war die Situation bisher? Haben Meldungen von Nutzer:innen überhaupt etwas bewirkt?
Die Zahl strafbarer Inhalte ist massiv gestiegen – laut Bundeskriminalamt um 34 Prozent bei politisch motivierten Straftaten im Internet. Inhalte wie Hakenkreuze, Holocaustleugnungen oder Morddrohungen sind ein wachsendes Problem. Und die Plattformen sind nicht verpflichtet, diese Inhalte zu finden und zu entfernen, sondern sie reagieren oft erst auf Meldung, und das auch nicht immer zuverlässig. Wir versuchen mit unserer Arbeit gegenzusteuern – aber natürlich können wir diese Flut nicht allein eindämmen.
Also ein Tropfen auf den heißen Stein?
Leider ja. Wir sind ja keine Internetpolizei und wollen das auch nicht sein. Aber durch unsere juristische Expertise und die Priorisierung unserer Meldungen können wir Menschen, die im Internet Gewalt erfahren, dabei unterstützen, gezielter und wirksamer gegen strafbare Inhalte vorzugehen. Das hilft besonders den Betroffenen. Doch bei Trusted Flagger sitzen Jurist:innen mit einer Expertise. Wenn die dann auch noch von den Plattformen vorrangig behandelt werden, habe wir eine Chance, dass vor allem strafbare Inhalte schneller entfernt werden.

Wie hat sich das Verhalten der Social-Media-Plattformen in den letzten Jahren verändert?
Deutlich. Bei X (ehemals Twitter) etwa wurden nach der Übernahme durch Elon Musk rassistische und antisemitische Inhalte stark sichtbarer. Facebook hat Fact-Checking in den USA weitgehend eingestellt. Plattformen versuchen zunehmend, gesetzliche Vorgaben zu umgehen – etwa das Digitale-Dienste-Gesetz, das Standards für Kinderschutz oder faire Wahlen setzt. Diese Entwicklung beobachten wir mit großer Sorge. Menschenrechte müssen auch im Netz gelten.
Wie schnell reagieren Plattformen auf Ihre Meldungen?
Das variiert. Manchmal geht es schnell, manchmal dauert es lange. Aber vorher entschieden die Plattformen oft willkürlich, ob sie etwas löschen. Jetzt gibt es mit dem Digitale-Dienste-Gesetz klare Regeln: Inhalte müssen zügig geprüft werden. Wird ein Beitrag zu Unrecht gelöscht, kann die betroffene Person Einspruch einlegen. Damit gibt es auf beiden Seiten rechtliche Sicherheit – für Betroffene wie für die Plattformnutzer:innen.
Manche werfen Ihnen vor, Sie betrieben Zensur oder eine Art staatlich gesteuerte Denunziation. Was entgegnen Sie?
Solche Vorwürfe zielen darauf ab, geltendes Recht zu delegitimieren. Wer Hasspostings, Holocaustleugnung oder Hakenkreuze im Netz schützt, will die Rechte von Betroffenen untergraben. Und nicht nur von denen: Wir alle und vor allem auch unsere Kinder haben das Recht, nicht ständig Morddrohungen oder Volksverhetzungen ausgesetzt zu sein. Wir setzen geltendes Recht durch, indem wir strafbare Inhalte bei den Plattformen melden, um von digitaler Gewalt Betroffenen zu ihrem Recht zu verhelfen. Aber vor allem auch, um für die Schwächsten in dieser Gesellschaft, einen sicheren Raum zu schaffen.
In der analogen Welt würde niemand ein Hakenkreuz an einer Hauswand dulden. Warum also im digitalen Raum?
Vielen Dank für das Gespräch.
Das Interview führte Oda Tischewski.
Sendung: rbb24 Inforadio, 04.06.2025, 16:49 Uhr