Vier Jahre NetzDG: Ein Effekt ist kaum erkennbar

Joachim von Gottberg im Gespräch mit Marc Liesching

Dr. Marc Liesching, Professor für Medienrecht und Medientheorie an der Fakultät Informatik und Medien der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK).

Der Deutsche Richterbund hat die EU aufgefordert, gegen den Messengerdienst Telegram aktiv zu werden. Bundesgeschäftsführer Sven Rebehn kritisierte gegenüber den Zeitungen der Funke Mediengruppe, dass Telegram sich weigere, die Kommunikation radikalisierter Coronaleugner und Impfgegner zu löschen. Das Problem: Der Dienst hat seinen Sitz angeblich in Dubai – und dort sind Verstöße gegen das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) bisher kaum zu ahnden. Facebook, Twitter und Google haben dagegen eigene Kontrollmechanismen eingezogen. Dr. Marc Liesching, Professor für Medienrecht und Medientheorie an der Fakultät Informatik und Medien der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK), hat zur praktischen Anwendung des Gesetzes eine Untersuchung durchgeführt. tv diskurs sprach mit ihm.

Printausgabe tv diskurs: 26. Jg., 1/2022 (Ausgabe 99), S. 66-71

Vollständiger Beitrag als:


Mit welchen Zielen hat man 2017 das NetzDG auf den Weg gebracht?

Das Bundesjustizministerium war der Meinung, dass die sozialen Netzwerke strafbare Inhalte nicht schnell genug gelöscht haben. Das Gesetz sollte sicherstellen, dass die Inhalte einfach gemeldet werden können – und von dem sozialen Netzwerk überprüft und dann entsprechend zügig entfernt werden. Die Fristen sind sieben Tage, und wenn etwas offensichtlich strafrechtswidrig ist, muss es innerhalb von 24 Stunden gelöscht werden. Bei Verstößen drohen Bußgelder bis zu 50 Mio. Euro.

Nun haben wir unterschiedliche Angebote von sozialen Netzwerken, wie ist es aber mit den sogenannten Messengerdiensten, also WhatsApp oder Telegram? Gehören die auch dazu?

Zunächst war die Idee, dass man die klassischen Messengerdienste heraushält. Die sozialen Netzwerke wurden definiert als Plattformen, in denen Inhalte einer großen Öffentlichkeit zugänglich gemacht werden, während die Messengerdienste eher als Individualkommunikation eingestuft wurden. Seit der Verabschiedung des Gesetzes haben sich aber nun Dienste wie Telegram entwickelt, die zwar Individualkommunikation betreiben, aber auch als soziale Netzwerke benutzt werden. Und aktuell gibt es eine Diskussion darüber, ob und wie man auch gegenüber solchen „hybriden“ Diensten das Gesetz anwenden kann oder soll.

Muss man hier das Gesetz vielleicht nachbessern?

Das könnte man klarstellen. Allerdings bietet Telegram beispielsweise Angebote für Gruppen bis zu 200.000 Menschen an, und das ist dann kein ausschließlicher Messengerdienst mehr. Das Bundesamt für Justiz geht ja ohnehin schon davon aus, dass auf Telegram mit diesen großen sozialen Gruppen das NetzDG Anwendung findet.

Ist dieses Bußgeld von 50 Mio. Euro schon jemals eingefordert und durchgesetzt worden?

Bisher hat das Bundesamt für Justiz noch kein Bußgeld in dieser Höhe erlassen. Es gab einmal ein Bußgeld gegen Facebook wegen Missachtung der Berichts- und Transparenzpflichten von 2 Mio. Euro. Vom neuen Justizminister Marco Buschmann gab es Bemerkungen, dass es auch Bußgeldbescheide gegen Telegram geben würde. Man muss diese aber erst einmal zustellen und auch im Vollzug durchsetzen, was nicht ganz einfach ist, weil Telegram seinen Sitz vorgeblich in Dubai hat. Da wird es wahrscheinlich kein entsprechendes Rechtshilfeverfahren geben. Abgesehen hiervon gibt es meines Wissens bisher noch kein Bußgeld wegen Missachtung von Lösch- bzw. Compliance-Regeln, vor allem nicht gegen die großen Anbieter Facebook, YouTube und Twitter.
 


Die Community-Standards sind tendenziell sehr weit gefasst, sie decken so viel ab, dass danach für das NetzDG gar nichts mehr übrig bleibt.



Was wird von den Unternehmen verlangt, wenn es darum geht, rechtswidrige Inhalte auf ihren Plattformen zu identifizieren?

Das NetzDG ist hier sehr rigide und sagt, wenn die Unternehmen die Prüfpflichten nicht innerhalb einer bestimmten Frist umsetzen, drohen die Bußgelder. Man kann sich darüber wundern, dass die großen Player sich darauf eingelassen haben, sie hätten sich auch darauf zurückziehen können, dass sie ja gar nicht in Deutschland ansässig sind, sondern beispielsweise ihren Europasitz in Dublin haben. Aber sie haben eine andere Art von Ausweichbewegung vollzogen, welche das NetzDG letztlich auch zum Großteil ins Leere laufen lässt: Sie prüfen alles nach ihren eigenen Community-Standards und Geschäftsbedingungen. Sie regeln, was erlaubt ist und was nicht, und danach handeln sie, ehe sie nach dem NetzDG überprüft werden können. Und diese Community-Standards sind tendenziell sehr weit gefasst, sie decken also so viel ab, dass danach für das NetzDG gar nichts mehr übrig bleibt. Unsere Studie, die wir im letzten Jahr durchgeführt haben, zeigt, dass in einem halben Jahr zig Millionen Inhalte wegen Verstoßes gegen die eigenen Regeln gelöscht wurden – nach dem NetzDG wurden beispielsweise wegen Volksverhetzung noch nicht einmal 50 Inhalte gelöscht. Man stellt also eine zivilrechtliche AGB-Prüfung voran. So wird das NetzDG zwar grundsätzlich beachtet, faktisch wird ihm aber kaum ein direkter Anwendungsbereich überlassen.

Kann das vielleicht auch daran liegen, dass manche Tatbestände, wie beispielsweise das Verbot von Hakenkreuzen, in den Herkunftsländern der Anbieter keine so große Rolle spielen?

Die großen sozialen Netzwerke sperren auch Hakenkreuze. Die Regeln der Netzwerke gehen viel weiter als das deutsche Strafgesetzbuch. Das wird ja allgemein unter dem Stichwort „Overblocking“ diskutiert. Dadurch müssen sie nicht für 220 Nationalstaaten unterschiedliche Regelungen beachten, sie formulieren in der Tendenz lieber relativ weite, allgemeine Regeln, mit denen sie dann global sicher agieren können.

Die Plattformbetreiber müssen ein Beschwerdesystem einrichten. Funktioniert das?

Die Meldewege funktionieren nach meiner Auffassung recht gut. Man kann darüber streiten, ob sie transparenter oder einfacher sein könnten: Einige hatten ein eigenes Meldeformular für die AGB-Inhalte und ein anderes Formular für NetzDG-Inhalte. Das wurde auch von der Politik bemängelt und hat schon zu Veränderungen z.B. bei Facebook geführt. Man kann bei YouTube beispielsweise direkt am Content eine Meldemöglichkeit wahrnehmen.

Um welche Inhalte geht es nach dem NetzDG?

Das Gesetz definiert verschiedene Straftatbestände, dazu gehört das, was wir z.T. als Hassrede bezeichnen, insbesondere das Aufrufen zu rechtswidrigen Taten, Volksverhetzung und Gewaltdarstellungen, es reicht aber auch bis hin zu Beleidigungen, aber eben auch Hakenkreuze und natürlich die Kinderpornografie sind von der Lösch-Compliance-Pflicht erfasst. Es geht um die extremen Jugendschutzbereiche, hingegen weniger um die 18er-Inhalte oder die einfache Pornografie. Für Letztere greifen unter Umständen andere neue Regelungen für Vorsorgemaßnahmen nach dem Jugendmedienschutz-Staatsvertrag (JMStV) und dem Jugendschutzgesetz (JuSchG).

Gibt es neben den Beschwerdemöglichkeiten auch eine interne Kontrolle durch den Anbieter?

Die Provider sind rechtlich nicht zu solchen proaktiven Maßnahmen verpflichtet. 2020 sind aber YouTube und Facebook zunehmend dazu übergegangen, auf der Basis von KI ihre Inhalte zu kontrollieren, bevor dazu überhaupt Beschwerden eingehen. Mittlerweile werden die meisten Inhalte aufgrund des eigenen Kontrollsystems gelöscht. Bei Facebook und YouTube werden etwa 90 % der problematischen Inhalte KI-basiert erkannt und gelöscht, bevor überhaupt eine Beschwerde eingeht. Das gräbt natürlich dem NetzDG, das ja beschwerdeorientiert ist, von vornherein etwas das Wasser ab.
 


Es besteht die Gefahr, dass vieles gelöscht wird, was eigentlich noch von der Meinungsfreiheit gedeckt ist.



Das könnte man auch positiv interpretieren: Das NetzDG bringt die Anbieter dazu, freiwillig Inhalte zu kontrollieren und zu entfernen, die vorher im Netz geblieben wären.

Ja, so könnte man das sehen, das NetzDG hat zwar keinen eigenen Anwendungsbereich, aber es erzeugt eine intrinsische Motivation, Strukturen zu entwickeln, die im Zweifel dazu führen, eher mehr als weniger zu löschen. Allerdings muss man das Problem des Overblockings sehen, das mit dieser hohen Form der Selbstregulierung zusammenhängt. Es besteht die Gefahr, dass vieles gelöscht wird, was eigentlich noch von der Meinungsfreiheit gedeckt ist. Wir müssen im gesellschaftlichen Diskurs schon einiges aushalten, und aus dem Overblocking könnte sich eine restriktive Regulierung entwickeln.

Aus Angst vor Bußgeldern könnte also einer der Grundsätze unserer Demokratie, „Im Zweifel für die Freiheit“, außer Kraft gesetzt werden?

Mit unserer Studie im letzten Jahr haben wir das NetzDG evaluiert, und da hat vieles darauf hingedeutet, dass es diese Löschpolitik, die im Zweifelsfalle lieber entfernt, tatsächlich gibt. Google hat ganz klar geäußert, dass man im Zweifelsfall lieber löscht. Man kann ja innerhalb von 24 Stunden eine Äußerung nicht besonders tief daraufhin prüfen, ob sie erlaubt ist oder nicht, und so nimmt man sie lieber heraus. Wie schwer es ist, so etwas zu prüfen, zeigt beispielsweise das Tucholsky-Zitat „Soldaten sind Mörder“. Hier war sich auch das Bundesverfassungsgericht in letzter Instanz nicht darüber einig, ob das nun strafbar ist oder nicht. Das zeigt, wie schwer es für die Prüfer ist, hier innerhalb von kürzester Zeit eine seriöse Entscheidung zu treffen. Und was macht man mit den Fällen, die auch nach sieben Tagen noch nicht klar entschieden werden können? Da ist natürlich eine Bußgelddrohung von 50 Mio. Euro schon ein Motiv, solche Äußerungen vorsichtshalber zu entfernen.

Ist es nicht eine Illusion, zu glauben, man könnte angesichts der Milliarden Inhalte tatsächlich seriös die Inhalte entdecken, die wirklich gesetzeswidrig sind?

Das ist natürlich eine Illusion angesichts dieses unermesslich großen Inhaltsumfangs. Nun gibt das NetzDG den Anbietern auch die Möglichkeit, eine Selbstkontrolle einzuschalten. Hier hat sich der Gesetzgeber im JMStV Anregungen geholt, und die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) ist ja auch als Selbstkontrolle im Rahmen des NetzDG anerkannt. Dort werden die einzelnen Fälle auch sorgfältig geprüft, aber das sind vielleicht 100 Fälle im Jahr, mehr schafft man kaum.1 Deshalb versucht man, sich hier mehr auf grundsätzliche Präzedenzfälle zu konzentrieren – aber auch das geht nicht annähernd flächendeckend. Die Unternehmen wissen, dass dies wohl mehr ein gesetzgeberisches Feigenblatt ist und dass man weder durch die Selbstkontrolle noch durch Einzelprüfer einen relevanten Teil der Fälle entscheiden kann. Deshalb kann man da nur KI-basiert herangehen.

Doch kann die KI nur das erkennen, worauf sie programmiert ist. Intelligente Urheber könnten eine hasserfüllte Botschaft leicht so formulieren, dass die KI sie nicht als solche erkennt.

Das müsste man mit den Unternehmen diskutieren. Wenn beispielsweise die KI mit dem Satz konfrontiert würde: „Soldaten sind Mörder“, müsste der Mensch sie schon sehr differenziert auf diesen Satz hin programmieren, damit sie dessen mehrdeutigen Sinn überhaupt erkennt. Die KI kann nur einfache Dinge wie Hakenkreuze oder bestimmte Begriffe wie „Heil Hitler“ erkennen, aber komplizierte Zusammenhänge kann sie wohl nicht wahrnehmen. Wenn beispielsweise jemand gegenüber einem Politiker die Äußerung trifft: „Der gehört standrechtlich erschossen!“ Dann ist das möglicherweise noch kein öffentliches Auffordern zu einer Straftat (§ 111 StGB), weil der notwendige appellative Charakter fraglich ist. Wenn man aber sagt: „Lass ihn uns standrechtlich erschießen!“ –, dann trifft dieser Tatbestand eher zu, denn es ist eine öffentliche Aufforderung zu einer Straftat. Das zeigt, wie facettenreich solche Beurteilungen sind. Wenn man jetzt versucht, die KI zu trainieren und intelligenter werden zu lassen, weiß man nicht, in welche Richtung sich das entwickelt, die Löschaktivitäten wären nicht mehr vorhersehbar. Umso diskutabler kann es angesehen werden, dass in den letzten zwei Jahren die Mehrzahl der Inhalte KI-basiert gelöscht wurde.
 


Eine wirklich vernünftige gesellschaftliche Debatte darüber, was eigentlich die Zielsetzung des Gesetzes war, hat sich nicht eingestellt.



Wenn wir die Zeit vor 2017, als das Gesetz geschaffen wurde, mit dem heutigen Zustand vergleichen: Hat sich da erkennbar etwas verändert?

Wenn sich die Politik auch heute noch über die rechtswidrigen Inhalte im Netz echauffiert, scheint sich dieser Zustand, dass soziale Netzwerke von Hass und despektierlichen Gemeinheiten geprägt sind, nicht verändert zu haben. Eine wirklich vernünftige gesellschaftliche Debatte darüber, was eigentlich die Zielsetzung des Gesetzes 2017 war, hat sich nicht eingestellt. Was die Löschaktivitäten angeht, hat uns ein bisschen überrascht, was in den Monitoringberichten, die vom Bundesamt für Justiz selbst in Auftrag gegeben worden sind, zu lesen war.

Es gab zur Begründung des NetzDG einen Monitoringbericht von jugendschutz.net, der zu dem Ergebnis kam, dass viele rechtswidrige Inhalte nach ihrer Meldung nicht gelöscht worden sind, insbesondere bei Twitter und Facebook gab es eine Löschquote von unter 50 % der entsprechenden Inhalte. Das Bundesamt hat dieses Monitoring selbst weitergeführt, nachdem das Gesetz schon in Kraft war, und die Löschquote überprüft. Allerdings wurden die Ergebnisse dieses Monitorings nicht veröffentlicht. Wir mussten über ein Verfahren nach dem Informationsfreiheitsgesetz das Bundesamt für Justiz erst motivieren, die Berichte an uns herauszugeben. Das Ergebnis weist darauf hin, dass die Löschaktivität von der Quote her gegenüber dem Status, bevor das NetzDG in Kraft getreten war, eher abgenommen hat. Das ist natürlich schwer zu vergleichen, weil das Monitoring vor dem NetzDG von einer anderen Stelle durchgeführt worden ist. Auch die Methoden sind nicht absolut vergleichbar. Trotzdem hat man bei beiden geschaut, welche Inhalte es gibt und ob sie bei rechtlicher Relevanz tatsächlich gelöscht wurden. Insofern kann man auch verstehen, dass die Bundesregierung bzw. das Bundesamt für Justiz kein Interesse daran hatte, diese Zahlen zu veröffentlichen, da sie nahelegen, dass das NetzDG nicht allzu viel gebracht hat. Markus Beckedahl hat dieses Monitoring auf seiner Website netzpolitik.org2 dann veröffentlicht. Insofern sind die Zweifel an der Effektivität dieses Gesetzes auch transparent. Natürlich ist es sehr schwer, eine Prognose darüber abzugeben, wie sich das Ganze ohne NetzDG entwickelt hätte. Möglicherweise wäre alles noch viel schlimmer geworden. Es könnte aber auch sein, es wäre alles genauso geworden, wenn es kein NetzDG gegeben hätte.

In dem Film The Cleaners wird gezeigt, unter welchen Bedingungen die Prüfer in den Netzwerken arbeiten müssen. Da stellt sich schon die Frage, ob die Einschränkung von Meinungsfreiheit solchen mehr oder weniger Laien überlassen werden sollte?

Das Ganze muss auch ökonomisch umsetzbar sein. Dabei kann natürlich schon manchmal der freie Gedanke zu kurz kommen. Allerdings erreicht der einzelne Beitrag nicht so viele Menschen wie beispielsweise eine Fernsehsendung. Es sind manchmal nur ein paar Personen, die etwas dann tatsächlich rezipieren. Insofern hat die Frage, ob hier etwas gelöscht wurde oder nicht, eine nicht ganz so große Bedeutung wie etwa ein Beitrag aus der Tagesschau um 20.00 Uhr. Wenn sich jemand zu Unrecht gelöscht fühlt, hat er ja auch die Möglichkeit, dagegen vorzugehen.

Verfassungsrechtlich ist das hinnehmbar, weil es der Anbieter selbstständig und freiwillig macht?

Ja, das ist noch hinnehmbar. Problematisch wäre es allerdings, wenn der Staat im Zweifelsfalle damit droht, relativ schnell sehr hohe Bußgelder zu erheben. Dann würde er einen so großen Druck aufbauen, dass systemisch das Overblocking naheliegt. In diesem Falle würde ich keine Prognose wagen, was das Bundesverfassungsgericht zum NetzDG sagen würde.

Nach dem NetzDG können auch Selbstkontrollen in die Prüfung einbezogen werden, aber die werden nicht, wie nach dem JMStV, von der Kommission für Jugendmedienschutz (KJM) anerkannt, sondern vom Bundesamt der Justiz.

Die Anerkennungsvoraussetzungen wurden weitgehend aus dem Jugendmedienschutz-Staatsvertrag übernommen. Über die Anerkennung selbst entscheidet das Bundesamt für Justiz. Da kann man natürlich daran zweifeln, ob hier die nötige Staatsferne gewährleistet ist. Bei der KJM stehen ja immerhin die einigermaßen pluralistisch besetzten Landesmedienanstalten dahinter. Die Anerkennung der FSM hat jedenfalls verhältnismäßig lange gedauert:3 Sie ist erst 2020 tatsächlich anerkannt worden – und ist die einzige anerkannte Selbstkontrolle nach dem NetzDG.4 Die Selbstkontrolleinrichtung wird vor allem dann eingeschaltet, wenn es sich um Fälle handelt, die nicht eindeutig rechtswidrig sind. Die international agierenden Unternehmen haben darüber hinaus auch andere Prüfinstanzen eingerichtet wie z. B. das sogenannte Oversight Board, das global an den eigenen Community-Standards ausgerichtet ist. Für die Selbstkontrollen nach dem NetzDG gibt es die Privilegierung wie im JMStV nicht. Die Konsultation der Selbstkontrolle führt lediglich dazu, dass der Zeitraum von sieben Tagen verlängert wird.

Wie ist der Erfolg des Gesetzes insgesamt zu bewerten? Hat es sich gelohnt oder ist es verbesserungswürdig?

Das NetzDG ist insofern wichtig gewesen, als es die Öffentlichkeit für die Problematik der sozialen Netzwerke sensibilisiert hat. Gleichzeitig hat es aber auch viele verfassungsrechtliche Fragen aufgeworfen, wie z.B. das Overblocking, die bis heute unbeantwortet geblieben sind. Hinzu kommen noch europarechtliche Fragen: Kann ein deutsches Gesetz abstrakt-generell alle sozialen Netzwerke mit Sitz in einem anderen EU-Mitgliedstaat zu entsprechenden Maßnahmen verpflichten? Die Fragen, die mit dem NetzDG zusammenhängen, sind größer als sein bisheriger Nutzen. Sicher hat es dazu beigetragen, dass die Anbieter inzwischen mehr Compliance-Regeln entwickelt haben. Was ich noch nie verstanden habe: Wenn aufgrund des NetzDG ein strafbarer Inhalt schnell gelöscht wird, ist er weg und man kann ihn nicht mehr strafrechtlich verfolgen. Das soll jetzt geändert werden, weil der Netzanbieter verpflichtet werden soll, strafbare Inhalte mit den Daten des Urhebers an die Strafverfolgungsbehörden zu melden. Damit werden die sozialen Netzwerke aber nach kritischen Stimmen auch zu Denunzianten für das Bundeskriminalamt. Das führt wahrscheinlich in Zukunft zu mehr Strafverfahren gegen die Poster. Letzteres wäre meines Erachtens statt der Einführung eines NetzDG der Königsweg gewesen: Man hätte die Staatsanwaltschaft von Beginn an stärker munitionieren sollen, Strafbefehle gegen Menschen zu initiieren, die sich volksverhetzend, hasserfüllt oder beleidigend äußern. Das passiert nach meiner Wahrnehmung seit dem Mordanschlag auf den Regierungspräsidenten Walter Lübcke wesentlich besser und wird auch in der Bevölkerung wahrscheinlich zunehmend eine Sichtbarkeit für die Grenzen schaffen, innerhalb derer man sich äußern darf.
 

Anmerkungen:

1) Vgl. Stenner, P.: NetzDG-Prüfinstanz. Nur 23 Mal im Einsatz. In: netzpolitik.org, 27.04.2021. Abrufbar unter: https://netzpolitik.org

2) Abrufbar unter: https://cdn.netzpolitik.org

3)Vgl. FSM: Selbstregulierung nach NetzDG. Pressemeldung. Berlin, 23.04.2021. Abrufbar unter: https://www.fsm.de

4) Der erste Tätigkeitsbericht der FSM ist abrufbar unter: https://www.fsm.de