Das Netzwerkdurchsetzungsgesetz (NetzDG) wird von vielen pauschal als allerbösartigstes Zensurinstrument abgelehnt. Diese riesige Aufregung, die teilweise vorherrscht, kann ich mir nur so erklären, dass zum einen viele Kritiker gar nicht wissen, was das Gesetz genau vorsieht und zum anderen, dass sowohl einige politischen Gegner der Koalitionsparteien (vor allem die am extremistischen Rand) als auch die betroffenen Konzerne eine Show machen und Desinformation betreiben – das Narrativ vom bösen Zensurminister verfängt bei einigen ziemlich gut.
Das NetzDG hat meines Erachtens durchaus einige Schwächen, viele Juristen haben problematische Teile identifiziert, und man kann natürlich die Frage stellen, ob es überhaupt nötig ist und Facebook und Co. nicht schon einfach so das Richtige machen. Die Vergangenheit hat aber gezeigt, dass dies eben nicht der Fall ist und insbesondere Facebook äußerst undurchsichtig und schwer nachvollziehbar agiert, teilweise harmlose Inhalte löscht und strafbare Inhalte weiter anzeigt.
Sieben Vorschläge
Und genau hier bietet ein NetzDG m.E. sogar die Chance, dass die Meinungsfreiheit und die Rechte der Nutzer (der marktbeherrschenden sozialen Netzwerke) gestärkt werden. Dazu wären aber ein paar Änderungen am Entwurf nötig:
- Meinungsfreiheit: Das von Plattformanbietern zu implementierende Verfahren muss die Meinungsfreiheit explizit beachten. Das bedeutet, dass die Meinungsfreiheit in die Bewertung des betreffenden Inhalts aufgenommen werden muss.
- Widerspruchsrecht: Der betroffene Autor, dessen Inhalt entfernt werden soll, muss ein Widerspruchsrecht haben.
- Eine weitergehende Möglichkeit könnte auch sein, dass er die Haftung explizit selbst übernimmt und den Plattformanbieter freistellt – im Gegenzug bleibt der betreffende Beitrag Online.
- Transparente Regeln: Die betreffenden Plattformen müssen nicht nur ihre „Community-Regeln“ veröffentlichen, sondern auch jegliche Regeln, Handbücher, Anweisungen und so weiter für die Mitarbeiter, die Beschwerden bearbeiten und evtl. Inhalte entfernen.
- Transparente Berichte: Die vom NetzDG geforderten Transparenzberichte sollten mehr Details enthalten müssen, u.a. auch mit welchen Methoden der Plattformanbieter die Meinungsfreiheit schützt, wie oft Nutzer einer Löschung widersprechen usw.
- Klasse statt Masse: Löschungen dürfen nicht nur deswegen durchgeführt werden, weil es viele Beschwerden gab.
- Belohnung: Kleine Plattformen, die sinnvolle und gute Verfahren implementieren, könnten mit einer erweiterten Haftungspriviligierung belohnt werden: keine Haftung für uneindeutig rechtswidrife Inhalte Dritter im Einzelfall, wenn ordentliches Verfahren dokumentiert und beispielsweise der Autor einer Löschung widersprochen hat.
- Offensichtlichkeit: Sinnvoll könnte auch sein, wenn sich die Löschforderungen des NetzDG vorerst auf die offensichtlich rechtswidrigen Inhalte beschränken würde.
Die Vorschläge würden den Aufwand für Plattformanbieter in Teilen durchaus nochmals erhöhen. Das gefällt denen und ihnen nahestehenden Personen/Verbänden natürlich nicht. Da dies aber sowieso nur für die ganz Großen wie Facebook, Twitter und Google (inkl. Youtube) gilt, hält sich mein Mitleid in Grenzen. Allerdings wäre wahrscheinlich auch noch eine Präzisierung im Gesetz sinnvoll, dass die Regelungen nicht nur für Plattformen ab 2 Millionen registrierten Nutzern verpflichtend sind, sondern auch nur für solche, die zudem für die öffentliche Meinungsbildung relevant sind.
Kleine Alternative
Eine mögliche weitere Alternative wäre, das Gesetz bis auf zwei Punkte ganz zu streichen: in §5 steht eine Regelung, die nicht nur ich für sehr sinnvoll ansehe, sondern auch sonst schon lange gefordert wurde: große Plattformanbieter müssen in Deutschland errechbare Ansprechpartner für Ermittlungsbehörden benennen, die bei entsprechenden strafrechtlichen Ermittlungen zügig Auskunft geben. Das in Kombination mit den sieben Punkten zur Verbesseung der Meinungsfreiheit von oben könnte ein Anfang sein, so dass man anschließend beobachten kann, ob sich die Situation bessert. Also: die eingangs erwähnten sieben Punkte, aber ohne die Verpflichtung ein Verfahren zur Löschung rechtswidriger Inhalte zu implementieren, weil davon auszugehen ist, dass dies sowieso geschieht.
Die politische Stimmung in der Koaltion schätze ich aber derzeit so ein, dass unbedingt das volle Programm durchgesetzt werden soll. Vielleicht kann sie sich aber dazu durchringen, das Gesetz auf offensichtlich rechtswidrige Inhalte zu beschränken.
Abgesehen davon bin ich der Ansicht, dass vor allem die strafrechtliche Verfolgung von strafbaren Inhalten forciert werden muss. Die Löschung ist eines, aber wenn nur gelöscht wird und die Täter nicht strafrechlich verfolgt werden, dann läuft auch was falsch.
Ein paar Details
Was gilt bisher, und was verlangt das NetzDG?
Bisher ist es im Wesentlichen so: ein Plattformanbieter – sei es Facebook oder der kleine Blogger mit Kommentarfunktion für die Nutzer – haftet für rechtswidrige fremde Inhalte erst nach Kenntnis. Aber dann haftet er für diesen fremden Inhalt genau so, als ob es ein eigener wäre. Wenn also hier in den Kommentaren jemand Bettina Beispiel beleidigt, hafte ich erst, wenn ich davon Kenntnis habe – zum Beispiel, wenn Bettina Beispiel sich bei mir meldet. Wenn der Inhalt dann stehen bleibt, hafte ich dafür wie für einen eigenen Inhalt. Das Problem: da die Rechtswidrigkeit oft nicht einfach erkennbar ist, aber empfindliche Strafen drohen, löschen viele Betreiber eher mehr als weniger. Warum sollten sie sich auch einem risikoreichen Verfahren stellen, nur um beispielsweise unflätige Aussagen ihrer Nutzer zu schützen?
Das ist geltende Gesetzeslage und Praxis!
Große ausländische Plattformanbieter sind da gegenüber inländischen kleinen Anbietern klar im Vorteil: genaue Verantwortlichkeit ist schwer zu fassen und so weiter, beim Strafrecht aber nötig. Das hat zur Folge, dass es Facebook wohl oftmals scheißegal ist, wenn ein Beitrag nach deutschem Recht strafbar, aber nach den Facebook-Community-Richtlinien noch erlaubt ist. Umgekehrt sind alle Plattformbetreiber bei (vermeintlichen) Urheberrechtsverletzungen rigoros: da drohen ihnen tatsächlich strafen, da sie da besser greifbar sind als im Strafrecht.
Das NetzDG verlangt nun, dass große (!) Plattformbetreiber – wahrscheinlich trifft es nur Facebook, Google inkl. YouTube und Twitter – ein Verfahren etablieren müssen, das Beschwerden der Nutzer über rechtswidrige Inhalte entgegen nimmt und solche Inhalte entfernt, die diverse, explizit genannte Straftatbestände erfüllen. Dazu gehört u.a. Volksverhetzung, die Bedrohnung oder Verleumdung anderer Menschen und die öffentliche Aufforderung zu Straftaten. Kann man ernsthaft etwas dagegen haben? Dann sollte man sich dafür einsetzen, dass diese Straftatbestände abgeschafft werden.
Prinzipiell finde ich nun den Lösungsansatz vom NetzDG ganz charmant: es werden keine Fehler im Einzelfall bestraft, sondern das Fehlen eines funktionierenden Verfahrens. Sprich: lässt ein Plattformbetreiber mal einen Text stehen, der sich später als rechtswidrig herausstellt, hat er dadurch keine Nachteile. Er hat nur ein Problem, wenn er kein funktionierendes Verfahren hat, das Beschwerden der Nutzer annimmt und sinnvoll bearbeitet. Und genau hier fehlt mir aber ein wichtiger Aspekt: der Plattformbetreiber sollte auch ein Problem bekommen, wenn sein Verfahren prinzipbedingt zu viel löscht und er nicht vollumfänglich transparent handelt.
Meinungsfreiheit stärken!
Denn jeder kennt wahrscheinlich eine der Geschichten, nach denen Facebook Beiträge oder Nutzer löscht bzw. sperrt, obwohl es nur um eine evtl. pointierte Meinungsäußerung geht. Oder weil jemand einen Beitrag mit Nazi-Inhalt zitiert und kommentiert – aber dann wegen eben diesem gesperrt wird. Ein funktionierendes Widerspruchsverfahren und die Einbeziehung der Meinungsfreiheit bei der Bewertung könnte dieses Problem deutlich verringern.
Eine solche Regelung würde zwar Facebook und Co wie gesagt deutlich mehr Arbeit machen. Da es sich dabei aber um große, viel Geld verdienende Plattformen handelt, die in der Zwischenzeit sehr relevant für die öffentliche Meinungsbildung sind, halte ich eine entsprechende Regulierung für vertretbar. Und es würde unter dem Strich die Meinungsfreiheit gestärkt werden. Dazu muss man sich allerdings von dem Narrativ „der Heiko Maas ist Zensurminister und der schlimmste Minister aller Zeiten“ befreien – und das wiederum will ja auch nicht jeder.
Nicht vergessen sollten wir aber auch, dass es viele Hassbeiträge gibt, die eben nicht strafbar sind. Auch viele Lügen oder „Fake-News“ sind nicht strafbar. Mit Löschen kommt man da nicht weit – und insbesondere Facebook hat überhaupt kein Interesse, solche Beiträge weniger prominent darzustellen, denn schließlich leben sie von möglichst vielen Interaktionen. Je kontroverser ein Beitrag, desto mehr Interaktionen!
Und natürlich kann man in Frage stellen, ob Beiträge wie „Bettina Beispiel muss öffentlich gesteinigt werden“ oder die Holocaust-Leugnung strafbar sein sollen. Ich denke, dass diese aus gutem Grund strafbar sind – aber wer will, dass dies nicht strafbar ist, der soll das aben auch laut sagen.
Julia Seeliger
Top Idee! Die Auswirkungen wären wohl sehr interessant. Gibt es Chancen, dass sowas noch nachgebessert wird?
Alvar Freude hat auf den Kommentar von Julia Seeliger geantwortet
Ich vermute, dass das aufgrund diverser Komplikationen (wie genau müssten die gesetzlichen Anforderungen sein?) eher nicht kommt; vielleicht, mittel/langfristig.
XSized
Ich habe tatsächlich ein massives Problem mit "offensichtlich rechtswidrigen Inhalte", den oft genug ist es eben nicht offensichtlich, auch wenn viele das glauben/meinen. Ich erinnere an "Soldaten sind Mörder", Böhmermanns Schmähgedicht, "Köterrasse" oder auch an "Nazischlampe". Derartige Beispiele ließen sich noch viel mehr finden.
"Offensichtlich rechtswidrig" kann eine Aussage nur dann sein, wenn sie von einem Gericht als solche bestätigt wurde. Alles andere ist "vermutlich" oder "möglicherweise rechtswidrig".
Selbstverständlich gibt es (leider) immer wieder Kommentare und Posts, die definitiv rechtswidrig sind und somit zu entfernen. Aber welches der oben genannten Beispiele war denn wirklich eindeutig? Es ist davon auszugehen, dass angesichts der Androhung von Geldstrafen in großer Höhe im Zweifel gelöscht wird. Obige Beispiele würden also verschwinden, auch wenn sie laut Gerichten eben nicht rechtswidrig waren. Nur "möglicherweise"...
Ich verstehe das Anliegen des Gesetzes. Ich finde das Anliegen im Grundsatz auch nicht verkehrt. Ich finde allerdings die Umsetzung mehr als fragwürdig.
Alvar Freude hat auf den Kommentar von XSized geantwortet
Offensichtlich ist etwas, wenn man dem nun überhaupt nicht widersprechen kann. Böhmermanns Schmähgedicht ist – im kompletten Kontext! – auf jeden Fall nicht offensichtlich rechtswidrig, ebenso die Nazischlampe; „Soldat en sind Mörder“ ist offensichtlich nicht rechtswidrig.
Genau um dieses Problem zu adressieren, habe ich ja auch ein paar Vorschläge gemacht. Sollte bei Gelegenheit das vielleicht noch mal genauer ausführen …
XSized
Ich stimme Dir im Großen und Ganzen tatsächlich zu. Für mich ist die Problematik dabei, wer über die Offensichtlichkeit in Zukunft entscheiden soll/wird. Support-Mitarbeiter? Anwälte? Derjenige, der den Beitrag meldet?
Facebook hat ein Verfahren, Beiträge zu melden. Und es entscheiden irgendwelche Mitarbeiter darüber, ob man es löscht oder nicht. Was hier fehlt ist Transparenz und ein vernünftiges Widerspruchsverfahren. Aber darüber, ob etwas "offensichtlich rechtswidrig" ist oder nicht, sollten sie nicht entscheiden dürfen.
Alvar Freude hat auf den Kommentar von XSized geantwortet
Das Problem ist ja, dass die Facebook-Mitarbeiter bzw. die externen Beauftragten schon heute entsprechend entscheiden. Das geht ja auch gar nicht anders, wie soll es sonst laufen? Natürlich müssen die entscheiden, ob etwas nach den „Gemeinschaftsregeln“ erlaubt sein soll oder nicht. DAs kann Facebook ja auch nicht auf Gerichte auslagern.
Aber um die Fehler zu reduzieren, kann man eben entsprechende Widerspruchsmöglichkeiten implementieren.
XSized hat auf den Kommentar von Alvar Freude geantwortet
Korrekt. Aber unter der Prämisse "Wenn Du offensichtlich rechtswidrige Komentare nicht löschst, dann zahlst Du x Mio Euro" wird es kein vernünftiges Verfahren geben.
Die "Gemeinschaftsregeln" von Facebook sind sehr amerikanisch angelegt, das wissen wir alle. Und danach sind weitaus mehr Bemerkungen, Kommentare und Beiträge legitim, als es nach unserem Rechtsverständnis und auch geltendem Recht wären. Und andere, für uns völlig unproblematische, sind danach vollkommen undenkbar. Aber hierbei handelt es sich um "Gemeinschaftsregeln", die erst mal vom Gesetzestext nur geringfügig beeinflusst sind. Wenn es aber darum geht, dass eindeutig Volksverhetzungen, Beleidigungen, unwahre Tatsachenbehauptungen oder dergleichen identifiziert werden sollen, dann kann und darf so etwas nicht in private Hände gelegt werden. Und auch nicht von beauftragten Stiftungen/Organisationen durchgeführt werden.
Ich persönlich würde ja ein vollkommen transparentes Verfahren begrüßen. Für mich hieße das zum Beispiel: Gemeldete Beiträge werden mit einer "Spoilerwarnung" versehen, bspw. "Achtung, dieser Beitrag wurde wegen [beliebige Begründung einfügen] gemeldet, möchtest Du ihn trotzdem sehen?" - nach einer ersten Sichtung durch den Support oder dergleichen, um Spaßmeldungen den Wind aus den Segeln zu nehmen. Derjenige, der den Beitrag online gestellt hat, hätte nun x Tage Zeit, sich dazu zu äußern, parallel dazu kann geprüft werden, ob eine mögliche strafrechtliche Relevanz besteht und der Beitrag dann entsprechend weiter gemeldet werden. Und so weiter. Das ist jetzt natürlich nicht zu Ende gedacht, sondern nur mal so dahin geschrieben.
Aktuell ist es aber so, dass man offensichtlich davon ausgeht, jeder gemeldete Beitrag ist tatsächlich strafrechtlich relevant. Das geht aus der "Studie" hervor, auf deren Basis eine Notwendigkeit für dieses Gesetz konstruiert wurde. Da werden mal eben 180 Beiträge als "strafrechtlich relevant" bewertet und anschließend festgestellt: Oh, Facebook löscht nur 39% der von uns gemeldeten Beiträge. Facebook böse, Facebook muss bestraft werden.
Ob die gemeldeten Beiträge aber tatsächlich strafrechtlich relevant waren kann niemand von uns beurteilen. Ich würde das nicht entscheiden wollen, selbst wenn ich die Inhalte kennen würde. Aber obwohl sie möglicherweise strafrechtlich relevant gewesen sein könnten, wurde keiner der bereits vorhandenen Wege (Strafanzeige bspw.) beschritten. Nein, man hat beschlossen, dass die Inhalte böse sind, also muss Facebook das zu 100% ganz genau so sehen ansonsten ist Facebook auch böse. Und das kann, das darf nicht sein. Gerade und vor allem dann nicht, wenn einige der bekannten Institutionen, die eine derartige Bewertung (Hatespeech bspw) öffentlich vornehmen, so willkürlich vorgehen, wie sie es derzeit massiv tun.