Seit einigen Wochen ist nun das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft, und wie zu erwarten reisst die Kritik nicht ab. Einige Kritik besteht zu recht, manch andere nicht. Wer auch immer die neue Regierung stellen wird und welche Mehrheit sich im Bundestag auch immer finden wird: Meines Erachtens dürfte eine der wichtigsten netzpolitischen Aufgaben sein, hier zu einem besseren Ergebnis zu kommen.
Aber eigentlich sitzt das Problem viel tiefer, nämlich in den Haftungsregelungen aus § 10 Telemediengesetz (TMG). Dies ist ein altes Problem: Plattformbetreiber sind für die Inhalte ihrer Nutzer ohne Kenntnis nicht verantwortlich – wenn sie aber Kenntnis haben, haften sie für die fremden Rechtsverletzungen voll. Dies hat zur Folge, dass vor allem inländische Plattformbetreiber relativ schnell Inhalte löschen, die ihnen Ärger einbringen könnten. Es ist also schon seit vielen Jahren Standard, was am NetzDG nun lauthals kritisiert wird.
Das NetzDG bietet die Chance, in der Hinsicht Verbesserungen zu ermöglichen. Aber erst einmal sollte man sich im Klaren sein, was man denn überhaupt haben will, welche Regelungen für große wie auch kleine Plattformbetreiber gelten sollen.
Daher habe ich mal ein paar Fragen zusammengestellt, die man in dieser Diskussion beantworten sollte – um auf den Antworten aufbauend zu einer Lösung zu kommen. Bestimmt fehlen einige Fragen und manche kann oder sollte man anders stellen, daher ist dies erst mal ein Anfang – ich bin auf Antworten, aber auch auf Anregungen zu weiteren oder geänderten Fragen gespannt:
- Meinungsfreiheit nach deutscher oder US-Variante?
Welche Vorstellung von Meinungsfreiheit (Link zu Hintergrundinformationen) legen wir in der gesamten Diskussion zugrunde? Dies ist vielleicht die wichtigste Frage überhaupt, denn wenn man die Ansicht vertritt, dass tatsächlich nahezu alles gesagt werden darf (von übelsten Beleidungen über Volksverhetzung und Holocaustleugnung bis hin zu falschen Behauptungen über Personen), dann hat sich ein Großteil der folgenden Fragen bereits erledigt. Aber diese Ansicht (siehe auch Punkt 76 und 77) vertritt noch nicht mal die Mehrheit der AfD-Politiker, die ansonsten als lauteste NetzDG-Kritiker auftreten. - Sollen Plattformbetreiber Auflagen erfüllen?
Auch eine zentrale Frage: Sollen Betreiber von Plattformen wie Facebook, Twitter und YouTube – aber auch kleinere Forenbetreiber und so weiter – überhaupt irgenwelche Auflagen erfüllen oder soll es ihnen selbst überlassen werden, wie sie mit den Beiträgen der Nutzer umgehen? - Müssen ausländische Plattformbetreiber sich an hiesige Gesetze halten?
- Und müssen ausländische Plattformbetreiber die Einhaltung hiesiger Gesetze durchsetzen?
- Haftungsregeln der derzeitigen Regelung aus § 10 TMG und EU-E-Commerce-Richtlinie prinzipiell beibehalten oder nicht?
Kurzfassung: Plattformanbieter sind für Inhalte Dritter (der Nutzer) nicht verantwortlich, so lange sie keine Kenntnis haben. Ab Kenntnis haften sie, als ob es sich um eigene Inhalte handelt, außer die Inhalte werden entfernt. - Wenn nicht: nie Haftung (auch bei Kenntnis) oder immer Haftung (auch vor Kenntnis) oder anderes?
- Also: Sollen bei Verstößen (siehe Punkt 1) die Plattformbetreiber Inhalte entfernen oder nur die Autoren?
- Sollen rechtswidrige Inhalte (vgl. Punkt 1) überhaupt entfernt werden?
- Wenn ja: Wie schnell sollen rechtswidrige Inhalte entfernt werden? Möglichst schnell, oder ist es OK, wenn es nach Wochen, Monaten oder Jahren geschieht?
- Wenn nein: Warum nicht? Sprich: doch Punkt 1 überdenken?
- Brauchen die Haftungsregeln aus dem TMG Nachbesserungsbedarf zum Schutz vor ungerechtfertigter oder für schnellere Löschung?
- Sollen Plattformbetreiber frei nach eigenen »Gemeinschaftsstandards« entscheiden und Löschen/Sperren dürften?
- Wie frei sollen sie dabei sein?
- Sollen meinungsrelevate/marktbeherrschende/große Plattformen anders reguliert werden als der kleine Blogger oder Forenbetreiber?
- Sollen Plattformbetreiber transparenter werden?
- Sollen Betroffene bei Löschung nach Punkt 8 oder 12 ein Widerspruchsrecht haben?
- Allgemeiner: Besteht Nachbesserungsbedarf bei u.U. ungerechtfertigten Löschung von Inhalten durch die Plattformen?
- Löschen (manche) Plattformen zu viele oder wenige rechtswidrige Inhalte nach Punkt 8?
- Löschen (manche) Plattformen zu viele oder wenige Inhalte, nach eigenen Regeln (Punkt 12)?
- Ist es prinzipiell richtig, wenn der Gesetzgeber verlangt, dass Plattformen transparente Verfahren etablieren müssen?
- Wenn ja: auch für rechtswidrige Inhalte nach 1 oder nur für die eigenen Regeln der Plattform?
- Ist es richtig, wenn Plattformen Bußgelder bezahlen müssen, wenn sie keine ordentlichen Verfahren haben?
- Bußgelder im Einzelfall oder bei systematischem Versagen?
- Sollen Bußgelder bei systematischer ungerechtfertigter Löschung verhängt werden können?
- Sollen die Chefs der Plattformen strafrechtlich verfolgt werden, wenn sie rechtswidrige Inhalte nach 1 nicht entfernen (lassen)?
- Im Einzelfall oder bei systematischem Versagen?
- Sollen die Plattformen bei Nichtlöschung rechtswidriger Inhalte Bußgelder zahlen?
- Wenn 27. ja: im Einzelfall oder bei systematischem Versagen?
- Wie lange soll auf eine Entfernung nach 1 gewartet werden?
- Wer soll die Kosten für für die zu erledigende Arbeiten tragen? Plattformen oder Staat?
- Soll zwischen offensichtlichen einfachen und komplizierteren Fällen unterschieden werden?
- Sollen Plattformen auch nicht strafbare Hassrede entfernen dürfen?
- … oder müssen?
- Sollen Opfer von Hassrede oder strafbaren Beleidigungen etc. sich an die Plattform wenden können?
- Oder nur an Strafverfolger?
- Soll vor jeder (Nicht-) Entfernung eines Inhaltes ein rechtskräftiges Gerichtsurteil abgewartet werden?
- Oder nur ein erstinstanzliches?
- Oder nur eine einstweilige Verfügung?
- Soll bei offensichtlich rechtswidrigen oder nicht rechtswidrign Inhalten gemäß 36 bis 38 etwas anderes gelten?
- Sollte im Zweifel gelöscht werden oder im Zweifel nicht?
- Sollten Plattformen Anreize erhalten, schnell zu löschen?
- Sollen Plattformen Anreize erhalten, ausgeglichene Verfahren zu etablieren, die die Interessen aller Betroffenen berücksichtigen?
- Oder sollen die Plattformen das handhaben wie sie wollen?
- Sollen Plattformen Anreize erhalten, Inhalte lange zu behalten?
- Sollen Plattformen eigene »Gemeinschaftsstandards« haben dürfen?
- Sollten diese möglichst präzise sein, oder reicht eine allgemeine Beschreibung?
- Wenn Plattformen entgegen ihrer Standards aus 45 entscheiden: soll das Konsequenzen haben?
- Sollen Nutzer ihre Rechte aus 45ff selbst durchsetzen?
- Oder sollen das Aufsichtsbehörden machen?
- Sollen betroffene Nutzer ihre Rechte aus 1 selbst durchsetzen?
- Oder sollen das Aufsichtsbehörden machen?
- Sollen Nutzer überhaupt die Möglichkeit haben, Inahlte zu melden?
- Solche die gegen 10 bzw. 45 und/oder 1 verstoßen?
- Ist es ein Skandal und Eingriff in die Meinungsfreiheit, wenn eine Plattform nach der Prüfung einer Meldung entscheidet: nicht löschen?
- Ist es ein unberechtigter Eingriff in die Meinungsfreiheit, wenn ein Inhalt nach 1 gelöscht wird?
- Ist es ein unberechtigter Eingriff in die Meinungsfreiheit, wenn ein Inhalt nach 45 gelöscht wird?
- Wäre es OK, Inhalte, die möglicherweise unter 1 fallen, zu verstecken oder niedrigerer zu gewichten und beispielsweise nur nach explizitem Wunsch des Lesers anzuzeigen?
- Dito für Inhalte nach 45.
- Angenommen, Plattformen haben eine Möglichkeit zur Beschwerde über Inhalte, die nach den Regeln der Plattform oder gesetzlichen Regeln unzulässig sind. Sollen Nutzer eine Beschwerde begründen können?
- … oder müssen?
- Sollen Betroffene benachrichtigt werden, wenn einer ihrer Inhalte nach einer Beschwerde nicht entfernt wurde?
- Bei einem Widerspruch nach Punkt 16: sollen Plattform eine Möglichkeit zur Begründung vorsehen?
- Wie soll mit verschiedenen Rechtsnormen in verschiedenen Ländern umgegangen werden?
- Ab welcher Größe einer Plattform (z.B. Nutzeranzahl oder gesellschaftliche Bedeutung) solloen diese zu Maßnahmen verpfichtet werden?
- Angenommen, nur größere Plattformen sind für bestimmte Verfahren verpflichtet. Sollen auch kleinere Betreiber Privilegien genießen, wenn sie (für sie nicht verpflichtende) Verfahren implementieren?
- Sollen die Betrieber von Gruppen oder ähnlichem auf den sozialen Netzwerken zu irgendwelchen Handlungen verpflichtet werden, beispielsweise solche wie die Plattformbetreiber selbst oder Teilen davon?
- Soll überhaupt irgendwas gelöscht werden, oder ausnahmslos alles stehen bleiben?
- Sollen Nutzer entsprechender Plattformen und Betroffene die Möglichkeit haben, gegen die Entscheidungen der Plattformen (beispielsweise Löschung oder Nicht-Löschung) gerichtlich vorzugehen?
- Wenn ja: Sofort oder erst, wenn sie alle Widerspruchsmöglichkeiten bei der Plattform durchgeführt haben?
- Wenn ja: Sollen die Plattformen verpflichtet werden, den Nutzert auf das Klagerecht hinzuweisen?
- Statt Löschen: sollen rechtswidrige Beiträge markiert werden und das Teilen dieser bestraft werden?
- Soll die strafrechtiche Verfolgung der Autoren rechtswidriger Beiträge (unabhängig zu allen obigen Antworten) verschärft werden?
- Derzeit verweisen Staatsanwaltschaften bei Strafanzeigen/Strafanträgen wegen Beleidigung und Verläumdung häufig auf den Privatklageweg. Ist dies der richtige Weg?
- Oder sollten Staatsanwaltschaften bei Straftaten wie Beleidigung, üble Nachrede und ähnlichem häufiger selbst ermitteln?
- Anders gefragt: sollen Opfer von Beleidigungen und ähnlichen Straftaten das Kostenrisiko selbst tragen?
- Sollen für mehr Meinungsfreiheit diverse Straftaten abgeschafft werden?
- Wenn ja, welche? Beispielsweise: Beleidigung, Üble Nachrede, Volksverhetzung, Holocaustleugnung, Beschimpfung von Religionsgemeinschaften oder die Aufforderung zu Straftaten?
Dieser Fragenkatalog ist ein Ausschnitt aus wichtigen Fragen, die man sich stellen sollte, wenn man sich über sinnvolle Regelungen Gedanken macht. Er basiert auf einem Twitter-Thread, den ich vor ein paar Wochen gestartet hatte.
Ich bin sehr gespannt auf Eure Antworten, Anregungen und Vorschläge.
EDIT: Punkt 1 noch um eine grobe Beschreibung der Meinungsfreiheit in den USA ergänzt und Link zur Wikipedia hinzugefügt.
Dreifels
zu 3) + 4)
es gllt das Recht des Landes, wo der Server steht.
Kniffelig ist aber, was ist wenn ein ausländischer Server aber ein inländischer Betreiber?
Oder umgekehrt.
=> konkurrierendes Recht.
Die in hostory geltende Regel "es gllt das Recht des Landes, wo der Server steht." wird ja nicht nur hier versucht, auszuhebeln. Die USA machen es ja schon lange.
D.h. aber: die natürlichen Grnezen eines Wirkungs- und Geltungsbereiches eines Gesetzes sind hier ausgehebelt.
Ist so, als ob man in Deutschland bestraft wird, wenn man in China bei rot über die Ampel fährt.
Alvar Freude hat auf den Kommentar von Dreifels geantwortet
Die Server stehen in Schweden, in Irland und drei mal in den USA. Kleinere Standorte gibt es m.W. auch in Deutschland. Also, was gilt denn dann?
Nehmen wir an: US-Recht. Aber warum soll nun eine Äußerung eines Deutschen aus Deutschland in Deutschland straffrei bleiben, wenn der Server in den USA steht?
Und wie soll sich ein Deutscher Staatsbürger gegen eine Persönlichkeitsrechtsverletzung wehren, wenn der Plattformbetreiber seine Server in den USA stehen hat? Hat er die dann einfach hinzunehmen?
Übrigens kann man auch für manche Taten in Deutschland bestraft werden, wenn man diese im Ausland begangen hat. Bei dem Beispiel mit der roten Ampel gilt das nicht für China, aber für das europäische Ausland: entsprechende ausländische Strafzettel können auch in Deutschland vollstreckt werden.
Abgesehen davon hat der Bundesgerichtshof (BGH) bereit im Jahr 2000 entschieden, dass ein ausländischer Staatsbürger, der auf ausländischen Servern den Holocaust leugnet, in Deutschland wegen Holocaustleugnung verurteilt werden kann (BGH, Urteil vom 12. Dezember 2000 – 1 StR 184/00).
Andreas
Hallo Alvar,
wie versprochen, ein Versuch einen konstruktiven Kommentar beizusteuern.
Ein Versuch deswegen, weil die (bisher) 77 Fragen erschlagen und den Fokus immer wieder auf eine Regulierung setzen, die als Erziehungsmaßnahme potentiell eher abgelehnt wird und sogar als Provokation interpretiert zu noch mehr Auswüchsen der Verrohung in zwischenmenschlicher Kommunikation führt.
So zumindest meine Beobachtungen.
Die Kernfrage ist meines Erachtens, was diese verbale Gewalt, diese emphatielose Beschimpfung verursacht und warum man dies nicht in den Griff bekommt, statt hinterher deren Auswüchse regulieren zu wollen.
Es ist (massiv simplifiziert) im Grunde wie mit einem Gartenschlauch, der bei permanent durchfließendem Wasser nicht die Möglichkeit bietet, ein Ventil einzubauen oder auch nur den Sprühkopf zu tauschen.
Ich oute mich als eine Person, die gegen das #NetzDG ist, fühle mich jedoch als "Anti-#NetzDG-Aktivist", #NetzDG-Gegner" und welche Bezeichnungen es noch geben sollte eher diskriminiert und lehne jegliche Kategorisierung und "ismen" aus dem gleichen Grunde ab. Denn auch dies ist eine Form unterschwelligem Hatespeech, um welchen es ja in der ganzen Debatte geht.
Meine Haltung dazu ist sehr ähnlich den Bemühungen von Ursula von der Leyens Idee der STOP-Schilder, um gegen die Kinderpornoindustrie vorzugehen. Auch hier begründe ich meine Haltung damit, das dies den Opfern nicht gerecht wird, die unglaublichen Taten nur ausblendet und damit die Aufklärung und Verurteilung der Täter eher verhindert werden!
Punkte (,,): "Internet und Content"
Das Internet besteht aus einer Vielzahl von Servern bzw. permanent angeschlossenen Speichermedien, mit unzählichen Plattformen, privaten und kommerziellen Webseiten und Portalen, welche jeden Content den man sich vorstellen kann bereitstellen.
Dieser Content obligt grundsätzlich einem Urheberrecht, welches durch das Telemediengesetz in Deutschland durch das Impressum bzw. durch die Angaben per WHOIS zum Verantwortlichen zurückführen lässt.
Hier gibt es sinnvolle Regelungen, um zum jeweiligen Ursprung von Texten, Bildern, Video- und Audiomaterial zu gelangen. Es gibt auch Absprachen, wie dies im "Ausland" verhandelt wird, also nach internationalem Recht.
Es mag zugegeben aufwendig sein und teilweise durch Regelungen des Serverstandorts gar aufgehoben, doch ist dies eine Verhandlung, die auf politischer Ebene zwischen den beteiligten Ländern ausgetragen werden muss und nicht das Recht der grundsätzlich zensurfreien Erstellung oder Veröffentlichung von Content per se einschränken darf.
Denn Letzteres wird immer bedeuten, dass eine ermüdende Diskussion und Interpretation in Gang gesetzt wird, "was zensiert werden darf, was einer Zensur unterliegt, wer die Regeln festlegt und wer die Regelnsetzung kontrolliert".
Punkte (,,): "Löschung von Inhalten"
Es gibt Regelungen wie "Recht auf Vergessen", welches mit ausreichender Begründung oder eben durch richterlichen Beschluß jegliche Inhalte von den Quellservern einer Löschung zu unterziehen.
Demnach gibt es die Möglichkeit, Beleidigungen, Rufmord etc. zu begegnen. Das dies in Gänze technisch nicht umsetzbar ist, liegt an der Konstruktion vom Internet selbst und wird sich nicht durch ein #NetzDG verhindern lassen.
Totalitäre Regierungen versuchen dies erfolglos und haben nichts weiter erschaffen als ein einfaches, lokal zensiertes Netzwerk, welches ins Landesinnere funktioniert, indem die jeweils regionalen Provider zu Zwangsmaßnahmen wie Proxy-, DNS-, Keyword-Content-Sperren verpflichtet werden. Vorhanden ist der Content dennoch.
Punkte (,,): "Durchsetzung von Löschung"
Wenn ein Content als nach dem GG in unserem Land als Inhalt (an)erkannt ist, welcher einen Strafbestand beinhaltet, dann stellt sich die Frage, wie mit diesem umzugehen ist.
Seit der Erfindung von HTML und der Möglichkeit des Verlinkens von Inhalten, die unter anderen Adressen zu finden sind steht die Diskussion im Raum, ab wann man wie dafür haftet, wenn man diese Kern-Eigenschaft von HTML nutzt.
Ferner wenn man Dritten Speicherplatz zur Veröffentlichung bereitstellt, wenn man ein entsprechender Provider ist, ein Forum betreibt oder ähnliche Konstrukte.
Bisher hat man sich darauf verständigt, dass Löschung nach Kenntniss unter Einbeziehung angemessener Methoden genügt.
Ich bin der Meinung, das Unternehmen, Organisationen und Privatleute, die nachweislich mehrfach falsch Unkenntnis vorgeben entsprechend sanktioniert werden können. Man nennt dies dann Wiederholungstäter, welchem im Strafrecht ein eigenes Kapitel gewidmet ist.
Angemessene Methoden müssten vielleicht regelmäßig angepasst und besprochen werden, jedoch genau wie die Bereiche der Wissenschaft permanent bei jeder Änderung einer Beurteilung gegenüber einer Ethikkommission standhalten.
Denn es gilt immer zu berücksichtigen, dass das Unrecht Einzelner nicht durch die Beschränkung Aller (Sippenhaft) begegnet werden kann und sollte.
Punkte (,,): "Meinungsfreiheit vs. HateSpeech"
Das in meinen Augen wirklich interessanteste Thema ist eigentlich das gesellschaftliche Verhalten in der Kommunikation, der Umgang miteinander.
Viele gesellschaftspolitischen Wissenschaftler zerbrechen sich den Kopf darüber, wie etwas, was wir heutzutage vor allem im Netz vorfinden, überhaupt entstehen konnte.
Wenn "wir", dh. wenn ich zu Grunde lege, dass es sich nicht um ein spontanes Ereignis handelt sondern eine Momentaufnahme einer Entwicklung darstellt, kann man recht schnell erkennen, dass es entsprechend dazu keine "Sofortlösung" gibt, sondern nur ein Gegensteuern, um die Weiterentwicklung auf einen anderen Weg zu bringen.
Es ist wichtig zu erkennen, dass kaum ein Mensch mit dem Erreichen der Volljährigkeit sich "vorschreiben" lassen wird, wie er mit dem anderen umgeht. Es gibt moralische Gründe, dh. man kann jeden Menschen versuchen daran zu erinnern, "Was Du nicht willst, was man Dir tu, .." also eben die bestehenden Empfehlungen wie Netiquette(n) zu kultivieren, könnten ebenso das Belohnungs-/Bestrafungssystem genauer betrachtet werden.
Jedoch ist es schwierig, den Umgang miteinander zu beurteilen. Ab wann gilt eine Aussage als Beleidigung, ab wann ist ein Zyniker ein Gruppenstörer etc. Wo wird hier die Grenze gezogen.
Man sieht, jedesmal, wenn man versucht, ein Regelwerk aufzubauen um sich darauf zu beziehen, landen im gleichen "Topf" auch Leute, die da nicht und nur bedingt hineingehören.
Die Gesellschaft steht eigentlich vor der Herausforderung, Courage wieder zu erlernen, die Kommunikation zu überdenken, die eigene Verantwortung dafür zu übernehmen, bevor man den Mund aufmacht, das zu Sagende durch die Filter (Bereicherung, Richtig, Nötig) laufen zu lassen.
Abschließend, das NetzDG verlagert im Grunde die Pöbelei und Hetze in eher unsichtbare Bereiche, alternative Netzwerk und deren Bubbles und hat im Endeffekt nur die Masse beschnitten ohne auch nur einen Funken bei den eigentlichen Hetzern zu bewirken. Auch werden diese Akteure mit der Auseinandersetzung nicht mehr konfrontiert.
Anmerkung zu "Punkte (,,):"
Ich wollte ursprünglich die jeweiligen Punkte aufzählen, doch bin ich daran gescheitert, dass viele Punkte wiederholend, gleiche Schnittmenge etc. haben und ich mich nicht festlegen konnte.
Ich hoffe, dass ich dennoch etwas zur Diskussion beitragen konnte.
In diesem Sinne
LG
Andreas
Mexiko Haas
Es fehlt mir auch an der Qualifikation, die ein Löschagent erfüllen müsste. M.E. müsste man ein erstes juristisches Staatsexamen fordern.
Alvar Freude hat auf den Kommentar von Mexiko Haas geantwortet
Die Qualifikation ist durchaus eine Frage, die man stellen kann.
Um die gleich zu beantworten: Ich sehe keinen Grund, warum Juristen in der Mehrheit der Fälle besser entscheiden würden. Das geltende NetzDG verlangt bereits gut geschulte Mitarbeiter und sie müssen Fortbildungen erhalten. Mag sein, dass das zu wenig ist, das muss man sehen. An anderer Stelle sehe ich viel größere und wichtigere Baustellen.
Viel wichtiger ist mir aber die Implementation eines guten, sinnvollen Verfahrens, dass sowohl die Meinungsfreiheit berücksichtigt als auch die Rechte der bBetroffenen schützt. Die formale Ausbildung der Mitarbeiter ist mir da zweitrangig.
Alvar Freude hat auf den Kommentar von Andreas geantwortet
Hallo Andreas,
danke für den langen Kommentar; ich glaube aber, wir reden etwas aneinander vorbei, siehe meinen letzten Absatz in dieser Antwort hier.
Aber erst mal zu Deinen Punkten:
Das ist tatsächlich eine wichtige Frage, aber dies ist ein gänzlich anderer Bereich. Hier geht es mir eher darum, wie sinnvolle Haftungsregelungen aussehen, welche Verfahren denn die Betreiber von entsprechenden Plattformen etablieren sollen. Und auch darum, wo die Grenzen dessen liegen sollen, was sie aus eigenem Antrieb löschen.
ein Großteil der Inhalte bei Facebook und Co dürfte nicht die Schöpfungshöhe erreichen, so dass das Urheberrecht nicht greift. Von daher ist „Grundsätzlich“ schon die korrekte Bezeichnung (wenn man das juristisch versteht). Nichtsdestotrotz: mit dem Urheberrecht hat die gesamte Diskussion erst mal nichts zu tun.
Bei den großen Plattformen, um die es hauptsächlich geht, da sind die Betreiber sowieso bekannt. Das NetzDG selbst wendet sich ja nur an Plattformen mit mindestens zwei Millionen Nutzern – aber man kann sich natürlich auch bei den anderen um sinnvolle Regelungen Gedanken machen.
Aber das was Du beschreibst ist hier nicht das, was ich hier zur Diskussion stelle. Es geht darum: Facebook, Google (YouTube, ...) und Twitter müssen irgendwie mit Inhalten umgehen, die a) nicht ihren eigenen Regeln entsprechen und b) die strafrechtlich relevant sind. Und da stellen sich m.E. viele Fragen (siehe oben). Man kann das von „sollen die Plattformen selbst wie sie wollen entscheiden“ bis zu diversen mehr oder minder strengen Regeln aller Art machen.
Das hat mit der Diskussion hier überhaupt nichts zu tun.
Es geht hier auch nicht um irgendwelche Server in Absurdistan oder ähnlichem. Es geht um Soziale Netzwerke (um die geht es ja auch ausschließlich beim NetzDG). Man kann natürlich auch dort gefundene sinnvolle Regelungen auf andere Bereiche übernehmen, aber das ist m.E. eher sekundär.
Wenn das so einfach wäre, dann hätte sich das Thema längst erledigt. Und auf der anderen Seite würden Facebook und Co viel stärker umstrittene aber legale Inhalte löschen, um auf der sicheren Seite zu sein. Dies ist ja der größte Kritikpunkt am NetzDG: es würde angeblich dafür sorgen, dass massenweise viel zu viel gelöscht wird. Dein Vorschlag würde dieses Problem wohl um mindestens Faktor 10 verstärken!
Meine persönliche Meinung dazu, aber auch das hat erst mal nichts mit obigen Fragen zu tun: Man kann doch den Aufruf zu Mord oder Vergewaltigung nicht deswegen tolerieren, weil er sonst an anderem Ort ohne Widerspruch stehen bleiben würde.
Bei der Diskussion hier geht es eigentlich um ein paar einfache aber andere Punkte: Wie kann geltendes Recht durchgesetzt werden und soll es das überhaupt? Wie kann gleichzeitig dafür gesorgt werden, dass die Meinungsfreiheit geschützt wird, sprich: wie kann verhindert werden, dass zu viel gelöscht wird? Sollen den Plattformbetreibern relativ genaue (mindest-) Vorgaben gemacht werden oder sollen sie das handhaben dürfen wie sie wollen? Welche eigenen Regeln sollen die Plattformbetreiber aufstellen dürfen und welche Rechte sollen dabei die Nutzer haben? Und zu alledem: welche Vorgaben und rechtlichen Rahmenbedingungen sollten dafür geschaffen, abgeschafft oder geändert werden.
Als Diskussionsgrundlage dafür habe ich oben ein paar Fragen gestellt. Ja, das ist alles schon ziemlich konkret. Aber es geht ja auch um ein konkretes Gesetz.
Ciao
Alvar
Aggewars
Moin,
ich hab mal, wie auf Twitter gewünscht, die Fragen beantwortet.
Bin auf Deine Rückmeldung gespannt.
1. Meinungsfreiheit nach deutscher oder US-Variante? Welche Vorstellung von Meinungsfreiheit (Link zu Hintergrundinformationen) legen wir in der gesamten Diskussion zugrunde? Dies ist vielleicht die wichtigste Frage überhaupt, denn wenn man die Ansicht vertritt, dass tatsächlich nahezu alles gesagt werden darf (von übelsten Beleidungen über Volksverhetzung und Holocaustleugnung bis hin zu falschen Behauptungen über Personen), dann hat sich ein Großteil der folgenden Fragen bereits erledigt. Aber diese Ansicht (siehe auch Punkt 76 und 77) vertritt noch nicht mal die Mehrheit der AfD-Politiker, die ansonsten als lauteste NetzDG-Kritiker auftreten.
Meinungsfreihet nach deutscher Rechtsprechung.
2. Sollen Plattformbetreiber Auflagen erfüllen? Auch eine zentrale Frage: Sollen Betreiber von Plattformen wie Facebook, Twitter und YouTube – aber auch kleinere Forenbetreiber und so weiter – überhaupt irgenwelche Auflagen erfüllen oder soll es ihnen selbst überlassen werden, wie sie mit den Beiträgen der Nutzer umgehen?
Auflagen nach 1. Ansonsten sollte es ihre Sache sein.
3. Müssen ausländische Plattformbetreiber sich an hiesige Gesetze halten?
Ja
4. Und müssen ausländische Plattformbetreiber die Einhaltung hiesiger Gesetze durchsetzen?
Ja
5. Haftungsregeln der derzeitigen Regelung aus § 10 TMG und EU-E-Commerce-Richtlinie prinzipiell beibehalten oder nicht? Kurzfassung: Plattformanbieter sind für Inhalte Dritter (der Nutzer) nicht verantwortlich, so lange sie keine Kenntnis haben. Ab Kenntnis haften sie, als ob es sich um eigene Inhalte handelt, außer die Inhalte werden entfernt.
Halte ich für einen zentralen und schwierigen Punkt.
Kenntnis von einem strittigen Inhalt zu haben, sollte noch zu keiner Haftung führen, bis die Klärung erfolgt ist.
Ist, soweit ich das verstanden habe, bisher leider nicht der Fall.
6. Wenn nicht: nie Haftung (auch bei Kenntnis) oder immer Haftung (auch vor Kenntnis) oder anderes?
siehe 5
7. Also: Sollen bei Verstößen (siehe Punkt 1) die Plattformbetreiber Inhalte entfernen oder nur die Autoren?
auch die Plattformen
8. Sollen rechtswidrige Inhalte (vgl. Punkt 1) überhaupt entfernt werden?
Ja, sobald sie als rechtswidrig von Gerichten deklariert wurden.
9. Wenn ja: Wie schnell sollen rechtswidrige Inhalte entfernt werden? Möglichst schnell, oder ist es OK, wenn es nach Wochen, Monaten oder Jahren geschieht?
Wenn sie als solche erkannt wurden (durch Gerichte), asap.
10. Wenn nein: Warum nicht? Sprich: doch Punkt 1 überdenken?
ergibt sich aus 9
11. Brauchen die Haftungsregeln aus dem TMG Nachbesserungsbedarf zum Schutz vor ungerechtfertigter oder für schnellere Löschung?
Ja
12. Sollen Plattformbetreiber frei nach eigenen »Gemeinschaftsstandards« entscheiden und Löschen/Sperren dürften?
Ja
13. Wie frei sollen sie dabei sein?
So frei sie wollen. Deren Haus, deren Rechte.
14. Sollen meinungsrelevate/marktbeherrschende/große Plattformen anders reguliert werden als der kleine Blogger oder Forenbetreiber?
Schwierig. Wo zieht man die Grenze. Das geht meist schief und gibt eigenes Feld für Rechtstreitigkeiten.
15. Sollen Plattformbetreiber transparenter werden?
Ja
16. Sollen Betroffene bei Löschung nach Punkt 8 oder 12 ein Widerspruchsrecht haben?
Nach 8. nein, denn das wurde instanzlich geklärt. Nach 12 sollte es so sein, einen weiteren (vielleicht noch besser ausgebildeten) Mitarbeiter (höhere Instanz) den Fall erneut prüfen zu lassen. Menschen machen Fehler, vier Augen sehen mehr als zwei usw.
17. Allgemeiner: Besteht Nachbesserungsbedarf bei u.U. ungerechtfertigten Löschung von Inhalten durch die Plattformen?
Ja
18. Löschen (manche) Plattformen zu viele oder wenige rechtswidrige Inhalte nach Punkt 8?
Kann ich nicht beurteilen. In meinem Konstrukt wohl nicht.
19. Löschen (manche) Plattformen zu viele oder wenige Inhalte, nach eigenen Regeln (Punkt 12)?
Ja
20. Ist es prinzipiell richtig, wenn der Gesetzgeber verlangt, dass Plattformen transparente Verfahren etablieren müssen?
Ja
21. Wenn ja: auch für rechtswidrige Inhalte nach 1 oder nur für die eigenen Regeln der Plattform?
Bei Rechtswidrigkeit wird es - wie bereits gesagt - zuvor instanzlich geklärt. Da bedarf es keiner weiteren Transparenz.
22. Ist es richtig, wenn Plattformen Bußgelder bezahlen müssen, wenn sie keine ordentlichen Verfahren haben?
Hm, hab ich noch nie drüber nachgedacht. Zusammen mit der nächsten Frage tendiere ich zu Ja
23. Bußgelder im Einzelfall oder bei systematischem Versagen?
bei systematischem Versagen
24. Sollen Bußgelder bei systematischer ungerechtfertigter Löschung verhängt werden können?
warum eigentlich nicht?
25. Sollen die Chefs der Plattformen strafrechtlich verfolgt werden, wenn sie rechtswidrige Inhalte nach 1 nicht entfernen (lassen)?
26. Im Einzelfall oder bei systematischem Versagen?
für beide zusammen: bei systematischem Versagen könnte ich es mir vielleicht vorstellen, wird aber nicht durchsetzbar sein
27. Sollen die Plattformen bei Nichtlöschung rechtswidriger Inhalte Bußgelder zahlen?
Ja
28. Wenn 27. ja: im Einzelfall oder bei systematischem Versagen?
immer
29. Wie lange soll auf eine Entfernung nach 1 gewartet werden?
Nach gerichtlicher Feststellung sollte das innerhalb von Stunden erfolgen, sofern es nicht schon durch Einstweilige Verfügung erfolgt ist.
30. Wer soll die Kosten für für die zu erledigende Arbeiten tragen? Plattformen oder Staat?
Für die Löschung an sich die Plattform. Der Staat hat bei Gerichtsentscheidungen dafür zu sorgen, daß die Plattform von dieser Aufgabe erfährt.
31. Soll zwischen offensichtlichen einfachen und komplizierteren Fällen unterschieden werden?
Nein, die Beobachtung der Rechtsprechung lehrt mich, daß es keine offensichtlichen einfachen Fälle gibt
Die Beobachtung der derzeitigen Auswüchse des NetzDG zeigen das (leider) erst recht.
32. Sollen Plattformen auch nicht strafbare Hassrede entfernen dürfen?
NEIN
33. … oder müssen?
NEIN
34. Sollen Opfer von Hassrede oder strafbaren Beleidigungen etc. sich an die Plattform wenden können?
Wenden ja, aber es sollte lediglich eine Art Vorwarnung sein, daß der Rechtsweg beschritten werden soll.
Vielleicht reichen die sog. Community-Standards der Plattform zur Bereinigung des Problems.
35. Oder nur an Strafverfolger?
ergibt sich aus 34
36. Soll vor jeder (Nicht-) Entfernung eines Inhaltes ein rechtskräftiges Gerichtsurteil abgewartet werden?
Nein
37. Oder nur ein erstinstanzliches?
Nein
38. Oder nur eine einstweilige Verfügung?
Ja
39. Soll bei offensichtlich rechtswidrigen oder nicht rechtswidrign Inhalten gemäß 36 bis 38 etwas anderes gelten?
"offensichtlich rechtswidrig" gibt es nicht. Das wird vor Gericht verhandelt.
40. Sollte im Zweifel gelöscht werden oder im Zweifel nicht?
Im Zweifel nicht. Unter anderm in der Medizinforschung gibt es ja die Begriffe "false positive" und "false negative".
Ich möchte keine "false positives" haben, will heißen: es ist mir lieber, es wird einmal zu wenig gelöscht (was vermutlich vorübergehend ist), als einmal zu viel.
41. Sollten Plattformen Anreize erhalten, schnell zu löschen?
Nein
42. Sollen Plattformen Anreize erhalten, ausgeglichene Verfahren zu etablieren, die die Interessen aller Betroffenen berücksichtigen?
Nein, das ergibt sich hoffentlich aus dem übrigen Ökosystem
43. Oder sollen die Plattformen das handhaben wie sie wollen?
siehe 42
44. Sollen Plattformen Anreize erhalten, Inhalte lange zu behalten?
Nein
45. Sollen Plattformen eigene »Gemeinschaftsstandards« haben dürfen?
Ja
46. Sollten diese möglichst präzise sein, oder reicht eine allgemeine Beschreibung?
Möglichst präzise, ist bei globalen Plattformen aber sicherlich schwierig zu formulieren
47. Wenn Plattformen entgegen ihrer Standards aus 45 entscheiden: soll das Konsequenzen haben?
Ja, ich sehe das als sowas wie AGB an
48. Sollen Nutzer ihre Rechte aus 45ff selbst durchsetzen?
Ja und nein. In der ersten Stufe ja, dann klingt als weitere Instantz die 49 ganz nett.
49. Oder sollen das Aufsichtsbehörden machen?
siehe 48
50. Sollen betroffene Nutzer ihre Rechte aus 1 selbst durchsetzen?
Nein, das ist Staatssache. Hier sollten sich die Nutzer gleich über die Strafbehörden wehren dürfen.
51. Oder sollen das Aufsichtsbehörden machen?
Wird wohl teilweise nicht ausbleiben, daß sich das überschneidet, aber grundsätzlich ist das Strafverfolgungssache.
52. Sollen Nutzer überhaupt die Möglichkeit haben, Inahlte zu melden?
Ja
53. Solche die gegen 10 bzw. 45 und/oder 1 verstoßen?
Ja, beides
54. Ist es ein Skandal und Eingriff in die Meinungsfreiheit, wenn eine Plattform nach der Prüfung einer Meldung entscheidet: nicht löschen?
Grundsätzlich (im Einzelfall) nicht, im systematischen Fall schon
55. Ist es ein unberechtigter Eingriff in die Meinungsfreiheit, wenn ein Inhalt nach 1 gelöscht wird?
Nein
56. Ist es ein unberechtigter Eingriff in die Meinungsfreiheit, wenn ein Inhalt nach 45 gelöscht wird?
Nein
57. Wäre es OK, Inhalte, die möglicherweise unter 1 fallen, zu verstecken oder niedrigerer zu gewichten und beispielsweise nur nach explizitem Wunsch des Lesers anzuzeigen?
Nein
58. Dito für Inhalte nach 45.
Ja
59. Angenommen, Plattformen haben eine Möglichkeit zur Beschwerde über Inhalte, die nach den Regeln der Plattform oder gesetzlichen Regeln unzulässig sind. Sollen Nutzer eine Beschwerde begründen können?
Warum nicht?
60. … oder müssen?
Wäre wohl wünsche3nswert. Sehe ich aber nicht als notwendig.
61. Sollen Betroffene benachrichtigt werden, wenn einer ihrer Inhalte nach einer Beschwerde nicht entfernt wurde?
Ja
62. Bei einem Widerspruch nach Punkt 16: sollen Plattform eine Möglichkeit zur Begründung vorsehen?
Klar
63. Wie soll mit verschiedenen Rechtsnormen in verschiedenen Ländern umgegangen werden?
Könnte mittels Abwandlung von 57 erledigt werden
64. Ab welcher Größe einer Plattform (z.B. Nutzeranzahl oder gesellschaftliche Bedeutung) solloen diese zu Maßnahmen verpfichtet werden?
Zu 1 immer, zu 45 frühestens ab 1000 Unique Usern pro Monat - eher 10000.
65. Angenommen, nur größere Plattformen sind für bestimmte Verfahren verpflichtet. Sollen auch kleinere Betreiber Privilegien genießen, wenn sie (für sie nicht verpflichtende) Verfahren implementieren?
Welche Privilegien sollten das sein? Ein Gütesiegel der Aufsichtsbehörde?
66. Sollen die Betrieber von Gruppen oder ähnlichem auf den sozialen Netzwerken zu irgendwelchen Handlungen verpflichtet werden, beispielsweise solche wie die Plattformbetreiber selbst oder Teilen davon?
Rechtswidrig ist rechtswidrig
67. Soll überhaupt irgendwas gelöscht werden, oder ausnahmslos alles stehen bleiben?
Nun, bei Internationalität hätten wir die Frage des Versteckens oder des Löschens, aber alles für alle sichtbar bleiben soll es nicht.
68. Sollen Nutzer entsprechender Plattformen und Betroffene die Möglichkeit haben, gegen die Entscheidungen der Plattformen (beispielsweise Löschung oder Nicht-Löschung) gerichtlich vorzugehen?
Bei Community-Standards (was ich auf AGB-Stufe stellen würde bei großen Anbietern) im Problemfall nach Widerspruch etc., bei Verstößen nach 1 sofort.
69. Wenn ja: Sofort oder erst, wenn sie alle Widerspruchsmöglichkeiten bei der Plattform durchgeführt haben?
Erst nach Druchlaufen der Plattform-Instanzen
70. Wenn ja: Sollen die Plattformen verpflichtet werden, den Nutzert auf das Klagerecht hinzuweisen?
Ja, ist ja so üblich im Verbraucherschutz
71. Statt Löschen: sollen rechtswidrige Beiträge markiert werden und das Teilen dieser bestraft werden?
Stop-Schilder? Nope, "Löschen" statt Sperren! " wegen der oben angesrochenen Internationalität
72. Soll die strafrechtiche Verfolgung der Autoren rechtswidriger Beiträge (unabhängig zu allen obigen Antworten) verschärft werden?
Kann ich nichts zu sagen, da ich den Status quo nicht kenne.
73. Derzeit verweisen Staatsanwaltschaften bei Strafanzeigen/Strafanträgen wegen Beleidigung und Verläumdung häufig auf den Privatklageweg. Ist dies der richtige Weg?
Nein
74. Oder sollten Staatsanwaltschaften bei Straftaten wie Beleidigung, üble Nachrede und ähnlichem häufiger selbst ermitteln?
Ja
75. Anders gefragt: sollen Opfer von Beleidigungen und ähnlichen Straftaten das Kostenrisiko selbst tragen?
Nein
76. Sollen für mehr Meinungsfreiheit diverse Straftaten abgeschafft werden?
Eher nicht
77. Wenn ja, welche? Beispielsweise: Beleidigung, Üble Nachrede, Volksverhetzung, Holocaustleugnung, Beschimpfung von Religionsgemeinschaften oder die Aufforderung zu Straftaten?
Die Beschimpfung von Religionsgemeinschaften ist so eine Sache, weil hier anscheined viel Spielraum besteht.
Für manche ist es ja schon Beschimpfung des Islam, wenn man ein Mettbrötchen ißt oder Beschneidung kritisiert.