Justizminister Heiko Maas hat heute einen Gesetzenwurf gegen Hate Speech und Fake News vorgestellt. Das geplante Gesetz würde Facebook zum Richter über die Meinungsfreiheit machen und eine ausgefeilte Zensurinfrastruktur etablieren.

Bundesjustizminister Heiko Maas hat heute den Entwurf zum Netzwerkdurchsetzungsgesetz vorgestellt, mit dem gegen Hate Speech und Fake News in sozialen Netzwerken vorgegangen werden soll. Es enthält einige sehr problematische Regelungen, die privatisierte Rechtsdurchsetzung befördern und einen massiven Eingriff in die Meinungsfreiheit darstellen. Hierzu gehören die schnellen Bearbeitungspflichten ohne richterliche Überprüfung genauso wie die Implementierung von Upload-/Content-Filtern zum Auffinden von Kopien beanstandeter Inhalte. Die Plattformen werden unter Androhung von Bußgeldern bis zu fünf Millionen Euro zu diesen Maßnahmen gezwungen.

Während in der bisherigen Debatte immer nur von Facebook, Twitter und Youtube die Rede war und sich auch die Untersuchungen des Justizministeriums (BMJV) auf diese beschränkten, betrifft die Definition im Gesetzentwurf eine ganze Reihe von Diensten, die man klassischerweise nicht als soziale Netzwerke bezeichnen würde.

Sehr weite Definition von sozialen Netzwerken

Im Gesetzentwurf heißt es:

Dieses Gesetz gilt für Telemediendiensteanbieter, die mit Gewinnerzielungsabsicht Plattformen im Internet betreiben, die es Nutzern ermöglichen, beliebige Inhalte mit anderen Nutzern auszutauschen, zu teilen oder der Öffentlichkeit zugänglich zu machen (soziale Netzwerke). Plattformen mit journalistisch-redaktionell gestalteten Angeboten, die vom Diensteanbieter selbst verantwortet werden, gelten nicht als soziale Netzwerke im Sinne dieses Gesetzes.

Damit gilt das Gesetz mindestens für soziale Netzwerke wie Facebook oder Twitter, aber auch für Messengerdienste wie WhatsApp. Da im Gesetzestext ein „ODER der Öffentlichkeit zugänglich zu machen“ steht, ist die Definition so unscharf, dass auch Webmailer wie GMX, Videochat-Dienste, Datenspeicher- und Austauschdienste wie Dropbox und sogar One-Klick-Hoster betroffen sein könnten. Auf eine Anfrage schloss ein Sprecher des Justizministerium Webmail definitiv von der Regelung aus, bei Speicherdiensten wie Dropbox gehe er davon aus, dass sie nicht darunter fielen.

Eingeschränkt wird der Geltungsbereich dadurch, dass nur kommerzielle Dienste und nur solche, die mehr als zwei Millionen registrierte Nutzer haben, unter das Gesetz fallen. Als registrierter Nutzer gilt laut der Begründung des Gesetzes, wer von einer deutschen IP-Adresse aus einen Account eingerichtet hat. Ob ein Account aktiv oder inaktiv ist und ob es sich um Mehrfachanmeldungen ein und derselben Person handelt, ist unerheblich. Wenn sich also jemand aus Deutschland mit einem VPN aus Rumänien registriert, wird dieser Account nicht gezählt. Das BMJV geht davon aus, dass wegen des Schwellenwertes höchstens zehn soziale Netzwerke berichtspflichtig werden.

Privatisierte Rechtsdurchsetzung: Facebook als Richter

Dienste, die vom Gesetz betroffen sind, müssen eine Kontaktstelle in Deutschland einrichten. Bei Beschwerden über Inhalte müssen sie unverzüglich von der Beschwerde Kenntnis nehmen und prüfen, ob der Inhalt rechtswidrig und zu entfernen oder der Zugang zu ihm zu sperren ist. Offensichtlich rechtswidrige Inhalte müssen innerhalb von 24 Stunden nach Eingang der Beschwerde entfernt oder gesperrt werden. Dabei entscheidet aber der Dienst selbst, was „offensichtlich rechtswidrig“ ist. Andere rechtswidrige Inhalte müssen innerhalb von sieben Tagen gelöscht werden.

Nico Härting kritisiert in seinem Blog:

„Es geht nicht um strafbare Inhalte, sondern um „rechtswidrige Inhalte“ (§ 1 Abs. 3 NetzDG). Dies ist ein bedeutsamer Unterschied, da es etwa bei einem beleidigenden Beitrag nicht auf die Absichten des Verfassers ankommt. Ob der Verfasser mit Beleidigungsvorsatz gehandelt hat, ist unerheblich. Bedenkt man, dass strafrechtliche Ermittlungsverfahren vielfach eingestellt werden, da sich ein Tatvorsatz nicht nachweisen lässt, würde § 1 Abs. 3 NetzDG dazu führen, dass sich der Anwendungsbereich der strafrechtlichen Verbotsnormen erheblich erweitern würde.

Wird ein Inhalt von der Plattform gelöscht oder gesperrt, muss die Plattformen den Inhalt für eine eventuelle Strafverfolgung im Inland speichern. Interessanterweise gibt das Gesetz keine maximale Speicherdauer vor, es entsteht also eine unbefristete Datensammlung aller unter diesem Gesetz gelöschten Inhalte.

Nach einer Entscheidung der Plattform müssen sowohl der Beschwerdeführer als auch der betroffene Nutzer über die Entscheidung und die Begründung informiert werden. Hiermit soll laut Begründung des Gesetzes sichergestellt werden, dass ein Nutzer die geeigneten rechtlichen Schritte einleiten kann, um gegen die Entfernung oder Sperrung eines für ihn gespeicherten Inhalts vorzugehen. Damit soll das Recht auf Meinungsfreiheit gewahrt werden.

Für einen Nutzer, dessen Inhalte ungerechtfertigterweise gelöscht wurden, ist diese Art der Rechtsdurchsetzung allerdings ein gravierender Nachteil. Würde zuerst ein Gericht über den Inhalt entscheiden, wäre die Entscheidung vorgelagert. Bei der vorgesehenen Regelung kann der Nutzer nur widersprechen, um dann gegebenenfalls Monate oder Jahre später eine gerichtliche Entscheidung in der Hand zu halten. Die sozialen Netzwerke werden mit dem Gesetz, unter Androhung von Geldstrafen bis zu fünf Millionen Euro, dazu gezwungen, juristische Entscheidungen zu treffen.

Die Digitale Gesellschaft schreibt in einer ersten Stellungnahme: „Da eine vorherige gerichtliche Kontrolle nicht vorgesehen ist, müssen die Anbieter selbst entscheiden, ob diese Verpflichtung im Einzelfall greift oder nicht. In Anbetracht der hohen Bußgeldandrohungen bei Verstößen dürfte dies zu einer höchst proaktiven Löschpraxis der Anbieter führen, die im Zweifel stets zu Lasten der Meinungsfreiheit gehen wird.“

Zensurinfrastruktur: Einführung von Upload- und Contentfiltern

Die großen Plattformen haben in vorauseilendem Gehorsam selbst schon Content-/Uploadfilter gegen „Terrorpropaganda“ eingeführt. Die Nutzung dieser Filter wird jetzt verpflichtend für alle gelöschten Inhalte aus den unten aufgeführten Straftatbeständen. Denn im Gesetzentwurf heißt es, dass der Dienst…

6. sämtliche auf den Plattformen befindlichen Kopien des rechtswidrigen Inhalts ebenfalls unverzüglich entfernt oder sperrt und 7. wirksame Maßnahmen gegen die erneute Speicherung des rechtswidrigen Inhalts trifft.

Diese Content- und Uploadfilter können Inhalte auf Basis einer Art digitalen Fingerabdrucks erkennen und löschen oder die Datei direkt nach dem Hochladen löschen oder sperren. Solche Filter sind sehr effektive und leistungsstarke Zensurinstrumente, um bestimmte Inhalte auf den dominierenden Plattformen zu verhindern. Missbräuchliche Beschwerden bei den Plattformen könnten genutzt werden, um missliebige Inhalte zu unterdrücken. Aus den USA sind im Zusammenhang mit der Black-Lives-Matter-Bewegung solche Fälle bekannt. Hinzu kommt der Fakt, dass existierende Zensurmechanismen Bedürfnisse wecken und Forderungen nach Ausweitung der zu zensierenden Inhalte nur eine Frage der Zeit sind.

Was ist denn jetzt Hate Speech und Fake News?

Bei Hate Speech und Fake News handelt es sich nicht um juristische Begriffe. Hier definiert der Entwurf nun folgende Straftatbestände:

Die Auswahl der Gesetze nicht nachvollziehbar, kritisiert Härting, sie sei dem Versuch geschuldet die schwammigen Begriffe „Hate Speech“ und „Fake News“ abzudecken: „Wieso braucht man die Löschpflicht bei einer Verunglimpfung der Nationalhymne (§ 90a Abs.1 Nr. 2 StGB), nicht jedoch bei einer verfassungsfeindlichen Verunglimpfung der Bundeskanzlerin (§ 90b StGB)?

Fazit

Der Gesetzentwurf ist sehr weit gefasst und betrifft deutlich mehr Dienste als die großen marktdominanten und meinungsbildenden sozialen Netzwerke Facebook und Twitter, die in der bisherigen Debatte immer als Grund für das Gesetz herhalten mussten. In der weiten Definition des Gesetzentwurfes sind auch Messenger wie WhatsApp enthalten. Zudem könnten laut Gesetzestext kommerzielle Maildienstleister sowie Datenspeicherdienste wie Dropbox betroffen sein, selbst wenn das Justizministerium sowohl in der Begründung wie auch uns gegenüber sagt, dass diese nicht darunter fielen. Am Ende zählt aber nur der Gesetzestext.

Würde der Entwurf Gesetz werden, macht man die betroffenen Netzwerke ohne vorhergehende richterliche Überprüfung zu Ermittler, Richter und Henker über die Meinungsfreiheit. Nutzer könnten sich nur noch im Nachhinein gerichtlich gegen eine Löschung ihrer Inhalte wehren. Dass sich die Nutzer prinzipiell gegen Löschentscheidungen wehren können ist gut, doch eine zeitliche Verschiebung bis zum Gerichtstermin kann dazu führen, dass ein Inhalt dann nicht mehr relevant ist.

Gleichzeitig würde das Gesetz zu einer Ausweitung automatischer und gefährlicher Zensurmechanismen führen. Diese können die beanstandeten Inhalte auf der kompletten Plattform aufspüren und löschen, sowie ein erneutes Hochladen verhindern. Diese Filter existierten schon gegen Kinderpornografie und neuerdings gegen nicht näher-definierte „Terrorpropaganda“. Nun werden diese Filter mit dem Gesetzentwurf auf weitere Straftatbestände ausgeweitet.

Die Union hält den Gesetzentwurf übrigens nur für „einen ersten, kleinen Schritt in die richtige Richtung“.