Wir haben vier große Tageszeitungen befragt – das Ergebnis: Moderation beruht auf individuellen Entscheidungen, Facebook ist herausfordernder als die eigenen Seiten und Lösch-Statistiken gibt es wenige. Einig sind sich alle darüber, dass sie den Kommentarbereich zu einem Ort machen wollen, in dem sich die Lesenden wohlfühlen und eine sachliche Debatte stattfindet.

Bislang dreht sich ein großer Teil der Diskussion um den Verfall der Debattenkultur, Hate Speech und Hetze darum, wie Facebook mit dem Problem umgeht. Das Unternehmen zeigt sich jedoch weiterhin verschlossen und legt nicht offen, wie es moderiert.

Wir haben deswegen bei zehn großen deutschen Tageszeitungen und Onlinemedien angefragt, wie sie intern ihre Moderation organisieren. Vier von ihnen haben uns geantwortet: Sueddeutsche.de, taz.de, Zeit Online und Spiegel Online. Keines der Portale nutzt externe Dienstleister für die Moderation von Kommentaren. Alle bis auf sueddeutsche.de bieten den Lesern die Möglichkeit, Kommentare der Moderation zu melden.

Uns interessierten dabei folgende Themen: Gibt es festgeschriebene Moderationskriterien? Wie ist der Unterschied zwischen Kommentaren auf der eigenen Seite und denen auf Facebook? Gibt es Statistiken über gelöschte Kommentare? Gibt es Strategien, wie die Debattenkultur besser werden kann? Und was passiert eigentlich mit strafrechtlich relevanten Kommentaren?

Netiquette und Erfahrungswerte statt festgelegter Moderationskriterien

Wir fragten nach: Gibt es ein Handbuch, an dem sich Moderatorinnen und Moderatoren orientieren, in dem bestimmte Wörter, Phrasen oder Verhaltensweisen gesammelt sind, die zu einem Löschen von Kommentaren führen?

So etwas gibt es nicht. Sueddeutsche.de, Zeit Online, Spiegel Online und taz.de haben keinen festgeschriebenen internen Kriterienkatalog, der eine Moderation definiert. Grundlage für die individuelle Moderationsentscheidung ist aber immer die jeweils geltende und öffentlich einsehbare Netiquette (taz.de, Sueddeutsche.de, Spiegel Online, Zeit Online) gepaart mit den Erfahrungen der Moderatoren.

Dabei spielt die Zusammenarbeit der Moderatoren eine große Rolle. Bei kniffligen Entscheidungen werden Kollegen gefragt: „Wir machen viel nach Gefühl im Vier-Augen-Prinzip. Es ist schwer objektivierbar, was uns z. B. als Verschwörungstheorie zu bunt wird oder gerade noch durchgeht, oder wann es uns bei einem User reicht und wir ihn auf Moderation setzen“, sagt Anna Böcker von der taz. Bei der taz gibt es für neue Moderatoren jedoch eine kurze Liste, wie sie bei bestimmten Kommentaren verfahren sollen. Für die Zukunft ist eine weitere Verschriftlichung der Moderationskriterien und Guidelines geplant.

Martin Kotynek, stellvertretender Chefredakteur von Zeit Online, sagt: „Bei uns gibt es keine niedergeschriebenen Regeln, wie wir in festgelegten Situationen moderieren. Unsere ModeratorInnen orientieren sich an der Netiquette und entscheiden in jedem Einzelfall – auf der Basis ihrer eigenen Erfahrungswerte und des Kontextes der Debatte.“

Das sagt auch Daniel Wüllner, Teamleiter Social Media und Leserdialog von der SZ: „Die Moderation richtet sich nach der öffentlichen Netiquette, es gibt keine internen Moderationsregeln. Neue Mitarbeiter werden eingeführt, bis sie ein Gefühl dafür haben.“

Michael Grabowski von Spiegel Online verweist auf den menschlichen Faktor: „Bei der Moderation von Facebook-Artikeln reden Menschen mit Menschen, Social-Media-Redakteure mit Nutzern. Viele Entscheidungen beruhen auf Erfahrung, Bauchgefühl und einer persönlichen Einschätzung. Dabei spielt der individuelle Humor, die eigene Persönlichkeit, die eigene Haltung zum Thema immer auch eine Rolle – auch wenn das Ziel ist, mit einer Stimme und konsistent zu kommunizieren. Der eine Redakteur entscheidet bei der Moderation vielleicht so, der nächste hätte es anders gemacht.“

Umgang mit Counterspeech

Unter Counterspeech versteht man den Versuch, Hasskommentaren mit Gegenrede zu begegnen. Im Idealfall hat ein Forum eine gute Kultur der Gegenrede, die dazu führt, dass gar nicht erst viel moderiert werden muss. Manche Medien haben in letzter Zeit mit pointierten Kontern die Hetzer aufs Korn genommen. Die Ansätze zu Counterspeech werden von den befragten Medien unterschiedlich bewertet:

„Spiegel Online versucht, Counterspeech zu stärken, indem etwa konstruktive Kommentare geliket werden, damit sie in der Kommentaransicht prominent angezeigt werden. Punktuell beantworten wir auch eben diese Kommentare, um konstruktiven Aussagen zusätzlichen Wert und Sichtbarkeit zu geben“, sagt Michael Grabowski von Spiegel Online. Auf kritische und sachliche Kommentare, Fragen und Anmerkungen antworte das Social-Media-Team. Mit klaren Aussagen, weiterführenden Links oder auch mal einem pointierten Konter. Wichtig dabei sei, so Grabowski: „Wir wollen Nutzer nicht persönlich bloßstellen oder abschätzig behandeln.“

Daniel Wüllner von der Süddeutschen sieht manche Formen von Counterspeech kritisch: „Wir wollen Lesern zuhören statt sie an den Pranger zu stellen.“ Zudem würden nach seiner Erfahrung die Selbstreinigungskräfte beschnitten, je mehr die Moderation selbst eingreife. Counterspeech würde dann erschwert.

Umgang mit strafrechtlich relevanten Inhalten

Der Umgang mit strafrechtlich relevanten Inhalten ist bei den befragten Medien sehr unterschiedlich. Bei Spiegel Online kann schon mal die Rechtsabteilung ins Spiel kommen: „Strafrechtlich relevante Kommentare – soweit wir diese als solchen identifizieren können – übergeben wir der Rechtsabteilung/Chefredaktion zur Einschätzung und Entscheidung über weitere Verfahrensweisen.“

Anders machen es taz und Zeit Online. Anna Böcker von der taz erklärt: „Wir haben so etwas noch nie zur Anzeige gebracht. Das hat auch damit zu tun, dass wir nicht gerne Polizei in den Redaktionsräumen haben.“ Auch bei Zeit Online werden strafrechtlich relevante Kommentare einfach nur gelöscht und nicht zur Anzeige gebracht.

Statistiken: Wieviel wird eigentlich gelöscht?

Nachdem sich der Guardian in einem viel beachteten Stück seine Leserkommentare analysiert hatte, wollten wir wissen, wie es hierzulande mit der Statistik aussieht.

Richtige Statistiken über gelöschte Kommentare führt die SZ nicht. Wüllner geht aber davon aus, dass vor 2014 etwa zehn Prozent der Kommentare gelöscht wurden. Seit der Umstellung auf Themenforen und der Abschaltung der Kommentarspalte unter jedem Artikel schätzt er die Rate auf weniger als fünf Prozent auf der eigenen Seite.

Die taz hingegen führt darüber Statistiken, wie groß der Anteil der gelöschten oder versteckten Kommentare ist: „Im Juli haben wir z.B. 24 Prozent der Kommentare gehidet, im Monat davor 19 Prozent“, sagt Anna Böcker. Das sind recht hohe Zahlen, wenn man bedenkt, dass beim Guardian die Löschquote bei nur etwa zwei Prozent liegt. Gründe für diese hohe Quote könnten unter anderem sein, dass die taz Themen wie Migration und Gender stark abdeckt und sich rechte Hetzer schon seit Jahren auf die taz als „linksgrün-versifftes Zentralorgan“ eingeschossen haben.

Zeit Online hat keine Statistiken, setzt aber im Gegensatz zu den anderen auf Moderationstransparenz: Gelöschte Kommentare werden als solche gekennzeichnet, zusätzlich wird der Grund angegeben, warum ein Kommentar gelöscht oder geschwärzt wurde. Oftmals mit einem Hinweis auf die Netiquette.

Auch Spiegel Online führt keine Statistiken darüber, wieviele der Kommentare gelöscht werden: „Die Fragmentierung der Plattformen ist so groß, dass eine systematische Erfassung aller Kommentare zurzeit nicht sinnvoll erscheint. Wir erfassen aber punktuell Kommentare in Form von Screenshots oder Dokumenten, auch um Feedback in die Redaktion geben zu können oder Nutzerkommentare aufgreifen und auswerten zu können. Das entspricht keiner systematischen Statistik, dient aber dem Überblick, dem Briefing und vor allem der Verbesserung unserer Arbeit.“

Strategien, um eine sachliche Debattenkultur zu fördern

Wie lässt sich also eine Diskussion im Netz in Richtung fairer, sachlicher und konstruktiver Umgangsweise drehen? Wie lässt sich redaktionell das Abgleiten in Hass und Hetze vermeiden? Dazu gibt es unterschiedliche Ansätze.

Daniel Wüllner von der SZ sagt: „Wichtig ist bei allen Themen, dass Metadiskussion und Ansätze, die die Diskussion nicht weiterführen, verhindert werden. Sachliche und informative Leserbeiträge sollen gefördert werden.“ Metadiskussionen und artikelfremde Debatten sind ein Phänomen, dass wir bei netzpolitik.org auch immer wieder beobachten. Oftmals gleiten die Diskussionen dann ab – und haben mit dem darüberstehenden Artikel nichts mehr zu tun.

Ein anderes Feld ist die Verbreitung der eigenen Inhalte auf anderen Kanälen. Bei Spiegel Online versucht man, bestimmte Artikel bei Facebook anders aufzumachen und anzuteasern: „Gerade bei Facebook ist das Social-Team darum bemüht, bei schwierigen Themen die Zeilen der Artikel gegebenenfalls anzupassen. Bei Facebook besteht immer die Gefahr, dass Artikel (ohne sie gelesen zu haben) geteilt werden, um etwa Hetze zu verbreiten. Dem versuchen wir durch klare Formulierungen entgegenzuwirken.“

Diese Strategie steht diametral zur Praxis der Huffington Post, die auf Facebook die Teaser in Richtung Hetze frisierte, um Klicks zu generieren.

Facebook-Kommentare sind anstrengender

Einige der befragten Medien schalten bei Themen wie Migration, Gender und dem Nahost-Konflikt auf ihrer Seite aufgrund der erwartbaren Entgleisungen die Kommentarfunktion ab. Bei Facebook ist dies nicht möglich, außer man postet den Artikel gar nicht. Aber wie ist eigentlich der Unterschied zwischen Kommentaren auf den eigenen Seiten und unter den Postings auf Facebook?

Generell sei die Diskussionskultur in den eigenen Foren der SZ besser als auf Facebook, sagt Daniel Wüllner. In diesen Foren seien vor allem die SZ-Leser unterwegs, während bei Facebook eben alle möglichen Leute hereinspaziert kämen.

Das sieht auch Anna Böcker, zuständig für die Community bei der taz, so: „Insbesondere auf Facebook bekommen wir eine große Menge an Hetzkommentaren.“ Priorität bei der Moderation sei es, der Hetze ein möglichst kleines Forum zu geben. Deswegen sperre die taz klar rechtsextreme Profile ohne Vorwarnung. Meldungen bei Facebook mache die taz nicht, weil das sowieso nichts bringe.

Michael Grabowski von Spiegel Online will bei Facebook den Moderationsaufwand im Auge behalten: „Weil, speziell auf Facebook, jeder Artikel, der gepostet wird, kommentierbar ist, achtet das Social-Team darauf, dass es den Moderationsaufwand im Zweifel auch leisten kann. Das heißt konkret: Wenn ein Artikel erwartbar einen hohen Moderationsaufwand nach sich zieht, das Team diesen Aufwand aber nicht leisten kann, wird genau abgewogen, ob der Artikel aus Relevanz oder Aktualitätsgründen jetzt gepostet werden muss oder zeitlich verschoben werden kann.“

Fazit: Mehr Transparenz ist wünschenswert

Bei der Moderation dieser vier wichtigen deutschen Online-Medien spielen Algorithmen und feste Moderationsregeln – außer der Netiquette – also keine Rolle. Vielmehr stehen hinter jeder Löschentscheidung Menschen, die sich Gedanken darüber machen, wie sie eine Atmosphäre schaffen, bei der alle Leser Lust haben zu kommentieren – und nicht von der scheinbaren Dominanz gewaltförmiger Kommentare abgeschreckt werden. Was von manchen als Zensur wahrgenommen wird, ist der Versuch, eine Diskussionskultur zu fördern, in der sich alle wohlfühlen und an der Sache diskutieren. Dass die Moderatorinnen und Moderatoren dies mit Liebe zum Job tun, hat übrigens zuletzt dieses Gespräch im Zeit Magazin ganz schön gezeigt.

Kritisch anzumerken bleibt, dass es generell an Transparenz in der Moderation fehlt. Nur Zeit Online macht die Löschgründe für alle Leser direkt am Kommentar transparent. Richtige Statistiken über die Anzahl der Löschungen werden nur bei der taz geführt, aber auch dort nicht den Lesern kommuniziert. Da das Löschen von Kommentaren ein sensibles Thema ist, wären Transparenzberichte wünschenswert. Aus ihnen sollte im Idealfall hervorgehen, wieviel und aus welchen Gründen gelöscht wird. Das erfordert jedoch technische Lösungen, die das auch abbilden können. Die Schwierigkeiten von Moderation sehen wir auch selbst bei netzpolitik.org, wo die Dinge sehr ähnlich laufen wie bei den befragten Online-Medien, mit dem Unterschied, dass hier die Autorinnen und Autoren alle Kommentare unter ihren Artikeln selbst lesen.

Eines ist klar: Die Moderation privatwirtschaftlicher Webseiten ist wie das Hausrecht des Gastgebers, der selbst bestimmen kann, wen er am Tisch haben will und wen nicht. Komplizierter wird es, wenn privatwirtschaftliche Plattformen eine solche Dominanz und Durchdringung wie Facebook entfalten. Aufgrund der Monopolstellung und dem Plattformcharakter können Moderation und staatliche Einmischung hier schnell zur Zensur werden. Dies gilt insbesondere dann, wenn die Löschung von nicht strafrechtlich relevanten Kommentaren gefordert oder eine Privatisierung von Zensur von staatlicher Seite forciert wird.

Artikel und Recherche sind eine Gemeinschaftsproduktion von Markus Reuter und Ingo Dachwitz.