Hiesige Medienwächter wollen gerade in der beginnenden Wahlkampfzeit nicht länger machtlos zuschauen, wie sich Fake News über soziale Netzwerke verbreiten. Eine Befugnis, bei Verstößen gegen die redaktionelle journalistische Sorgfalt tätig zu werden, "haben wir derzeit nur für klassische Rundfunkanbieter", erklärte der neue Direktor der Landesanstalt für Medien NRW (LfM), Tobias Schmid, am Mittwoch auf einem Podium zur politischen Meinungsbildung in Facebook & Co. in Berlin. Angesichts der "hohen Reichweite und Suggestivkraft" einzelner Telemedien wäre eine Möglichkeit nicht unklug, auch dort zu intervenieren.

Deutsche Rechtsordnung geltend machen

Dass der Gesetzgeber den Kontrolleuren ein solches Schwert noch nicht in die Hand gegeben habe, liegt laut dem früheren RTL-Medienpolitikchef wohl daran, dass journalistische Angebote im Netz nah an der Tagespresse gesehen würden, die "frei ist von jedem staatlichen Einfluss". Schon heute müssten Plattformanbieter wie Google oder Facebook aber den Regulierern helfen, das Recht durchzusetzen. Sie seien etwa gehalten, Informationen über einzelne Nutzer zu liefern.

Derzeit formierten sich die Aufsichtsbehörden und die Staatsanwaltschaften, um insbesondere gegen Hate Speech in sozialen Netzwerken strikter vorzugehen, führte Schmid aus. Sie klärten die Zuständigkeiten und die Verfahren, um auch bei internationalen Anbietern etwa aus Kalifornien die deutsche Rechtsordnung bei allgemeinen Straftaten geltend zu machen. "Wer droht, zum Rassenhass aufruft oder Extremismus äußert", müsse sich bewusst machen, "dass man solche Dinge nicht sagen darf". Prinzipien wie Menschenwürde und Jugendschutz gälten weiter, "auch wenn sich die Medien ändern".

Selbstkontrolle lässt nötige Transparenz vermissen

"Facebook ist ein Faktor der Meinungsbildung, der steigt", ergänzte Thomas Fuchs, Technik-Koordinator der Direktorenkonferenz der Landesmedienanstalten (DLM). Jede extremistische Hassäußerung im Netz stelle zugleich einen Jugendschutzverstoß da, sodass an dieser Stelle ein Hebel für die Medienwächter schon vorhanden sei. Die länderübergreifende Institution jugendschutz.net stehe so in ständigem Kontakt mit Facebook, wenn es darum gehe, hierzulande rechtswidrige Äußerungen zu löschen.

Die Politik könnte zudem auch mit einer kleinen Änderung des Telemediengesetzes dafür sorgen, dass die Medienanstalten klar für Fake News verantwortlich würden und als "Ansprechpartner bei Rechtsverletzungen im Netz" dienen könnten, sagte Fuchs. Die Kontrolleure müssten derlei neue Funktionen aber "bundesweit gebündelt wahrnehmen" und mit einer Stimme sprechen. Wer sonst käme als Schiedsrichter über Nachrichten in Frage, gab Fuchs zu bedenken. Würde die Regierung hier direkt tätig werden, sei schnell von einem "Wahrheitsministerium" die Rede; eine reine Selbstkontrolle der Netzwerke ließe die nötige Transparenz vermissen.

Wundertüte an betroffenen Grundrechten

Martin Drechsler von der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) warnte dagegen davor, "hektisch zu regulieren". Vielen Facebook- oder Twitter-Nutzern sei inzwischen bewusster geworden, dass man sich "nicht wie die Axt im Walde benehmen kann". Er warnte vor einer Zensur sozialer Netzwerke und von Online-Foren: "Wenn wir versuchen, die Lautsprecher abzuschalten, öffnen wir die große Wundertüte an betroffenen Grundrechten." Die Gratwanderung sei oft eng. Social Bots etwa imitierten partizipative Prozesse nur und könnten so ein Risiko für die Meinungsfreiheit darstellen. Andererseits seien deren Grenzen nur erreicht, wenn es um Schmähkritik, bewusst unwahre Behauptungen oder Gesetzesverstöße gehe.

Aktuelle Forschungsergebnisse zum Thema des Abends brachte die Mainzer Kommunikationswissenschaftlerin Birgit Stark ein. Ihr Institut hat im September 355 Personen 14 Tage lang online nach den als besonders wichtig wahrgenommenen politischen Themen und Quellen der Information befragt. Die Ergebnisse seien repräsentativ für die Bundesbürger, meinte Stark. 69 Prozent hätten demnach Offline-Medien als besonders maßgebend für ihre Meinungsbildung bezeichnet, 59 Prozent das Internet allgemein mit verschiedenen Nachrichtenmagazinen und weiteren Ablegern traditionellen Medien, 52 Prozent persönliche Gespräche.

Weder Filterblase noch Echokammer

Google und Facebook folgten der Forscherin zufolge mit deutlichem Abstand mit 34 beziehungsweise 18 Prozent. Als wichtige Informationsquelle hätten Facebook 13,5 Prozent zu Flüchtlingen, 5,7 Prozent zur AfD eingestuft. Parallel erschien 13,6 beziehungsweise 7,1 Prozent der Befragten das soziale Netzwerk aber als unwesentlich bei beiden Themen.

"Das regelmäßig genutzte Informationsrepertoire ist generell sehr breit", interpretierte stark die Resultate. "Facebook ist eine Zusatzquelle, verändert aber teils die wahrgenommene Wichtigkeit einzelner Themen". Nutzer des Netzwerk fühlten sich allgemein besser informiert, ausschlaggebend sei dafür aber ihr persönliches Interesse.

Insgesamt sieht die Expertin so bei Facebook "die Voraussetzungen für eine Filterblase" und darauf aufbauende Echokammern derzeit nicht gegeben. Auf dem Netzwerk steige aber rasch "der Eindruck von Polarisierung" und es bestünde die Gefahr "bewusster Desinformationskampagnen" etwa über Bots. Lügen könnten so rasch nach oben kommen. Online-Plattformen lösten generell indirekte Effekte durch "Aktualitätssignale" und "Medienhypes" in Form gesteigerter Aufmerksamkeitsspiralen aus. Man denke dadurch auch häufiger, "man ist in der Mehrheitsmeinung".

"Facebook und Google sind keine neutralen Plattformen", legte Jan-Hinrik Schmidt vom Hamburger Hans-Bredow-Institut für Medienforschung einen etwas anderen Schwerpunkt. Sie strukturierten Kommunikation durch ihre Algorithmen wirkmächtig. Dabei würden "all unsere Aktivitäten in hohem Maße verdatet", sodass durchaus Filterblasen entstehen könnten. Es bestehe das Potenzial, "dass man eingeengt wird in seiner Sicht". Gefährlich an Echokammern sei vor allem, "wenn Menschen sich immer weiter radikalisieren oder sich in Verschwörungstheorien verstricken und die Wirklichkeit gar nicht mehr zur Kenntnis nehmen". (kbe)