Nach einem Urteil des Europäischen Gerichtshofes muss Facebook ein hetzerisches Post gegen die österreichische Ex-Politikerin Eva Glawischnig entfernen. Der Ruf nach strengem Vorgehen gegen Hass im Netz ist nachvollziehbar, doch das Urteil wirft einige schwierige Fragen auf. Ein Kommentar.

Der Europäische Gerichtshof (EuGH) urteilte gestern über die Entfernung eines Facebook-Posts. Das klingt banal, ist es aber bei Weitem nicht. Das EU-Gericht mischt sich mit seinem Urteil im Fall Eva Glawischnig gegen Facebook in den globalen Streit um Moderation von Inhalten im Netz ein – eine Debatte, die drastische Folgen für die freie Meinungsäußerung haben könnte. Die Richter:innen in Luxemburg förderten in ihrem Urteil zutage, dass der richtige und rechtskonforme Umgang mit Inhalten eine Rechtslücke darstellt.

Worum es geht: Die österreichische Ex-Grünen-Chefin war in einem öffentlichen Post auf Facebook als „miese Volksverräterin“ beschimpft worden, nachdem sie aus der Politik zu einem Glücksspielkonzern wechselte. Ein österreichisches Gericht forderte Facebook zur Entfernung des Posts auf. Da der Konzern sich weigerte, landete die Sache vor dem EuGH.

Das EU-Gericht urteilte nun, Facebook müsse den Post weltweit entfernen, statt ihn etwa nur in Österreich oder im EU-Raum unsichtbar zu machen. Österreichisches Recht gegen Ehrenbeleidigung muss auf der ganzen Welt umgesetzt werden.

Die Anordnung gilt laut dem EU-Gericht auch für andere, die anstößige Inhalte wortgleich weiterverbreiten, etwa per Share-Button. Der EuGH urteilte auch, dass nichts die österreichische Justiz daran hindere, die Entfernung sinngleicher Äußerungen anzuordnen.

Filter verstehen keine Spitzfindigkeiten

Das Gericht setzt mit seinem Urteil einen nachvollziehbaren Schritt hin zur Entfernung eines hetzerischen Kommentars. Doch an diesem Punkt wird es kompliziert. Denn was ist eine sinngleiche Äußerung? Und wie weit muss Facebook gehen, sie zu verhindern?

Das Gericht erinnert daran, dass Urteile Facebook keine Pflicht zur Überwachung aller Inhalte auferlegen dürfe. Und Facebook müsse keine inhaltliche Tiefenanalyse von Texten vornehmen, um sie zu entfernen. Im Urteil heißt es:

Unterschiede in der Formulierung dieses sinngleichen Inhalts im Vergleich zu dem für rechtswidrig erklärten Inhalt dürfen jedenfalls nicht so geartet sein, dass sie den Hosting-Anbieter zwingen, eine autonome Beurteilung dieses Inhalts vorzunehmen.

Facebook soll also sinngleiche Äußerungen entfernen, ohne ihren Inhalt zu beurteilen. Der Betreiber eines Dienstes könne ja zum Entfernen solcher Inhalte auf „automatisierte Techniken und Mittel zur Nachforschung zurückgreifen“, also etwa Content-Filter.

Nun wissen alle, die schon mal mit Sprachassistenten, Uploadfiltern oder mit anderen durch maschinelles Lernen geschulten Systemen zu tun hatten, dass solche Technologie keinesfalls in der Lage ist, zuverlässig „sinngleiche“ Inhalte zu erkennen. Damit haben schon Menschen Schwierigkeiten, denn oft ist es eine Auslegungsfrage.

Das Urteilt spricht davon, dass Plattformen Inhalte mit „EDV-gestützten Hilfsmitteln“ durchsuchen könnten. Eine aktive, nicht-automatisierte Filterung sei nicht nötig. Das heißt also, die Plattformen sollen gar nicht erst versuchen, quasi von Hand zu sichten, sondern die Entscheidung, was falsch und was richtig ist an Maschinen abschieben. Das birgt große Gefahr für die freie Meinungsäußerung.

Der Ruf nach Entfernung sinngleicher Inhalte eröffnet zudem ein sprachliches Problem: Eine „miese Volksverräterin“ ist von der Tonlage gehässig und bösartig, doch lassen sich mitunter Formulierungen finden, die sinngleich sind, ohne notwendigerweise ehrenrührig zu sein. Was, wenn das Post Glawischnig als „üble Überläuferin“ beschimpft hätte?

Die Frage nach „sinngleichen“ Äußerungen offenbart den problematischen Kern des Urteils: Wer darüber entscheidet, was sinngleich ist und was nicht, der schwingt sich zum Gericht über die Meinungsfreiheit auf.

Facebook reguliert die Meinungsfreiheit

Diese Aufgabe delegieren wir bereits zu einem erschreckenden Maße an Facebook. Facebook und andere soziale Netzwerke moderieren jeden Tag Millionen an Posts, Videos und sonstiger Inhalte. Die Netzwerke haben sich dafür eigene Regelbücher zurecht gelegt, im Fall von Facebook handelt es sich um die „Gemeinschaftsstandards“.

Der Konzern schiebt damit die gesetzlichen Rahmenbedingungen, welche Inhalte illegal und welche bloß unerwünscht sind, völlig beiseite. Fast alle Löschungen von Inhalten trifft Facebook auf Basis seiner eigenen Regeln. Facebook verbannte etwa weltweit jede Form sexueller Anbahnung von seiner Plattform – ein ungeahnter Eingriff in die Freiheit aller Nutzer:innen.

In der Praxis lagert Facebook die Moderationsarbeit zudem an unterbezahlte Hilfskräfte aus, die in den Philippinen und auch in Deutschland Moderations-Akkordarbeit leisten. Für diese wichtige Arbeit gibt es so gut wie keine Kontrolle von außen.

Einige Moderationsentscheidungen sind so schwierig und umstritten, dass Facebook sogar ein eigenes „Höchstgericht“ geschaffen hat, an das es besonders heikle Fälle auslagern kann. Das beunruhigt Jurist:innen, denn mit seinem „Gericht“ verleiht Facebook seiner de-facto-Rolle, über freie Rede im Netz zu entscheiden, ein Stück mehr Legitimität.

Staaten versuchten sich zuletzt immer wieder an Gesetzen gegen Hass im Netz. Deutschland schuf das NetzDG, dass unter hohen Strafandrohungen die rasche Löschung „rechtswidriger Inhalte“ vorschreibt. Frankreich zog in diesem Sommer nach. Doch beide Gesetze liefern kaum Hinweise, wie Diensteanbieter im Netz ihre Inhalte richtig moderieren sollen. Die Gesetze tun wenig dafür, legitime Meinungen vor ungerechtfertigter Löschung zu schützen.

Der EuGH spricht die Rechtslücke selbst an. Im Urteil heißt es dazu:

Bestehende und sich entwickelnde Unterschiede in den Rechtsvorschriften und der Rechtsprechung der Mitgliedstaaten hinsichtlich der Verantwortlichkeit von Diensteanbietern, die als Vermittler handeln, behindern das reibungslose Funktionieren des Binnenmarktes, indem sie insbesondere die Entwicklung grenzüberschreitender Dienste erschweren und Wettbewerbsverzerrungen verursachen.

Neues EU-Gesetz soll Abhilfe schaffen

Die neue EU-Kommission unter der designierten Präsidentin Ursula von der Leyen könnte Abhilfe schaffen. Die Kommission möchte einen „Digital Services Act“ schaffen, der Plattformen umfassend regulieren soll. Laut einem geleakten Arbeitspapier soll er auch Regeln für die Inhalte-Moderation schaffen. Bisher verlässt sich die Kommission im Kampf gegen Hetze auf einen freiwilligen Verhaltenskodex für die Plattformen.

Das neue Gesetz müssten mehrere Probleme lösen, die sich durch Inhalte-Moderation auf den Plattformen stellen. Es ist ein heikles Manöver, denn der Schutz vor Hass und Hetze darf nicht das Recht auf freie Meinungsäußerung und die Pressefreiheit aushebeln.

Ein EU-Gesetz sollte zum einen sicherstellen, dass die Entscheidungen auf transparente Art getroffen werden und es eine Art gesellschaftlicher Kontrolle über den Prozess gibt. Facebook darf nicht alleiniger Richter für die Meinungsfreiheit sein.

Wie diese Kontrolle sich genau herstellen lässt, ist noch offen. Gedanken gemacht hat sich zuletzt die Grünen-Abgeordnete Alexandra Geese in einem Gastbeitrag für das Handelsblatt. „Der ‚Digital Services Act‘ ist die Chance, europaweit angemessene Beschwerdemechanismen, ordnungsgemäße Verfahren und Rechtsbehelfe einzuführen“, schreibt Geese. Sie bringt etwa die Schaffung unabhängiger Presseräte für heikle Moderationsentscheidungen ins Spiel.

Die Inhaltemoderation sollte nicht an automatisierte Entscheidungssysteme und Filter ausgelagert werden. Facebook-Chef Mark Zuckerberg hat im Vorjahr bei seiner Anhörung im US-Kongress immer wieder die Absicht geäußert, längerfristig alle Moderationsentscheidungen an KI-System auszulagern. Doch besonders die sensible Abwägung in Einzelfällen, ob ein Kommentar oder ein Bild eine Form der freien Meinungsäußerung ist, sollte nicht von Filtern, sondern von Menschen getroffen werden.

Menschliche Moderatoren sollten gut ausgebildet und ausreichend gezahlt werden – das ist von hochprofitablen Konzernen durchaus zu erwarten. Moderationszentren mit Sweatshop-Bedingungen, wie sie Hans Block in der Dokumentation „The Cleaners“ zeigt, sind bizarre Auswüchse eines globalen Konzerns, den scheinbar niemand zur Verantwortung ziehen will.

Am Schluss bleibt ein Kernproblem des heutigen Internets: Facebook, Youtube und andere Plattformen sind kein öffentlicher Raum, sondern gehören den digitalen Großgrundbesitzern des privatisierten Internets. Diese Plattformen spielen als Eigentümer wohl immer eine entscheidende Rolle darin, über Fragen der Netzfreiheit zu entscheiden, solange Milliarden an Nutzer:innen von ihnen abhängig sind.

Die großen, marktdominanten Plattformen können nicht als privat betrachtet werden, solange wichtige Teile der öffentlichen Debatte sich dort abspielen. Nicht zuletzt deshalb tat Facebook zuletzt kund, dass es hetzerische Kommentare von Politiker:innen nicht von seiner Plattform entfernen werden. Wie mit dem öffentlichen Charakter privater Infrastruktur umgegangen werden soll, dafür gibt es allerdings noch keine tragfähigen Konzepte.

Solange wir darauf keine Antwort finden, sei es durch technische Lösungen wie Interoperabilität von Online-Diensten oder sogar neue wirtschaftliche Modelle und kollektive Plattformen, müssen wir weiter gegen die Interessen von Konzernen und die Begehrlichkeiten von autoritären Staaten mühselig um Meinungsfreiheit und gesellschaftliche Mitbestimmung im Internet ringen.