Ist es richtig, dass große Online-Plattformen Beiträge schon beim Verdacht auf Terror-Propaganda löschen müssen? Diese Aufnahme stammt aus einem Youtube-Video, das mutmaßliche Mitglieder der nigerianischen Terrorgruppe Boko Haram zeigt (Archivbild).

Im Kampf gegen Terror-Propaganda will die EU Plattformen wie Youtube zwingen, mehr Inhalte zu löschen. Doch deren Algorithmen sind zu dumm für die Komplexität der Welt.

Von Michael Moorstedt

Es gibt ein paar Gewissheiten, auf die man sich lange Zeit schnell einigen konnte. Dazu zählt etwa folgender Dreisatz: Das Internet sieht alles, das Internet vergisst nichts, und was einmal online gestellt wird, verschwindet von dort auch nicht wieder.

Leider liegt es in Natur von Gewissheiten, dass sie sich auch ändern können.

Wenn, wie in den vergangenen Wochen in Hongkong geschehen, Polizisten mit Schlagstöcken und Tränengas den Protest von Bürgerrechtlern bekämpfen, bekommt man davon zwar in den vermeintlich alten Medien zu hören. Im sozialen Netz stellt sich die Lage allerdings ein wenig differenzierter dar.

Die Macher von mehreren Youtube-Kanälen, die sich dem Protest widmen, geben an, dass ihre Videos von Youtube demonetarisiert wurden. Das bedeutet, dass sie von der Möglichkeit, Werbung in ihren Beiträgen einzublenden, ausgeschlossen wurden. Das ist aus zwei Gründen problematisch. Erstens weil die Bürgerjournalisten für ihre gefährliche Arbeit nicht entlohnt werden. Und zweitens, weil die Vermutung besteht, dass demonetarisierte Videos vom Suchalgorithmus der Plattform benachteiligt werden. Genau kann das niemand sagen, weil Youtube es nicht offenlegt. Es wäre jedoch nicht abwegig, schließlich behält der Konzern einen guten Teil des Werbeumsatzes für sich und hat deshalb Interesse daran, dass vor allem die Videos geguckt werden, die Einnahmen generieren.

Liest man sich die Youtube-Regeln durch, in denen steht, welche Videos würdig sind, mit Werbung versehen zu werden, erkennt man schnell viele strikte Vorgaben. Keine "werbefreundlichen Inhalte" sind etwa "hasserfüllte Inhalte", nicht jugendfreie Videos und Szenen, die Alkohol, Tabak und Schusswaffen zeigen, aber eben auch "kontroverse Themen und heikle Ereignisse". Dazu zählt der Protest in Hongkong ohne Zweifel.

Die Gründe dafür liegen auf der Hand. Kein Unternehmen möchte seine Produkte in fragwürdigem Umfeld angepriesen sehen. Doch der jüngste Fall ist nicht das erste Mal, dass die Sanktions-Richtlinien der großen Internetplattformen zu einem Dilemma führen.

99 Prozent der gelöschten Inhalte hat nie ein Mensch zur Prüfung vorgelegt bekommen

Schon seit längerer Zeit beklagen Menschenrechtsorganisationen, dass nicht nur Terrorpropaganda von den Plattformen gelöscht wird, sondern auch Videos, die zwar niemand sehen will, die jedoch notwendigerweise im visuellen Gedächtnis der Menschheit erhalten bleiben müssen. Szenen von Erschießungen in Libyen ebenso wie von Giftgasangriffen in Syrien. Wichtige Beweise, Dinge, die sonst nie an die Öffentlichkeit gelangt wären. Doch diese Bilder werden ebenso gelöscht wie tumbe IS-Rekrutierungsvideos.

Es hat sehr lange gedauert, bis die großen sozialen Netzwerke ihre Verantwortung anerkannt haben. Glücklich sind sie damit immer noch nicht. Aber sie haben sich mit der einzigen Methode beholfen, die sie kennen: mit Automatisierung. Laut eigenen Angaben hat Youtube im vergangenen Jahr knapp 33 Millionen Videos gelöscht, das sind mehr als 90 000 jeden Tag. Facebook hat in einem ähnlichen Zeitraum etwa 15 Millionen Inhalte wegen des Verdachts auf Terrorpropaganda gelöscht. Im ersten Quartal des vergangenen Jahres wurden mehr als 99 Prozent dieser Inhalte von Maschinen gelöscht, also ohne dass je ein Mensch sie beurteilt hätte.

Was ist ein Propaganda-Video und was ein notwendiges Dokument der Zeitgeschichte? Was ist ein Kriegsverbrechen und was nur ein "heikles Ereignis"? Selbstverständlich scheitern die Löschalgorithmen von Youtube, Facebook und Twitter an solchen Fragen. Das massenhafte Keulen von kontroversen Inhalten ist also nicht die Lösung.

Und doch plant die EU für kommenden Herbst die Verabschiedung der sogenannten Verordnung zur "Verhinderung der Verbreitung terroristischer Online-Inhalte". Die neue Regelung soll die Online-Konzerne dazu verpflichten, von offizieller Stelle entdeckte und gemeldete Terrorpropaganda innerhalb einer Stunde zu löschen. Bei Verstößen würden den betroffenen Unternehmen Bußgelder in Höhe von bis zu vier Prozent ihres globalen Jahresumsatzes drohen. Die einzige Folge davon wird sein, dass sie noch rigoroser löschen. Die Lösung, die das Problem eigentlich eindämmen soll, verkompliziert es also in Wahrheit. Es gibt keine Gewissheiten mehr.