Denise Bergert

Facebook will mit neuen Methoden gegen terroristische und extremistische Inhalte im sozialen Netzwerk vorgehen.

Vergrößern Facebook will terroristischen Inhalten keinen Platz einräumen. © Facebook

Auf Facebook gibt es keinen Platz für Terrorismus. Diese Prämisse unterstreicht das soziale Netzwerk in einem aktuellen Blog-Beitrag. Monika Bickert, Director of Global Policy Management, und Brian Fishman, Counterterrorism Policy Manager, erklären darin, mit welchen neuen Methoden Facebook künftig gegen extremistische und terroristische Beiträge vorgehen will.

So soll beispielsweise eine künstliche Intelligenz Extremisten davon abhalten, ihre Bilder und Videos bei Facebook hochzuladen. Dafür scannt die AI eine Datenbank mit Inhalten, die bereits gekennzeichnet und gelöscht wurden. Neue Tools sollen außerdem Gruppen, Profile und Beiträge nach Lobgesängen auf terroristische Aktionen durchsuchen. Diese Methode soll verhindern, dass sich Extremisten, deren Account gelöscht wurde, immer wieder neu anmelden und ihre Propaganda weiterhin verbreiten können.

Menschliche Moderatoren sollen im Gegenzug sicherstellen, dass die künstliche Intelligenz nicht versehentlich zulässige Inhalte entfernt. Als Beispiel nennen Fishman und Bickert das Foto eines bewaffneten Mannes, der eine IS-Fahne schwenkt. Dabei kann es sich sowohl um Propaganda als auch um einen Nachrichten-Beitrag handeln. Diesen Unterschied sollen die Facebook-Moderatoren erkennen. Wie gefährlich ein Moderatoren-Job bei Facebook sein kann, zeigt der jüngste Skandal im Social-Network .

Plattformen wie Facebook, YouTube und Twitter sind in der EU gezwungen, Hasskommentare zu löschen. 2015 wurde stichprobenartig geprüft , wie gut die Unternehmen dieser Auflage nachkommen. Das Ergebnis: YouTube schneidet wesentlich besser ab als Facebook. Das Videoportal löscht 90 Prozent der gemeldeten Inhalte, 82 Prozent davon innerhalb der ersten 24 Stunden. Bei Facebook werden nur 39 Prozent gelöscht, 33 Prozent davon innerhalb von 24 Stunden.