Facebook verstärkt den Kampf gegen Hass und Extremismus in seinen Diensten, dazu gehört auch Instagram. Terroristische Gruppen sollen schneller gefunden werden. In den vergangenen zwei Jahren seien 26 Millionen Inhalte proaktiv gelöscht worden, also bevor sie gemeldet wurden. Das mache 99 Prozent aller entfernten Beiträge aus. Zudem fallen inzwischen auch Gruppierungen der "Weißen Nationalisten" unter Extremismus und Hass. Mit "Weiße Nationalisten" wird in den USA ein radikales bis rassistisches Milieu bezeichnet, das große Überschneidungen mit nationalistischen Separatisten und Suprematisten aufweist.

Auslöser für die Maßnahmen ist unter anderem das Attentat von Christchurch. Der Angreifer hatte seine Tat live bei Facebook gestreamt. "Das Attentat hat eine Lücke in unseren technischen Sicherheitsstandards aufgezeigt", schreibt Facebook. Die KI-gestützten Systeme sollen keinen Alarm geschlagen haben, weil sie bis dato nicht mit Inhalten von Gewaltakten aus der Ich-Perspektive trainiert worden waren. Nun füttert Facebook sie mit Videos aus Schusswaffenübungen von Sicherheitsbehörden. So sollen sie auch die Unterscheidung zwischen realen und fiktiven Inhalten lernen, also etwa erkennen, ob es sich um Videospiele handelt.

Ideologie als Terrorismus

Facebook hat auch die Gemeinschaftsrichtlinien ausgeweitet und den Begriff "Terrorismus" neu definiert. Neben Gruppen verstoßen nun alle Personen und nicht-staatliche Organisationen, die sich an Gewalt beteiligen oder diese gutheißen, gegen die Regeln. Zuvor hieß es, Gruppen, die Gewaltakte zur Durchsetzung ideologischer, politischer und religiöser Ziele planen oder ankündigen, seien verboten. Das Vertreten einer Ideologie reicht also aus, um gegen die Richtlinien zu verstoßen. Zudem ist der Rahmen dessen, was als terroristische oder unter "Hass" fällt, um etwa "weiße Nationalisten" erweitert worden. In diesem Bereich seien 200 Organisationen verbannt worden.

Call to Action und ein Transparenzbericht

Im Mai unterschrieben Vertreter von Facebook, aber auch Twitter, Google und Amazon, den "Christchurch Call to Action", einen Neun-Punkte-Plan, um Missbrauch zu verhindern. Links zu Plattformen wie 8chan werden bei Facebook nicht mehr zugelassen. In dem Forum war unter anderem der Anschlag von El Paso angekündigt worden, bei dem 22 Menschen ums Leben kamen.

Suchen Nutzer nach einschlägigen Inhalten, werden sie an Hilfsorganisationen weitergeleitet. Zudem gibt es mehr Mitarbeiter, die sich bei Facebook um die Bekämpfung extremistischer Inhalte kümmern. Im November soll ein Transparenzbericht veröffentlicht werden, der Fortschritte aufzeigt. 2020 soll ein unabhängiges Gremium für Nutzerbeschwerden eingerichtet werden.

Update: Begriffserklärung im ersten Absatz. (emw)