Bei der Debatte um den UN-Migrationspakt und bei den Protesten in Frankreich sollen plötzlich Social Bots eine wichtige Rolle spielen. Dabei sind menschlich gesteuerte Troll-Accounts, echte und falsche Influencer sowie staatlich-kontrollierte Medienunternehmen weitaus einflussreicher. Ihre Tweets bekommen viele Interaktionen und können sich stark verbreiten.

Derzeit macht ein Artikel der „Welt“ die Runde: 28 Prozent der Tweets über den UN-Migrationspakt seien von Bots verfasst worden, schreiben die Autoren nach einer „in Auszügen vorliegenden Studie“. Für die Studie will das Unternehmen Botswatch GmbH 800.000 Tweets zwischen dem 24. November und dem 2. Dezember untersucht haben. Wir erfahren jedoch weder etwas über die Methodik („Was ist ein Bot?“) noch über den tatsächlichen Einfluss von Bots auf die Debatte. Es ist aus Sicht von Kommunikationsforschern schon an sich schwierig, Bots zu erkennen.

Bei der Erkennung von Bots werden oftmals Kriterien wie „mehr als 50 Tweets am Tag“ angesetzt, die alleine allerdings wenig Aussagekraft haben. Bei der Studie von Botswatch ist die Methodik nicht bekannt, unsere mehrfachen Anfragen an die Firma nach den vollen oder auszugsweisen Studienergebnissen und der zugrundeliegenden Methodik wurden bislang nicht beantwortet.

Der Datenspezialist Luca Hammer hat in einem Thread auf Twitter den Artikel der „Welt“ auseinandergenommen. Bei einer Stichprobe mit dem Bot-Analysetool Hoaxy erkennt er auf dem Hashtag #migrationspakt gerade mal sechs Prozent mögliche Bots, die jedoch keinen Einfluss auf die Debatte haben.

Auch wenn die Autoren des Welt-Artikels durchaus andere Einflussmöglichkeiten beleuchten, lenkt die Debatte um Bots von anderen wichtigen Einflussfaktoren der politischen Debatte auf Twitter ab. Grundsätzlich fallen in politischen Debatten auf dem Dienst verschiedene Typen von Accounts auf, die Einfluss nehmen wollen. Diese sind alle keine automatisierten Accounts:

„Troll-Sockenpuppen“: Hierbei handelt es sich um menschengesteuerte Accounts mit meistens wenigen Followern, die im Diskurs mitmischen, Tweets kommentieren und oftmals direkte Mentions an Personen schicken. Nach unseren Recherchen sind diese Accounts oftmals in anderen Kommunikationstools wie Discord organisiert und springen koordiniert in Debatten ein. Diese Menschen besitzen oftmals eine Vielzahl an Accounts, die sie mit hoher Tweet-Frequenz nutzen. Der Datenspezialist Hammer hat viel zu Trollnetzwerken und rechten Netzwerken auf Twitter geforscht, unter anderem auch für netzpolitik.org. Er hält weniger die Bots für ein Problem als eben manuell gesteuerte Sockenpuppen. „Fake-Influencer“: Gut geführte Fake-Accounts können einen deutlich größeren Einfluss ausüben als Bots. So stellte sich in den USA heraus, dass die vermeintliche Alt-Right-Bloggerin Jenna Abrams ein Produkt der russischen Trollfabrik in St. Petersburg war. Mit ihren 70.000 Followern interagierte sie mit anderen Rechten, stritt sich mit Gegnern, erlangte eine Gefolgschaft und wurde sogar in der New York Times zitiert. Solche Accounts, wer immer sie auch führt, können eine Glaubwürdigkeit entwickeln, zu der Social Bots nicht fähig sind. Viel stärker als Bots können von Menschen gemachte Fake-Accounts Diskurse beeinflussen. Wir haben dies auch beim inoffiziellen AfD-Unterstützernetzwerk gezeigt, wo eine ganze Armada von Accounts im Sinne der AfD-Pressestelle kommunizierte. Accounts von staatlich kontrollierten Medien nach dem Muster des aus Moskau gesteuerten RT. Regime-treue Nachrichtenquellen können dabei helfen, Debatten in eine gewisse Richtung zu lenken.

Alle drei Formen von Accounts wenden unterschiedlichste Techniken der Kommunikation an. Sie können Debatten lähmen, Dinge in Frage stellen, Personen einschüchtern, (einseitige) Berichterstattung betreiben, Falschmeldungen verbreiten oder auch einfach nur Themen kuratieren, hervorheben oder verstärken.

Gelbwesten-Protest: Sicherheitsforscher entdeckt keine Bots auf populärem Hashtag

Der französische Sicherheitsforscher Baptiste Robert, der unter dem Namen Elliot Alderson twittert, hat sich die englischen Tweets zu den Gelbwesten-Protesten unter dem Hashtag #GiletsJaunes angesehen und ihren Einfluss anhand der Menge von Interaktionen gemessen. Das Ergebnis: Die einflussreichsten Accounts sind keine Bots, sie reichen vom polnischen Nationalisten, über einen türkischen Breaking-News-Account, über Trump-Anhänger bis hin zum Account des in Deutschland ansässigen russischen Medienunternehmens Redfish. Robert hat sich die Interaktionen zwischen den Konten angeschaut und weder eine koordinierte Aktion noch Bots gefunden. Zu ähnlichen Ergebnissen kommt auch eine Stichprobe beim oben erwähnten Dienst Hoaxy, die wir gemacht haben.

Alleine angesichts der Einflussmöglichkeiten menschlich betriebener Accounts, ist es schlichtweg unseriös und unterkomplex soziale Bewegungen oder hart umkämpfte gesellschaftliche Diskurse mit Bots erklären zu wollen. Selbstverständlich gibt es Accounts, die international und strategisch bei unterschiedlichen Themen eingesetzt werden, um Stimmung für oder gegen eine Sache zu machen. Doch wirklichen Einfluss – im Sinne vieler Interaktionen – haben eben nicht Bots, sondern die oben erwähnten Account-Typen. Dabei gibt es durchaus Accounts, die für unterschiedliche Felder eingesetzt werden: ein Account, der 2016 im Sinne der AfD auf deutsch agitierte, taucht plötzlich bei den Gelbwesten-Protesten mit englischsprachigen Tweets auf. Türkische Accounts, die sich noch nie mit Frankreich befasst haben, kuratieren plötzlich Bilder von (mutmaßlicher) Polizeigewalt. Dies alles können manuelle Versuche äußerer Einflussnahme sein.

Der Vorwurf der äußeren Einflussnahme kann aber auch zur Diskreditierung von Bewegungen genutzt werden, die selbst nichts mit diesen Online-Aktivitäten zu tun haben. In diese Kerbe haut auch Alex Stamos, ehemaliger Sicherheitschef von Facebook, gegenüber der französischen Zeitung Libération. Die Troll-Accounts, wer auch immer hinter ihnen stecke, schütteten zwar Öl ins Feuer von sozialen Bewegungen, sie hätten das Feuer aber nie selbst entzündet. Reale Bewegungen auf der Straße, hinter denen Menschen stünden, die sich wie aktuell zu sehen auf den Kreisverkehren in Frankreich filmten, die wirklich auf Facebook debattierten, würden durch so etwas nicht unbedingt manipuliert. Es sei vielmehr auch die Meta-Kommunikation über die angebliche Einflussnahme, welche Spaltungen vertiefe.

Festzuhalten ist: Kurzfristig wird die Wichtigkeit und die Schwere der Einflussnahme von Bots für den öffentlichen Diskurs total überschätzt. Langfristig müssen wir aber grundrechtskonforme Wege finden, diese Gefahr zu beseitigen. In diesem Sinne ist der Fokus des Welt-Artikels und der Widerhall, den der Artikel oftmals ungeprüft und ohne Kenntnis der vollständigen Studienergebisse in anderen Medien erlangte, kritisch zu hinterfragen. Mal ganz abgesehen von der publizistischen Rolle, welche die Welt in der Ausrichtung ihrer Berichterstattung, in ihren Kolumnen und Blogs für die Etablierung rechtspopulistischer Diskurse selbst spielt.