„Social Bots“ sollen menschenähnliche „Meinungsroboter“ sein, die dafür programmiert wurden, in den Sozialen Medien Einfluss auf politische Diskussionen zu nehmen. Verantwortlich gemacht wurden sie schon für den Ausgang der Brexit-Abstimmung, die Wahl Trumps und für den Widerstand gegen den UN-Migrationspakt. Aufgeschreckt durch akademische Vertreter dieser These wie Dirk Helbing, Professor an der ETH Zürich, forderte der Bundesrat im November, „dass umgehend eine Kennzeichnungspflicht für sogenannte Social Bots geregelt wird.“



Im Dezember erlangte eine Erhebung der Firma Botswatch mediale Bekanntheit, wonach 28 Prozent der auf Twitter geäußerten Wortmeldungen zum UN-Migrationspakt von „Social Bots“ stammten. Forscher der Universität Duisburg-Essen wollten dazu mit einer methodisch abenteuerlichen Simulation herausgefunden haben, dass schon wenige „Social Bots“ ausreichen könnten, um die politische Stimmung im Netz zu beeinflussen.

Wissenschaftler gehen von bis zu 15 Prozent Social Bots aus

Eine Publikation der Universität Zürich und der FU Berlin zur Bundestagswahl 2017 behauptete gar, dass 9,9 Prozent der rund 838.000 Follower der Twitter-Accounts von sieben deutschen Parteien während des Wahlkampfs „Social Bots“ gewesen wären, also fast 83.000. Im Tagesspiegel erklärte kürzlich die Co-Autorin dieser Studie – Ulrike Klinger, Juniorprofessorin an der FU Berlin und am Weizenbaum-Institut –, es sei ganz generell davon auszugehen, dass neun bis 15 Prozent aller Accounts auf Twitter von Algorithmen gesteuert seien. Neben „passiven Bots“ seien darunter auch „aktive Bots“, die Links teilen und sich in Diskussionen einschalten würden, und die „oft nur schwer als Computerprogramme erkennbar“ seien.



Die Idee eines Computerprogramms, das sich in aktuelle politische Diskussionen einmischen kann und dort kaum von einem Menschen unterscheidbar sein soll, scheint beim aktuellen Stand der Technik im Bereich der sogenannten „Künstlichen Intelligenz“ doch eher überraschend. Schon mit einer unfallfreien Terminvereinbarung stößt die heutige Chatbot-Technologie leicht an ihre Grenzen. Die Schöpfer von „Social Bots“ müssten gegenüber Forschern und Technologiekonzernen aus aller Welt einen gewaltigen technologischen Vorsprung besitzen.



Die Frage, die sich stellt, ist: Wer hat eigentlich schon einmal einen „Social Bot“ in Aktion erlebt?

Social Bots: Eine Definitionsfrage

Die Firma Botswatch will keine näheren Angaben über die von ihr gesichteten „Social Bots“ machen und verweist auf den „Datenschutz“. Die Autoren der „Social-Bot“-Studie der Uni Duisburg-Essen können auch keine Accounts nennen, die der Kategorie „Social Bots“ zuzurechnen sind. Dirk Helbing von der ETH Zürich schließlich schreibt auf Twitter, dass er auch keine entsprechenden Nutzerkonten kennt. Bleibt die Studie der Uni Zürich und der FU Berlin, in der von 83.000 „Social Bots“ die Rede ist. Erstautor Tobias Keller nennt uns auf Nachfrage vier Beispiele von Twitter-Accounts, die er als „Social Bots“ einordnet.



Es handelt sich um die Accounts @ebookguide, @ciofinance, @bioltec und @Opticlean24. Alle vier werden von kommerziellen deutschen Anbietern betrieben und haben nichts mit Politik zu tun. Keiner der Accounts macht einen automatisierten Eindruck oder hat Ähnlichkeit mit einem „Meinungsroboter“.

Ein Detektor, der Menschen zu Bots erklärt

Das sollte zu denken geben. Denn Keller und Klinger haben für die Auswertung in ihrer Studie das „Botometer“ benutzt. Dieses wiederum wurde von Entwicklern rund um den amerikanischen Forscher Emilio Ferrara programmiert und weist erhebliche methodische Mängel auf. Schon nach der amerikanischen Präsidentschaftswahl wurde mit Hilfe des Programms behauptet, dass Bots im Wahlkampf eine entscheidende Rolle gespielt hätten. Auch diese Feststellung hat bereits für Debatten gesorgt.



Die Idee des Botometers besteht darin, ein maschinelles Lernverfahren auf das Problem der Unterscheidung zwischen „Social Bots“ und echten Menschen anzusetzen. Dafür benötigt man allerdings repräsentative Trainingsdaten. Bei „Social Bots“ ist das offensichtlich ein Problem.

Ferrara behalf sich damit, eine alte Stichprobe von Spam-Accounts für kommerzielle Produkte als Trainingsmaterial zu verwenden. Das Problem kaschiert er dadurch, dass er diese Accounts kurzerhand als Bots bezeichnet. Sein zweiter Kunstgriff besteht darin, die Zahl, die sein Botometer ausspuckt, stets als absolute Wahrheit zu akzeptieren. Was einen Botometer-Score von mehr als 2,5 hat (auf einer Skala von null bis fünf), ist für ihn ein Bot und wird konsequent so bezeichnet.

Professorin und Journalisten als Bots eingestuft

Entsprechend absurd sind die Resultate des Botometers. Wir haben uns erlaubt, die drei Twitter-Follower des Weizenbaum-Instituts mit den höchsten Botometer-Scores zu kontaktieren. Sie erreichen Werte von 4,9 beziehungsweise 4,8. Alle drei antworteten uns und machten dabei einen sehr menschlichen Eindruck. Es handelt sich um eine Professorin aus Israel, einen Wissenschaftler aus England und einen Lektor aus Deutschland. Keiner der drei Accounts zeigt auch nur die geringsten Anzeichen für Automatisierung.



Wertet man die Resultate des Botometers systematischer aus, dann zeigt sich, dass es fast unabhängig von der betrachteten Personengruppe meist um die zehn Prozent der Accounts fälschlich als Bots einordnet. So werden unter den 1355 Twitter-Accounts, denen der Tagesspiegel folgt, 93 zu Bots erklärt (sieben Prozent), darunter z.B. die Journalistin Anna Graefe mit einem Botometer-Score von 4,8. Von 515 geprüften Accounts von Abgeordneten des Deutschen Bundestags werden 60 fälschlich als Bots identifiziert (12 Prozent). Und sogar von 68 untersuchten Accounts von Nobelpreisträgern werden sieben als „Bots“ eingeordnet (10 Prozent). Den Spitzenreiter unserer Untersuchung bildet jedoch eine Liste von 396 Accounts von Mitarbeitern der Deutschen Presseagentur. Hier liegt die angebliche „Bot-Quote“ bei sage und schreibe 33 Prozent.



Wie gesagt: Das Botometer bildet die Grundlage für die jüngste Studie von Keller und Klinger. Statt wie behauptet „Social Bots“ zu untersuchen, hantieren sie mit Falschtreffern. Ihre angeblichen Erkenntnisse über vermeintliche „Social Bots“ lassen sich deshalb vollständig mit Falschtreffern des obskuren Botometers erklären.

Einfache Erklärung für politische Entwicklungen



Die sogenannte „Social-Bot-Forschung“ hat sich in wenigen Jahren zu einem Forschungsfeld mit prall gefüllten Fördertöpfen entwickelt, sich dabei allerdings von der Realität entkoppelt. Politik und Fördermittelgeber sollten diese Entwicklung zur Kenntnis nehmen.



Die Idee eines sinistren „Botmasters“, der bei der Manipulation der öffentlichen Meinung die Strippen zieht und den Bürgern im Internet den Verstand vernebelt, mag vielen als einfache Erklärung für politische Fehlentwicklungen allzu reizvoll erscheinen. Der politische Diskurs würde jedoch viel gewinnen, wenn Politiker und Journalisten aufhören würden, Menschen in den Sozialen Medien auf Basis einer bizarren Verschwörungstheorie das Menschsein abzusprechen.

Florian Gallwitz ist Professor für Medieninformatik an der Technischen Hochschule Nürnberg. Michael Kreil ist Datenjournalist bei der Infographics Group in Berlin.

