Im Internet und insbesondere in den sozialen Medien finden sich viele verschiedene Meinungen, darunter auch populistische und hasserfüllte Kommentare. Eine Trennung von Wahrheit, Propaganda und Lüge fällt immer schwerer. In diesem Feld spielen nun neben Trollen auch immer häufiger komplexe Social Bots mit. Ein Überblick über Social Bots, Verschwörungstheorien und Hatespeech.

Bei den Kondensstreifen der Flugzeuge am Himmel handelt es sich um „Chem Trails“ der Bundesregierung, um die eigene Bevölkerung zu kontrollieren! Die BRD ist kein souveränes Land, sondern immer noch den USA und den anderen Siegermächten hörig und eigentliche eine GmbH! Das sind die wohl bekanntesten Verschwörungstheorien, die derzeit durch das Internet geistern. Doch warum halten sich diese Gerüchte so hartnäckig und werden von so vielen Menschen geglaubt und verbreitet?

Wer davon ausgeht, dass Menschen erst alle Informationen auswerten und daraufhin Entscheidungen treffen, irrt zumeist. Häufig geht es einfach darum, dass die Informationen in das eigene Weltbild passen. Und gegen emotional aufgeladene Ansichten können Fakten nur schwer bestehen. Das Verführerische bei Verschwörungstheorien ist, dass diese komplexe kausale Zusammenhänge sehr stark vereinfachen. Denn Menschen wollen einfache Erklärungen auf die komplizierten Probleme und Ereignisse der Welt haben.

Informationen müssen ins eigene Weltbild passen

Das Internet, einst als Transportmedium für Informationen und damit Fakten geschaffen, verliert durch die immer größer werdende Zahl an Daten genau diese Eigenschaft. Die Trennung von Wahrheit und (absichtlicher) Fehlinformation wird stetig schwieriger. Hinzu kommen im Internet die sogenannten Filterblasen. Das heißt jeder umgibt sich eher mit den Menschen und Meinungen, die seinem Weltbild und seinen Ansichten entsprechen. Diese Blase wird (bei Facebook) immer kleiner. Das Netzwerk verkündete kürzlich, dass sich alle Mitglieder nun über durchschnittlich 3,57 NutzerInnen kennen würden.

Zu dieser Verwirrung tragen seit einigen Jahren Social Bots bei. Anders als bei Trollen, hinter denen Einzelpersonen stehen, die Unruhe stiften und durch ihre Aussagen provozieren wollen, steckt dahinter Software. Das automatisierte Programm kontrolliert Accounts in sozialen Netzwerken und sollen den Anschein erwecken, eine echte Person zu sein. Ziel und Verhaltensmuster unterscheiden sich dabei abhängig vom sozialen Netzwerk. Grundlegend ist jeder Bot so programmiert, dass er beispielsweise auf bestimmte semantische Strukturen in gewisser Weise reagiert.

Social Bot-Trefferquote: 80 Prozent

Hatten Socials Bots vor einer Zeit noch das Ziel, Kontakt mit Menschen aufzunehmen, Links zu spammen oder Informationen über die anderen NutzerInnen zu sammeln, vollzieht sich nun ein Wandel. Nun posten sie nicht mehr nur stumpf vorgefertigte Phrasen, ausgehend von bestimmten Schlagworten. Die Bots sind nun bereits in der Lage, auf aktuelle Ereignisse einzugehen, direkt auf den Debattenverlauf zu reagieren und entsprechende Antworten zu verfassen. Aber sie können auch eigene Themen setzen und durch ihre schiere Masse an Accounts und Postings in den sozialen Medien trenden.

ForscherInnen um den Politikwissenschaftler Dr. Simon Hegelich von der Universität Siegen arbeiten in ihrem Projekt “Social Media Forensics” daran, diese neuen Social Bots mit Algorithmen zu erkennen. Die ForscherInnen haben bisher herausgefunden, dass die Programme unter anderem zum Teil ganze Sätze aus Lexika kopieren, um seriös zu klingen. Weiterhin veröffentlichen die Bots Tweets mit Sportsnews und anderen Links, um ihre Glaubwürdigkeit zu erhöhen. Mit diesen Erkenntnissen bauen die ForscherInnen nun ihren Algorithmus aus, der bereits an den Profilbildern erkennt, ob es sich um einen menschlichen Nutzer handelt. Trefferquote bisher: 80 Prozent!

Counterspeech als Mittel gegen digitale Sprachlosigkeit

Die Social Bots bringen zum Teil eine große Anzahl an Posts mit Hassbotschaften in Umlauf, die sich mit den bereits vorhandenen Aussagen realer NutzerInnen vermengen und eine emotional aufgeladene Stimmungslage erzeugen. Die Erkennung dieser Programme kann jedoch nur ein Weg sein. NutzerInnen sind weiterhin gefragt, gegen aufkommende fremdenfeindliche und rassistische Äußerungen das Wort zu ergreifen. Eine Umfrage des Meinungsforschungsinstitut YouGov ergab kürzlich, dass ein Drittel der Befragten bisher in Kontakt mit fremdenfeindlichen Kommentaren und fast zwei Drittel mit rassistischen Äußerungen gekommen ist. Als Reaktion haben 20 Prozent diese Äußerungen gemeldet, lediglich 14 Prozent haben öffentlich sichtbar auf diesen Kommentar geantwortet.

Ein möglicher Grund für die geringe Anzahl an reagierenden NutzerInnen: Viele kennen keine Initiativen, die sich gegen Hasskommentare engagieren und haben das Gefühl, sich allein mit einer Vielzahl von hetzenden Posts auseinanderzusetzen müssen. Um den hasserfüllten KommentatorInnen entgegenzutreten und den agierenden Menschen auch Argumentationsunterstützung gegen solche Äußerungen zu bieten, ist eine Verbreitung der Counterspeech – auf Deutsch: Gegenrede – notwendig. Diese setzt auf die User, die sich in ihrem Netzwerk aktiv und öffentlich gegen Hasskommentare äußern. Zwar scheint man damit die Netzwerkbetreiber von der Aufgabe zu befreien, auffällige Nutzerprofile zu sperren und selbst dafür zu sorgen, dass keine strafbare Posts auf ihren Plattformen zu finden sind. Doch das steht auf einem anderen Blatt. Auch ob Counterspeech überhaupt einen (langfristigen) Nutzen hat, ist bisher auch noch nicht bewiesen. Was jedoch sicher ist: Ohne engagierte Gegenrede wird es auf jeden Fall schlimmer. Die jetzige Situation, in der Trolle und Social Bots die Online-Kommunikation massiv stören, ist unbefriedigend und führt dazu, dass sich immer mehr UserInnen aus der Diskussion zurückziehen und den Trollen und Bots das Feld überlassen.

Update 05.03.216

Hier gibt die Seite Netz-gegen-Nazis Empfehlungen, wie man mit rechtspopulistischen Gesprächsstategien umgeht.

Bild: Marcus Quigmire, via Wikimedia Commons unter Lizenz: CC BY-SA 2.0