Werden Social Media Trends durch Bots manipuliert? Das Social Media Forensics Team der Uni Siegen entlarvt Bot-Netze in den sozialen Medien. Journalisten, Politiker und Bürger beobachten die Trends in den sozialen Netzwerken, um herauszufinden, was die Menschen aktuell bewegt. Tatsächlich werden aber viele dieser Social-Media-Trends durch aggressive Bot-Netze und Trolle bewusst manipuliert. So entstehen zunehmend gesellschaftliche Debatten über Themen, die künstlich gepusht werden – ein Trend, den Forscher der Universität Siegen aufhalten wollen. In einem Forschungsprojekt über Social Media Forensics entwickeln sie Algorithmen, um die Bot-Netze zu entlarven.

Gesellschaftliche Debatten werden im Netz gemacht. Wenn plötzliche Themen wie #unsereLisa oder Köln in den Vordergrund rücken, dann liegt das daran, dass Politiker und Journalisten Social-Media-Trends folgen. Kein Journalist würde beispielsweise über Donald Trump berichten, wenn nicht fast jeder seiner Tweets trenden würde. Schließlich wollen Journalisten am Puls der Zeit bleiben und Politiker auf das eingehen, was ihre Wähler motiviert. Doch was, wenn all diese Social Media Trends gar nicht echt sind? Wenn das Gezwitscher auf Facebook und Twitter nur künstlich ist und lediglich über speziell programmierte Algorithmen künstlich geschaffen wird? Genau mit diesen Fragen beschäftigen sich Simon Hegelich und sein Team im Projekt “Social Media Forensics” an der Universität Siegen.

Social Media Forensics ist ein neuer Bereich der digitalen Forensik. Einfach erklärt ist ein digitaler Forensiker die Person in den CSI-Folgen, die relevante Computerdaten in einem Verbrechen analysiert. Digitale Forensiker überprüfen Alibis mit Hilfe von Log-In-Daten, sie spüren Urheberrechtsverletzungen auf oder gehen illegalen Aktivitäten von Personen oder Organisationen im Netz nach. Social Media Forensics oder auch Network Forensics wiederum sind auf das Sammeln von Traffic-Daten in Echtzeit spezialisiert. Wenn also ein verdächtiger Post im Internet auftaucht, sind Social-Media-Forensiker gefragt, die diese Posts sofort registrieren und zur Analyse speichern können. Simon Hegelich und sein Social-Media-Forensics-CSI-Team konzentrieren sich in ihrem Projekt an der Universität Siegen dabei vor allem auf verdächtige Bots und Trolle.

Gefährliche Bots überschwemmen das Internet

Trolle sind reale Nutzer im Internet, die bewusst andere User in Foren durch aggressive Posts provozieren wollen oder einfach jede Menge Spam-Links posten. Ein Bot ist eine Applikation, die repetitive Aufgaben im Internet übernimmt – also im Prinzip wie ein automatisierter Troll arbeiten kann. Sie werden dabei vor allem zur Kommunikation eingesetzt. Die meisten von uns sind wahrscheinlich schon mal einem Bot in einem Chatraum begegnet. Sie wirken zunächst wie ein ganz normaler Gesprächspartner, um sich dann etwa durch nervige Links als Bots zu entpuppen.

Der Ur-Chatbot geht dabei auf den MIT-Professor Joseph Weizenbaum zurück. Dieser erfand in den 1960er Jahren das Computerprogramm ELIZA, das sich mit echten Menschen unterhalten konnte. Mittlerweile sind diese Bots so fortgeschritten, dass sie bei jeder Unterhaltung dazulernen und so wie ein echter Gesprächspartner wirken. Bots arbeiten so raffiniert, dass sie nur sehr schwer und meist nur von Spezialisten als Roboter zu enttarnen sind. So werden sie zum Beispiel oft im Marketing verwendet, um bestimmte Links zu setzen und so künstlich hohe Klickzahlen zu generieren. Aber auch Privatpersonen nutzen Bots, erklärt Simon Hegelich gegenüber den Netzpiloten. Auf Twitter gab es zum Beispiel einen bekannten Wissenschaftler, der Bots nutzte, um User auf den Klimawandel aufmerksam zu machen: “Jedes Mal, wenn jemand in einem Post den Klimawandel leugnete, erhielt dieser Nutzer von diesem Wissenschaftler automatisch einen Link mit einer Studie zum Klimawandel.”

Twitter hat den Wissenschaftler mittlerweile gesperrt. Das sind die eher harmlosen Varianten von Bots. Gefährlich wird es, wenn diese Technologie von politischen Organisationen bewusst missbraucht wird, um Trends im Netz zu manipulieren. Wie viele Bots und Trolle es in den sozialen Netzwerken gibt, ist unklar. Doch Twitter hat beispielsweise gerade 125.000 Accounts gesperrt. “Da werden einige Bots darunter gewesen sein”, vermutet Hegelich. Diese Bots können mit ihrer Präsenz das Internet mit ihren falschen Posts geradezu überschwemmen.

Bots erzählen Witze und kommentieren Sportereignisse

Genau hier schreitet das Forschungsprojekt der Uni Siegen ein. Finanziert vom Bundesministerium für Bildung und Forschung wurde das Projekt #SoMeFo am 1. August 2015 ins Leben gerufen. Programmierer arbeiten hier mit Sozial- und Politikwissenschaftlern zusammen, nicht nur um Bot-Netze zu entlarven, sondern auch um herauszufinden, welche Folgen diese manipulierten Social-Media-Trends eigentlich haben. “Es ist klar, dass niemand ein Faschist wird, nur weil bei ihnen im Facebook-Feed plötzlich rassistische Posts von Bots erscheinen”, stellt Hegelich klar. Seiner Meinung nach wollen die Bot-Netze weniger Menschen politisch bekehren, dafür aber politische Debatten steuern.

So haben er und sein Team beispielsweise ein ganzes Netz an Bots und Trollen entlarvt, das während der Ukraine-Krise täglich massiv Bot-Meldungen verbreitete. So könnten an einem Tag etwa 15.000 falsche Twitterprofile bis zu 60.000 gefakte Posts verbreiten. “Diese Bots posten aber nicht ständig politische Propaganda, sondern wirken wie ganz normale Profile. Sie posten zum Beispiel auch Witze oder Kommentare zum Sport in der Ukraine und eben nur ab und zu politische Kommentare – und sind so nur ganz schwer von anderen Nutzern als Roboter-Posts zu erkennen”, sagt Hegelich. Mit ihren Programmen konnten die Forscher aber gewisse Charakteristiken ausfindig machen, die ihnen ganz klar zeigten: Hier sind Bots am Werke. Dazu gehören beispielsweise Avatarbilder. Wer Tausende von falschen Profilen kreiert, braucht auch Profilbilder. Roboter wählen dabei die Bilder, auf die sie im Internet schnell und einfach Zugang haben, Comiczeichnungen zum Beispiel. Die Algorithmen der Wissenschaftler können dabei entschlüsseln, welche Avatarbilder zu einem normalen, also menschlichen, Profil gehören und welche höchstwahrscheinlich von Bots ausgewählt wurden.

Ein anderes Beispiel, das Hegelich und seinem Team aufgefallen ist, ist die Invasion von CSU-Seiten mit fremdenfeindlichen Kommentaren zur Flüchtlingskrise. Gerade dieses Thema scheint für politische Organisationen im rechten Milieu ein gefundenes Fressen zu sein. Bots eignen sich hervorragend, um eine Masse von künstlichen Meinungen ins Netz zu stellen. “Auch der selbsterklärte IS nutzt Bots und auch im mexikanischen Wahlkampf 2013 wurden massenweise Bots eingesetzt.” Genau hier liegt der Schlüssel zum Erfolg von politischen Botschaften, die durch Bots manipuliert werden: Die Masse. Da die wenigsten von uns erkennen, ob es sich bei den Kommentaren und Posts um echte Meinungen oder um Bots handelt, wirkt es so als ob eine große Anzahl von Menschen eine bestimmte Meinung vertrete.

Wer die Hashtag-Trends bestimmt, bestimmt den gesellschaftlichen Diskurs

Dies ist auch die größte Gefahr, die Simon Hegelich in Bot-Netzen sieht: “Bots können gesellschaftliche Debatten durch ihre schiere Masse bestimmen und in eine gewünschte Richtung lenken.” Wenn also der russische Außenminister den Twitter-Trend #unsereLisa aufgreift, um sich politisch zu äußern oder Politiker ihre Agenda ändern, weil sie glauben, die Mehrheit der Bevölkerung stehe dahinter, kann das brandgefährlich werden. So kann dann ganz schnell aus Politik für’s Volk Politik für Bots werden – gesteuert von Organisationen, die bewusst eine politische Agenda voranbringen wollen.

Das ist feingeschliffene Meinungsmache im digitalen Zeitalter. Denn wer die Hashtag-Trends bestimmt, bestimmt auch die gesellschaftliche Debatte. Die Manipulateure wissen, dass sowohl Politiker als auch Journalisten sich auf die Trendanalysen der sozialen Medien stützen, um herauszufinden, welche Themen die Menschen im Moment bewegen oder wie die Stimmung im Land aussieht. Wenn ein Journalist etwa beschreiben möchte, wie die Deutschen zu Flüchtlingen stehen, kann er eine Twitter Trendanalyse aufrufen und sehen, wie die Stimmungslage mehrheitlich aussieht. Nur, wenn diese Stimmungslage von vorneherein manipuliert ist, schreibt der Journalist über eine ausländerfeindliche Stimmung, die es möglicherweise so gar nicht gibt – und erzeugt diese damit vielleicht erst. “Deswegen finde ich es auch sehr riskant, wenn in Nachrichtensendungen Journalisten teilweise ganz ungeprüft Tweets verlesen oder einblenden, ohne zu wissen, ob dahinter eine wirkliche Meinung steckt”, sagt Hegelich. Journalisten müssten viel genauer prüfen, wer eigentlich hinter diesen Posts stecke.

Doch bisher fehlen vielen die Tools, um dies überhaupt nachprüfen zu können. Genau daran arbeitet das Social-Media-Forensics-Team in Siegen derzeit. “Ziel ist es, eine Art Spamfilter für Bots zu erstellen, den dann jeder Nutzer bei sich einstellen kann, genau wie bei Emails”, sagt Hegelich. Er hält nicht viel davon, wenn Facebook oder Twitter selbst die Bot-Tweets sperren. Denn erstens könne man nicht zu 100 Prozent sagen, ob ein Account wirklich zu einem Bot gehört. So können zum Beispiel auch ganz unschuldige Nutzer gesperrt werden. Zweitens sei es viel effektiver, wenn Nutzer selbst entscheiden, welche Meldungen sie sehen wollen und welche nicht. So sieht Hegelich für sich und sein Team noch sehr viel Arbeit vor sich: “Es reicht nicht, die Bot-Netze nur zu entlarven. Wir müssen auch untersuchen, welche Effekte diese massiven Bot-Attacken eigentlich haben. Bisher tappen wir da noch im Dunkeln.”

Image (adapted) “Social Media, Social Network” by Joe The Goat Farmer (CC BY 2.0)

Marinela Potor begann ihren journalistischen Werdegang bei kleinen Lokalzeitungen und arbeitete dann während ihres Studiums als Reporterin für den Universitätsradiosender. Ihr Volontariat machte sie bei Radio Jade in Wilhelmshaven. Seit 2010 hat sie ihren Rucksack gepackt und bereist seitdem rastlos die Welt – und berichtet als freie Journalistin darüber. Über alle „inoffiziellen“ Geschichten schreibt sie in ihrem eigenen Blog fest. Mitglied des Netzpiloten Blogger Networks.

Schlagwörter: Bots