Fakenews, Propaganda-Roboter, Big-Data-Analysen sind effektive Werkzeuge. Jetzt haben sie die Politik erreicht und das globale Machtgefüge erschüttert. Großbritannien verlässt die EU, ein Außenseiter wird trotz zahlreicher Fehler im Wahlkampf Präsident. Die Stimmung kippte im Netz:

"Propaganda, die wir in sozialen Netzwerken in Teilen feststellen, ist teilweise falsch, ist überzogen und ist oftmals emotional und verleitet dazu, dass die Menschen sich eine andere Meinung, eine fehlerhafte Meinung von der Realität machen", warnt Hans-Georg Maaßen, Präsident des Bundesamtes für Verfassungsschutz auf der Berliner Cybersicherheitskonferenz Ende November.

Rasanter Anstieg der Cyberangriffe auf Computer von Politikern erwartet

Steven Wilson, Chef der Cybercrime-Einheit von Europol, erwartet in den anstehenden Wahlkämpfen zudem einen rasanten Anstieg der Cyberangriffe auf Computer von Politikern, Rechnersysteme der Parlamente und Server der Parteien.

"Für mich ist das eine klare Sache. Ich habe mir das in verschiedenen Mitgliedsstaaten angeschaut. Es reicht nicht, die Kräfte in einem Land darauf zu trainieren, sondern wir müssen länderübergreifend handeln, um besser darauf reagieren zu können."

Trump gewinnt mit Tweets und Bots. (imago / Rüdiger Wölk)

Die Politik muss schnell reagieren. Denn der Bundestag wird Ende September gewählt, und der Wahlkampf läuft allmählich an. Wird er ähnlich betrieben wie der amerikanische Präsidentschaftswahlkampf? Mit Propaganda-Robotern, kompromittierendem Material aus Cyberangriffen und geschickt lancierten Lügen? Was wollen die Parteien, was will die Bundesregierung dagegen tun? Bundesinnenminister Thomas de Maizière scheint ein wenig überfordert, als er Gegenmaßnahmen erläutert.

Trump gewinnt mit "politischem Direktmarketing"

"Ich werde auch dafür eintreten, dass alle Parteien in Deutschland, die an der nächsten Bundestagswahl teilnehmen, öffentlich erklären, dass sie an solchen Aktionen nicht teilnehmen. Und wenn nicht, werden wir das auch öffentlich machen."



Keine Propaganda-Roboter im Wahlkampf verwenden, nicht mit Fake News Verwirrung stiften, keine Big-Data-Analysen für die personalisierte Wählerwerbung einsetzen. Das klingt nach einem guten Vorschlag. Aber werden sich alle Parteien daran halten? Brauchen wir neue Gesetze? Oder kann die digitale Wählermanipulation mit technischen Mitteln verhindert werden?



Die Fragen kann besser beantworten, wer den amerikanischen Präsidentschaftswahlkampf genauer analysiert. Donald Trump hat ihn gewonnen mit einer Strategie, die sein Wahlkampfleiter "politisches Direktmarketing" nennt.

"Das ist prinzipiell nichts Neues, die Werbeindustrie versucht ja seit Längerem, uns passgenau Anzeigen zu liefern im Rahmen unserer Interessen."

"Da können sie einfach die Massen bewegen"

Mit Direktmarketing kennt sich der Datenexperte Karsten Schramm aus. Er hat einst GMX gegründet und das Online-Direktmarketing in Deutschland etabliert. Heute ist er Aufsichtsratsvorsitzender der Brabbler AG in München. Dort wird Kommunikationssoftware entwickelt, die das Ausspähen der Netznutzer nicht mehr zulässt. Schramm ist zum Gegner des Online-Direktmarketings mutiert:

Durch Netzüberwachung gewonnene Benutzerprofile sind die Grundlage für individuell zugeschnittenes Direktmarketing durch Propaganda-Algorithmen (imago/Ikon Images/Jens Magnusson)

"Neu ist sicherlich die politische Dimension, die das annimmt, weil wir es jetzt mit Keyplayern zu tun haben. Nehmen wir mal Facebook als Beispiel, die eine Unmenge an Anhängern weltweit verteilt auf einer Plattform vereinen und diese Anhänger auch durch entsprechende Inhalteauswahl-Algorithmen führen, das heißt, da kommen Sie sehr schnell in eine Situation, wo Sie einfach die Massen bewegen können."

Rund tausend Unternehmen überwachen weltweit die Netz-Nutzer. Facebook spielt dabei immer noch eine wichtige Rolle. Sehr viele Identifizierungen laufen immer noch über die Facebook-Mitgliedsnummer. Aber die Facebook-Mitgliedsnummer hat einen Konkurrenten bekommen, nämlich die Identifizierungsnummer von Datenhändlern.

Der User kann eindeutig wiedererkannt werden

"Die übliche Vorgehensweise ist die, dass die Anbieter von kostenlosen Websites, die müssen ihr Angebot refinanzieren und arbeiten deswegen mit Datensammlern zusammen. Die bekommen kleine Snippets, kleine Schnipsel in ihre Homepage rein. Und diese Snippets sorgen dafür, dass der Datensammler von Ihrem Besuch auf der Seite erfährt. Gleichzeitig wird in aller Regel ein Cookie auf Ihren Rechner gesetzt mit einer eindeutigen User-Kennung, sodass Sie dann, wenn Sie auch auf anderen Seiten sich tummeln, dass Sie dann als solcher User eindeutig wiedererkannt werden können."

Jetzt muss der am Rechner sitzende User jetzt noch als Mensch eindeutig identifiziert werden. Dafür wird der Userkennung der Datenhändler beim nächsten Empfangen oder Versenden einer Mail die Mail-Adresse zugeordnet. Ist der User mit einem Smartphone unterwegs, werden auch noch Geräte-Kennnummer und Telefonnummer ausgelesen.

"Die Frage ist einfach, welche Daten des Users man auswertet, des Anwenders. Man kann natürlich seine Website-Besuche auswerten, man kann aber natürlich auch auswerten, was er in irgendwelchen Foren geschrieben hat, also in Kommentaren zu irgendwelchen Artikeln oder auch in Benutzergruppen. Wenn Sie diese Inhalte nach gewissen Stichpunkten, Stichworten durchsuchen, oder wenn Sie, was ja zum Beispiel bei Google üblich ist, den E-Mail-Verkehr des Nutzers nach Schlüsselworten durchsuchen, dann bekommen Sie natürlich sehr schnell ein klares Bild davon, was der eigentlich für Interessen hat."

"Man kann die Leute unmittelbar und direkt beeinflussen"

Für die politische Willensbildung hat das dramatische Konsequenzen, meint Karsten Schramm.

"Bislang war es so, dass wir ja das Prinzip der geheimen Wahlen hatten. Also, eigentlich wussten Politiker im Großen und Ganzen, welche Meinungen und welche Strömungen es im Volk gibt. Jetzt ist es so, dass man die Meinungen und die Interessen und auch politische Gesinnung bis zum Individuum hinunter erfassen und bestimmen kann. Und das ist prinzipiell natürlich etwas, das widerstrebt eigentlich auch dem demokratischen Grundgedanken der freien Meinungsbildung. Man kann die Leute unmittelbar und direkt beeinflussen, und dann entsprechend auch eine Wahl beeinflussen."

Im Wahlkampf von morgen könnte es noch weniger um Diskussion und Verständigung gehen, Online-Werbung und Propaganda-Algorithmen sind auf dem Vormarsch (imago/bonn-sequenz)

Von einer Automatisierung der politischen Willensbildung sprechen die Experten hier.

"So wie es sehr klar extreme Positionen gibt, die man herausfinden kann, kann man natürlich auch Personen herausfinden, die vielleicht noch unschlüssig oder unentschlossen sind."

Propaganda-Algorithmen für individuelle Botschaften

Genau das ist in den USA geschehen: Eigens entwickelte Propaganda-Algorithmen haben individuelle Botschaften an die potenziellen Trump-Wähler geschickt. Ergab das Online-Profiling zum Beispiel, dass ein Wähler Muslime nicht mag, er aber unsicher ist, ob Trump auch hart genug gegen Muslime vorgehen wird, wurde ihm ein passgenauer Text zugeschickt, in dem ihm die Politik Trumps gegen Muslime erläutert wurde, die genau der Vorstellung dieses Wählers entsprachen. Ein Wähler, der die Krankenversicherung Obama Care zurückgedreht haben wollte, erhielt Mails, die ihm individuell angepasst bestätigten, dass Trump genau die Bestimmungen von Obama Care zurücknehmen würde, die ihm nicht passten.

"Wir werden dieses schreckliche Desaster namens Obamacare aufheben und ersetzen."

Wer als Stahlarbeiter oder Angestellter in der Montanindustrie um seinen Arbeitsplatz bangte, der bekam die Ankündigung Donald Trumps auf sein Smartphone, dass er 25 Millionen Jobs schaffen würde.

"Ich habe Zehntausende von Jobs geschaffen und werde großen Wohlstand nach Amerika zurückbringen."

Dem Wähler genau das versprechen, was er erwartet

Bei dieser Art von Direktmarketing spielt es keine Rolle, ob die Wahlversprechen realistisch sind oder ob das Blaue vom Himmel gelogen wird. Es geht darum, dem Wähler genau das zu versprechen, was er erwartet. Es geht um Manipulation.

"Die Betrügerin Hillary hat 200.000 Jobs in New York versprochen, und sie hat's verrissen. Wir werden 25 Millionen Jobs schaffen, wenn ich Präsident bin. Und ich werde liefern." [Quelle für Zitate: Trump, Tweets vom 30. August, 2. und 20. Oktober]

"Wir haben es mit einem Phänomen zu tun, das es in der Form, in der Geballtheit vor einigen Jahren noch nicht gab und mit dem sich jeder Akteur in den demokratischen Medien oder in einer demokratischen Regierung auseinanderzusetzen hat. Das wird die Bundesregierung mit all ihren Möglichkeiten tun."

In das TV-Duell von Hillary Clinton und Donald Trump griffen auch Bots ein. (AFP / Robyn Beck)

Nur wie das geschehen soll, das weiß im Berliner Regierungsviertel noch niemand so genau. Daten werden in Massen gesammelt und in völlig neue Zusammenhänge gestellt. Regierungssprecher Steffen Seibert muss auf mehrfache Nachfrage von Journalisten eingestehen.

Die Methoden sind uralt

"Das ist eine ernsthafte Aufgabe nicht nur für dieses Jahr, aber eine Aufgabe, die wir, wenn wir ehrlich sind, sagen wir einmal 2013 so deutlich noch nicht vor Augen gesehen hätten."

Dabei sind die Methoden uralt. In den 60er-Jahren begannen Informatiker, mit neuronalen Netzen aus scheinbar belanglosen Informationen neue Erkenntnisse zu ziehen: Etwa, dass Frauen, die ihren Schmuck selber bezahlen, sich mit hoher Wahrscheinlichkeit scheiden lassen.

"Dazu nehme man Massendaten von früheren Fallgeschichten. Man suche in den vorhandenen unabhängigen Faktoren, Alter, Geschlecht, und so weiter per Regressionsanalyse nach solchen, die zu verschiedenen Graden mit dem Eintreffen des fraglichen Ereignisses korreliert sind. Wenn die Vorhersagen mit dem bekannten, in der Vergangenheit liegenden Ereignis tatsächlich mit einer gewissen Wahrscheinlichkeit übereinstimmen, ist das Datenmodell (so robust oder gilt als so) robust und kann auf aktuelle Fälle losgelassen werden."

Ob ein Mensch konservativ oder fortschrittlich ist, kann genau ermittelt werden

Es geht um klassische Mustererkennung. Der Mediensoziologe Volker Grassmuck von der Leuphana-Universität Lüneburg hat Simulationssysteme und Analysesoftware auseinandergenommen, mit der genau die Art von Wählermanipulation gemacht werden kann, wie sie im US-Wahlkampf beobachtet wurde. Ob ein Mensch konservativ oder fortschrittlich ist, eine extreme oder gemäßigte politische Position vertritt, lässt sich genauso gut ermitteln wie seine Eigenarten, zum Beispiel, ob er gewissenhaft oder schlampig arbeitet.

"Wir wissen es nicht zuletzt dank Michael Kosinski, dessen Verfahren von Cambridge Analytica bei Brexit und Trump eingesetzt worden ist und gerade die Runde macht, also die Wahrscheinlichkeit, mit der die dann nachträglich abgefragten Eigenschaften anhand von durchschnittlich 70 Facebook-Likes errechnet worden sind. Also es gibt hier nirgends eine Frage auf Facebook: 'Bist Du schwul, ja nein', sondern aus dem individuellen Musikgeschmack, aus dem Kaufverhalten oder eben aus dem, was geliked worden ist, lässt sich das ableiten.

Versicherungen berechnen so das Risiko ihrer Versicherten. Banken finden so neue Kunden. Und Jared Kushner hat solche Datenanalysen im Wahlkampf seines Schwiegervaters Donald Trump genutzt, um herauszufinden, welche Botschaften das Wahlkampfteam welchen Wählern schicken muss, damit die für Trump stimmen. Damit hatte er Zugang zu Individuen – aber noch keinen Masseneffekt. Dafür brauchen Wahlkämpfer eine weitere Software, Propaganda-Bots genannt.

Tweets werden millionenfach weiterverbreitet

19. Oktober 2016. Dritte Fernsehdebatte zwischen Hillary Clinton und Donald Trump. Die Debatte läuft gerade fünf Minuten, da werden plötzlich mehr als 30.000 Beiträge zu den Themen "Wahlbetrug" und "Manipulation von Wahlen" auf dem Kurznachrichtendienst Twitter abgesetzt.

[Tweet von] Roger Hjorleifson: "Hillarys Muster: Lügen, Manipulation, Korruption, Machtsucht."

Der Twitter-Account des Präsidenten der Vereinigten Staaten von Amerika, Donald Trump. (picture alliance / Patrick Pleul/dpa-Zentralbild/ZB)

Diese 30.000 Tweets werden millionenfach weiterverbreitet, retweeted. Der von Donald Trump behauptete Wahlbetrug durch die einseitige Berichterstattung der Medien beherrscht plötzlich die Diskussion. Nach einer Stunde Debatte wird dann noch eins drauf gesetzt.

[Tweet von] Real Donald Trump: "Unglaublich: Clintons Kampagnen-Beauftragter des Wahlbetrugs per Video überführt."

Trumps Team verbreitet per Twitter, dass sich Trump vorbehalten werde, ob er die Wahl überhaupt anerkennen könne. Vier Millionen Accounts retweeten diese Kurznachricht innerhalb weniger Sekunden. Sie erreichen laut einer von Twitter erhobenen Analyse rund 90 Millionen Amerikaner.

Hinter den beteiligten Twitter-Accounts steckt eine Propaganda-Software

Hillary Clintons Wahlkampfteam reagiert umgehend, als der Moderator sie nach den von Wikileaks enthüllten Redemanuskripten vor der Wall Street fragt. 900.000 Twitter- Accounts greifen das Thema zeitgleich auf und inszenieren Hillary Clinton als Opfer einer fiesen Verschwörung von Trump und Putin, die Hacker auf sie angesetzt hätten.

[Tweet von] Shari: "Weist diese Manipulation durch Putin zurück!"

Wenn über vier Millionen Twitter-Accounts gleichzeitig eine Botschaft des Präsidentschaftskandidaten Donald Trump verbreitet wird, funktioniert das nur mit massiver Hilfe von Software. Und wenn 900.000 Twitter-Accounts in einer Minute Clinton als Opfer einer Verschwörung von Trump und Putin bezeichnen, funktioniert auch das nur durch massiven Softwareeinsatz. Hinter den beteiligten Twitter-Accounts steckten also nicht Menschen aus Fleisch und Blut, sondern eine Propaganda-Software.

Bots greifen auch inhaltlich in die Diskussion ein

Social Bots heißen diese modernen Wahlkampfhelfer. Forscher der Universität Oxford haben herausgefunden, dass mehr als jeder dritte Tweet zur Unterstützung von Donald Trump von einem solchen Bot kam. Das Wahlkampfteam von Hillary Clinton hat erst ein Jahr später auf deren Hilfe gesetzt. Deshalb gab es etwas weniger automatisch erstellte Tweets zur Unterstützung von Hillary Clinton – immerhin war es am Ende jeder fünfte. Der Sprachwissenschaftler Professor Joachim Scharloth von der Technischen Universität Dresden baut selbst solche Bots. Jetzt hat er Social Bots, die im US-Wahlkampf aufgetaucht sind, genauer untersucht und sogar einige auseinandergenommen, die den Propagandafabriken des Kreml und des Pentagons entstammen.

"Das sind Computerprogramme, die in der Lage sind, natürliche Sprachen zu produzieren und sinnvolle Sätze, sinnvolle Texte zu schreiben und die auch automatisch in sozialen Netzwerken zum Beispiel zu posten."

Ganz einfache Bots sorgen nur dafür, dass zum Beispiel ein Tweet ganz oft retweetet wird. Auch solche Bots sind während der Fernsehdebatte von Hillary Clinton und Donald Trump eingesetzt worden. Andere Accounts haben aber auch inhaltlich in die Diskussion eingegriffen und versuchten dann, für oder gegen Trump, für oder gegen Clinton Stimmung zu machen. Dafür mussten sich mehrere Propaganda-Bots die Bälle zuspielen. Ein Bot setzte zum Beispiel einen Tweet ab, Trump achte die Frauen.

Software aus der Cyberkriegsführung

"Tweet von@realDonaldTrump: 'Ich schätze und achte Frauen. Alles andere war doch nur Kabinengeschwätz.'"

Den hat ein zweiter Bot aufgenommen und kommentiert: Bill Clinton, der Ehemann der Kandidatin, habe genau das ja nicht gemacht mit seinen ganzen Affären.

"Tweet von @angrywhiteman: 'Clintons Mann hat doch mit der Praktikantin die Frauen entehrt.'"

Fake News treiben Politiker und Geheimdienstler um. (imago stock&people)

Ein dritter Bot setzte dann noch eins drauf, und schlussfolgerte, dass Hillary Clinton eben nicht zur Präsidentin tauge.

"Tweet von @carbon: 'Hillary taugt so wenig wie Bill. Hillary Clinton ist ungeeignet für den Job der Präsidentin.'"

Offenbar wurde Software verwendet, wie sie für das Cyber Command der amerikanischen Armee entwickelt wird, und zwar für die hybride Kriegsführung. Da ist nämlich vor einigen Jahren genau diese Dreierstruktur bei den Propaganda-Bots eingeführt worden. Ihre Diskussionsbeiträge waren von denen menschlicher Internet-Nutzer nicht zu unterscheiden. Weil die Entwickler ihre Propaganda-Roboter tarnten. Joachim Scharloth:

Man kann die Diskussion in eine andere Richtung lenken

"Wie kann man soziale Inhalte so gestalten, dass sie glaubhaft wirken. Wie kann man Bots erscheinen lassen, dass sie menschlich sind? Da gehört natürlich mehr dazu, als nur sinnvolle Sätze zu posten, sondern auch sich zu vernetzen, Katzenbilder zu posten, Privates zu äußern und so weiter."

Wer solch einen Bot baut, braucht klare Vorgaben, wie sein Auftraggeber in der Diskussion erscheinen will, also zum Beispiel heimatverbunden oder kraftvoll.

"Es wird komplizierter, je mehr Züge so eine Kommunikation hat. Wenn man sich anschaut, was sind typische Musterverkettungen in solchen Gesprächen. Jemand stellt eine Behauptung auf, jemand anders kritisiert sie. Daraufhin wird gefragt, was die Quelle ist. Man kann auf diese Weise die Diskussion in eine andere Richtung lenken, vielleicht sogar ablenken. Und das mit wenigen Zügen machen."

Politiker nutzen Socials Bots

21. Oktober 2016. Die AfD-Politikerin Alice Weidel kündigt in einem Pressegespräch an, dass ihre Partei im Bundestagswahlkampf 2017 auch Social Bots einsetzen wolle. Diese Art der Wahlwerbung sei für eine moderne Partei ein Muss. Bei allen im Deutschen Bundestag vertretenen Parteien bricht daraufhin ein Sturm der Entrüstung los. Der Einsatz von Social Bots im Wahlkampf werde abgelehnt, versichern Vertreter von CDU, CSU, SPD, Bündnis90/Die Grünen und der Linken. Noch am selben Abend muss Alice Weidel auf Druck ihrer AfD-Vorstandskollegen zurückrudern.

Doch Forschung aktuell-Reporter des Deutschlandfunks schauen sich daraufhin die Social Media-Aktivitäten deutscher Politiker und ihrer Parteien genauer an. Sie verwenden dafür die Analyseplattformen "Bot or Not", "Tweetstat" und andere Mustererkennungsprogramme: Das Ergebnis:

Politiker aller Parteien nutzen schon heute Social Bots. Sie erstellen ihre Posts mit der Buffer-App und auf der Hootsuite-Plattform oder nutzen Twitterfeed, um aus ihren eigenen Blogeinträgen vollautomatisch Tweets erstellen zu lassen.

Definitionen sind noch unklar

Der Schritt zum ausgewachsenen Propaganda-Roboter, der automatisch einen Tweet tausendfach weiterverbreitet, ist in technischer Hinsicht nicht groß. Viele Politiker treibt deshalb die Frage um, ob nicht bestimmte Arten von Social Bots per Gesetz verboten werden müssen.

Ein Hacker mit Kapuzenpullover arbeitet an seinem Laptop. Er könnte auch die Server einer Parteizentrale oder eines Abgeordnetenbüros angreifen. (picture alliance / dpa / Philippe De Poulpiquet)

Die Diskussion gewinnt gerade massiv an Dynamik. In einem Fachgespräch über Social Bots will das Büro für Technikfolgenabschätzung beim Deutschen Bundestag am 26. Januar analysieren, was welche Bots im Detail machen. Dabei interessiert die Frage, wo genau die rote Linie zwischen einem Social Bot als Web-Helferlein und einem Social Bot als Propaganda-Roboter verläuft. Die Definition braucht der Innenminister, weil er gegen Propaganda-Bots vorgehen will. Im Augenblick herrschen da noch sehr unklare Vorstellungen, die der Sprecher des Bundesinnenministeriums, Johannes Dimroth, um die richtigen Worte ringend, so beschreibt.

"Es ist natürlich so, dass wir das Thema, wie gesagt, in den Blick nehmen und sehr ernst nehmen und für uns im ersten Schritt den Schluss daraus gezogen haben auch das hatte ich hier schon einmal ausgeführt, dass wir uns noch mehr bemühen, als objektive, rein der Sache verpflichtete Stimme vorzukommen."

Fake News müssen den Erwartungen entsprechen

Social Bots können eine Botschaft hunderttausendfach oder gar millionenfach verstärken. Dabei wird auch gern mit Fake News gearbeitet. Diese Fake News werden regelrecht konstruiert. Denn sie müssen den Erwartungen entsprechen, die die einzelnen Menschen in ihrer jeweiligen Lebenssituation gerade haben. Was die Big-Data-Algorithmen dann an individuellen Botschaften an einzelne Wähler verschicken, wird auf Twitter oder Facebook allgemeiner aufbereitet.

Egal, ob Mails an Einzelne versendet werden oder ein Tweet ein Millionenpublikum erreicht, jede Botschaft profitiert von einem wahren Kern. Eine peinliche Information, mit der ein Politiker bloßgestellt werden kann. Am schnellsten gelangt ein Kampagnenplaner an solche Details, wenn er einen Hacker die Server der Parteizentrale oder des Abgeordnetenbüros dieses Politikers angreifen lässt. Sicherheitsberater Dirk Arendt von Checkpoint Software rät deshalb Politikern und politischen Parteien zu vorsorglichen Sicherheitsmaßnahmen.

"Es fängt bei der Hardware und Software an. Aber es geht dann so weit, dass wir auch entsprechend die Mitarbeiter schulen müssen. Denn der Mitarbeiter sitzt immer letztendlich vor dem Gerät und der muss darauf geschult werden, wie er sich bei solchen Sachen verhalten kann. Dann aber auch, wenn der Angriff stattgefunden hat, wie ein Notfallplan aussieht, wie er sich da verhalten muss."

Laptops von Politiker angreifbar

Doch nicht einmal so weit sind Bundesregierung oder Parteien. Statt dessen beteuert Innenminister Thomas de Maizière:

"Wenn die Kommunikation in den Regierungsnetzen stattfindet, so sind sie nach unseren bisherigen Erfahrungen sicher."

Sicherheitsexperten schütteln da nur den Kopf. Zudem hat der Tübinger Sicherheitsberater Sebastian Schreiber auf der Berliner Sicherheitskonferenz im November 2016 einen Angriffsweg gezeigt, der leichten Zugang zu vertraulicher Information bietet. Dieser Angriff läuft über den Laptop des Politikers, den dieser zum Beispiel bei einem öffentlichen Vortrag nutzt, um seine Folien zu projizieren.

Laptops sind oft ein leichtes Angriffsziel. (imago stock&people)

Die meisten Redner setzen einen sogenannten Presenter ein. Das ist eine Art abgespeckte Funkmaus, mit der die jeweils nächste Folie aufgerufen werden kann. Der Presenter sendet Funksignale an einen USB-Empfänger. Und diesen USB- Empfänger behandelt der Laptop wie eine Tastatur. Jetzt kann ein Hacker zunächst ausspionieren, wie Presenter und USB-Empfänger kommunizieren, unverschlüsselt in der Regel. Und dann kann er auf der gleichen Frequenz Tastaturbefehle an den Laptop senden, etwa den Befehl, eine bestimmte Schadsoftware herunterzuladen, sobald Internetanschluss vorhanden ist. Nimmt der Politiker diesen Laptop mit in die Parteizentrale oder in sein Abgeordnetenbüro, überträgt sich die Schadsoftware auf die dortigen Server, kann dort weitere Spionagesoftware installieren und den Politiker ausspähen. Und was der Angreifer da an peinlichen Informationen findet, lässt er dann über seine Propaganda-Roboter in den sozialen Netzwerken verbreiten.

Ein Gütesiegel kann keine Cyberangriffe verhindern

Die hilflose Antwort der Bundesregierung gibt Innenminister de Maizière:

"Wir wollen einen Vorschlag für ein Gütesiegel zur Sicherheit für IT-Projekte und IT-Produkte erarbeiten. Die Anwender sollen künftig auf der Basis eines einheitlichen verständlichen Gütesiegels bei der Kaufentscheidung für neue IT-Produkte und bei der Inanspruchnahme entsprechender Dienstleistungen schnell und einfach feststellen können, welche Angebote wie gut zum Schutz der IT und der Daten beiträgt. Und auch dies wird eine Aufgabe des BSI sein."

Ein Gütesiegel kann keine Cyberangriffe verhindern. An peinliche Informationen als Grundlage für Kampagnen kommen Online-Kriminelle und Geheimdienste nur, indem sie sich in Computer hacken. Grundlagen dafür sind Sicherheitslücken. Experten fordern schon seit Jahren eine Meldepflicht, doch die haben die Geheimdienste stets verhindert. Sie brauchen solche Sicherheitslücken nämlich für ihre eigenen Spähangriffe.

Mitte Januar aber hat sich Bundeswahlleiter Dieter Sarreither in die festgefahrene Debatte eingeschaltet. Er fordert besseren Schutz für das Verwaltungsnetz, über das am 24. September die Ergebnisse aus den einzelnen Wahllokalen an die Zentrale übermittelt werden. Denn wenn diese Rechnernetze gehackt würden, könnte es zu massiven Störungen bei der Bundestagswahl kommen. Die Diskussion über Sicherheitslücken bekommt dadurch neuen Schwung.

"Wir wissen, dass das Internet kaputt ist"

Der Druck auf den Gesetzgeber und damit insgesamt auf die Politik nimmt zu. Mit Cyberangriffen, Big-Data-Algorithmen und Social Bots steht das Handwerkszeug für Desinformationskampagnen jedem zur Verfügung, der Wähler manipulieren will. Nicht nur in Deutschland denken die Parteien laut darüber nach, wie sie solche Manipulation verhindern können. Eine flüchtige Idee folgt dabei der nächsten. Das kleine Essener Journalistenbüro Correctiv soll für den Internetkonzern Facebook Falschmeldungen nachspüren. Union und SPD wollen neue Gesetze gegen Fake News auf den Weg bringen und ein Strafgesetz für Lügen ohne Personenbezug. Im EU-Parlament streiten sich Vertreter der Piraten und der Europäischen Volkspartei, wie die Datensammelei der Werbeindustrie beschränkt werden könnte. Falk Garbsch, Sprecher des Chaos Computer Clubs, hält nicht viel von solchen mit der heißen Nadel gestrickten Vorschlägen.

'Next Level Big Data' steht am 17.03.2015 auf der CeBIT in Hannover mit Graffiti auf einem Container (dpa/picture alliance/Ole Spata)

"Wir wissen, dass das Internet kaputt ist. Das wissen wir seit Jahren. Das ist tatsächlich etwas, wo die Politik sich die Zähne ausbeißt. Und da ist unsere Vorstellung, dass das so ein bisschen die falsche Richtung ist, die da passiert. Wir brauchen Regelungsmechanismen, die wehtun, das heißt, wir müssen besser werden."

Aktivisten wollen das Ausspähen der Netz-Nutzer beenden

Netzaktivisten und Wissenschaftler wollen tiefer ansetzen. Zum einen natürlich am besseren Schutz vor Cyberangriffen durch gezielte Bekämpfung der Sicherheitslücken. Zum anderen wollen sie das kontinuierliche Ausspähen der Netz-Nutzer beenden. Denn die dort gesammelten Daten sind das Futter für Big-Data-Algorithmen und damit die Wurzel der Wählermanipulation. Eine effektive Maßnahme wäre das Verbot der geräteübergreifenden Nutzer-Identitätsnummer, die von den großen Datenagenturen eingesetzt wird. Doch wer will das durchsetzen? Auch die Forderung von Netzexperte Karsten Schramm klingt derzeit noch utopisch:

"Eigentlich bräuchten wir wieder ehrliche Software. Früher war es so - früher klingt immer so problematisch, aber es war in der Tat so: Früher hat man Software geschrieben, die hatte halt einen Sinn und genau dafür wurde sie geschrieben. Man hat eine Textverarbeitung gehabt, also hat diese Software nur Textverarbeitung gekonnt. Man hat ein Spiel gehabt, die Software konnte nur das Spiel. Heute haben Sie Apps auf sehr leistungsfähigen Geräten und auch Programme, die machen vielleicht 30 Prozent dessen, was der Benutzer einkauft, und 70 Prozent im Hintergrund irgendetwas anderes, um die Refinanzierung der Entwicklung dieser Software sicherzustellen. Und das ist aus meiner Sicht eine problematische Entwicklung, wirklich wie ein Trojaner oder ein Virus. Und diese Software gehört eigentlich gesetzlich verboten. Da müsste der Gesetzgeber ran und müsste sagen: Wenn ich eine Textverarbeitung einkaufe, wenn ich eine Tastatur für mein Handy aktiviere, dann krieg ich auch nur eine Tastatur und nicht noch jede Menge Zusatzfunktionen, die mir als Benutzer auch nicht bewusst sind und die ich auch normalerweise gar nicht möchte.

Das Gift der Manipulation wirkt schleichend

24. September 2017. Wahlsonntag. Bundestagswahl in Deutschland.

Ein entscheidender Tag. Denn an diesem Tag wird sich nicht nur zeigen, wie der Deutsche Bundestag für die nächsten vier Jahre zusammengesetzt ist, sondern auch, wie groß die Manipulationstendenzen im davor liegenden Wahlkampf waren. Noch wirken die Aktionen der Bundesregierung hilflos. Die technischen Möglichkeiten sind so grenzenlos, dass es ein Leichtes ist, mit ihnen freie und geheime Wahlen abzuschaffen, ohne dass der Wähler das merkt. Das Gift der Manipulation wirkt schleichend, wenn es mit modernen Mitteln der Informationstechnik verabreicht wird.