Künstliche neuronale Netzwerke können Videos fälschen und Politikern Dinge in den Mund legen, die sie nie gesagt haben.

Von Simon Hurtz, Berlin

Wie gefährlich sind Deep Fakes? Bedrohen Videos, die mit Hilfe künstlicher neuronaler Netzwerke manipuliert werden, die Demokratie? Die beste Antwort liefert ein Beispiel aus Gabun: Vor knapp einem Jahr tauchte ein Video auf, das angeblich die Neujahrsansprache des Präsidenten Ali Bongo zeigt. Die Opposition witterte einen Deep Fake und unterstellte Bongo, mit einem gefälschten Video zu vertuschen, dass er schwer krank sei. Daraufhin putschte das Militär erfolglos gegen den Staatschef - obwohl es bis heute keinen Beweis für eine Manipulation gibt.

Der Fall zeigt exemplarisch, was die meisten Forscher immer wieder betonen: Gefährlicher als Deep Fakes selbst ist der Vertrauensverlust, der damit einhergeht. Gezielt gestreute Falschnachrichten haben die Grenzen zwischen Fakten, Desinformation und Lügen aufgeweicht. Jetzt lassen Deep Fakes Menschen zweifeln, ob sie ihren Augen und Ohren trauen können. Selbst bewegte Bilder gelten plötzlich nicht mehr als Beweis, Wahrheit wird relativ.

Das deckt sich mit der Einschätzung der Bundesregierung. In einer bislang unveröffentlichten Antwort auf eine Kleine Anfrage der FDP-Fraktion, die der SZ vorliegt, schreibt sie: "Deep Fakes können das gesellschaftliche Vertrauen in die grundsätzliche Echtheit von Audio- und Videoaufnahmen und damit die Glaubwürdigkeit öffentlich verfügbarer Informationen schwächen." Die Antwort verweist darauf, dass Wissenschaftler "angesichts der noch geringen Relevanz für die Öffentlichkeit vor einer Überbewertung der Gefahren für demokratische Prozesse" warnten.

Trotzdem glaubt die Bundesregierung, dass Deep Fakes "eine große Gefahr für Gesellschaft und Politik darstellen können, wenn sie dazu genutzt werden, die öffentliche Meinung zu manipulieren." Deshalb werde das Thema in mehreren Ressorts und auch innerhalb der obersten Bundesbehörden behandelt.

Unter anderem beschäftigten sich Arbeitseinheiten im Auswärtigen Amt, dem Innen- und dem Justizministerium mit Deep Fakes. Bildungs- und Verteidigungsministerium förderten Forschungsvorhaben zu IT-Forensik und manipulierten Videos als Instrument hybrider Kriegsführung. Auch im Bundeskanzleramt seien Deep Fakes ein Thema.

"Ich halte dieses ignorante Verhalten für gefährlich"

"Wie so oft bei Fragen des digitalen Wandels hat sich die Bundesregierung nur sehr oberflächlich mit Deep Fakes auseinandergesetzt", sagt Manuel Höferlin (FDP), der die Anfrage mit zwei Fraktionskollegen gestellt hatte. Statt eine abgestimmte Strategie zu entwickeln, beschäftigten sich Ministerien mit Einzelfragen. "Besonders problematisch finde ich, dass die Bundesregierung offensichtlich keine Gefahr von Deep Fakes im Zusammenhang mit Wahlen erkennt." Die Bundesregierung dürfe sich nicht aus der Verantwortung stehlen, indem sie auf Maßnahmen der EU verweise. "Ich halte dieses ignorante Verhalten für gefährlich", sagt Höferlin.

Als Gegenmaßnahme will die Bundesregierung die Medienkompetenz stärken. Diese Fähigkeit sei entscheidend, "um gegen Desinformation im Allgemeinen und Deep Fakes im Besonderen gewappnet zu sein." Bislang könnten auch komplexe Fälschungen zeitnah erkannt werden. Der schnelle technische Fortschritt lasse jedoch befürchten, dass Deep Fakes künftig demokratische Prozesse bedrohen könnten, etwa wenn manipulierte Videos Desinformationskampagnen begleiteten und ihren Effekt verstärkten.

Die FDP-Abgeordneten skizzieren in ihrer Anfrage drei Arten, wie Deep Fakes Schaden anrichten können: Erstens böten sie "neue und bessere Möglichkeiten für Desinformation". Darauf geht die Bundesregierung ausführlich ein. Zweitens gefährdeten Deep Fakes Identifikationsverfahren, da sich mit der Technik biometrische Merkmale wie Stimme, Iris und Gesicht fälschen ließen. Auch diese Bedrohung taucht in der Antwort an mehreren Stellen auf.

Deep Fakes bedrohen Frauen - kein Thema für die Bundesregierung?

Die dritte Gefahr betrifft in erster Linie Frauen: Deep Fakes werden genutzt, um die Gesichter von Prominenten oder Privatpersonen in pornografische Videos zu manipulieren. Entsprechende Apps wurden Hunderttausende Male heruntergeladen, die gefälschten Pornos verbreiten sich im Netz und auf Schulhöfen. Tatsächlich ist diese Art der Persönlichkeitsrechtsverletzung der mit Abstand verbreitetste Anwendungsfalls: Dem Sicherheitsunternehmen Deeptrace Labs zufolge machen gefakte Pornos 96 Prozent aller Deep Fakes aus.

Obwohl die Bundesregierung die 18 Fragen auf neun Seiten ausführlich beantwortet, spielt die Gefahr für Frauen keine Rolle. Es wird lediglich darauf verwiesen, dass die Länder dafür zuständig seien, Verbraucherinnen und Verbraucher zu beraten. Lapidar heißt es: "Die Bundesregierung verfügt derzeit nicht über Informationen darüber, ob in den Ländern entsprechende Beratungs- und Hilfeeinrichtungen speziell zu Deep-Fake-Anwendungen bestehen."

Höferlin findet es "inakzeptabel", dass die Bundesregierung "mit keiner Silbe" auf diese Bedrohung eingehe. Anscheinend betrachte sie die Gefahren von Deep Fakes nur aus der Perspektive der Desinformation. "Es fehlt ihr offenbar an jeglichem Problembewusstsein", sagt Höferlin. Bei pornografischen Inhalten seien Deep Fakes bereits heute eine reale Gefahr für Privatpersonen. Die Bundesregierung müsse sich dieser Problematik dringend bewusst werden. "Denn digitale Gewalt - vor allem gegen Frauen - ist ein gesellschaftlich höchst brisantes Thema."