WTF Das Internet ist voll von heißen IT-News und abgestandenem Pr0n. Dazwischen finden sich auch immer wieder Perlen, die zu schade sind für /dev/null. Mehr WTF-Meldungen

In der Netz-Community Reddit hat sich eine Nutzergemeinde um eine Machine-Learning-Software gebildet, die Gesichter in Videos gegen die anderer Personen austauschen kann. Die meisten der Nutzer der Software namens FakeApp nutzen sie, um die Gesichter bekannter Schauspielerinnen in Porno-Clips einzubauen. Es gibt aber auch zum Beispiel Videos, bei dem das Gesicht des argentinischen Präsidenten mit dem von Hitler kombiniert wurde. Um zu zeigen, wie mächtig die neue Software ist, hat ein Anwender damit sogar die digitale Leia Organa aus dem Star-Wars-Film Rogue One nachgebaut – und das ohne Millionenbudget.

Gal Gadot, Hitler, Prinzessin Leia

Die Software FakeApp stammt von einem Entwickler aus einer Reddit-Sub-Community, die sich um den Nutzer mit dem Pseudonym deepfakes gebildet hat. Dieser machte die Technik, Machine-Learning-Algorithmen für solche Face-Swaps zu nutzen, einer breiten Öffentlichkeit bekannt, nachdem die Nachrichtenseite Vice einen Bericht über sein Treiben veröffentlicht hatte. Er gründete ein nach ihm benanntes Subreddit, das mittlerweile über zwanzigtausend Mitglieder hat. Dort ist "Deepfake" mittlerweile ein geflügeltes Wort für diese Art von Videos.

Oben: Szene aus dem Film Rogue One, unten: Nachbau eines Reddit-Nutzers (Bild: deepfakes / Reddit )

Seit der Veröffentlichung von FakeApp ist die Technik einer noch größeren Masse von Internetnutzern zugänglich. Dies löste eine Welle von Fake-Porn-Videos und Parodie-GIFs aus. Die App nutzt das Machine-Learning-Werkzeug TensorFlow von Google und kann erstaunlich gute Ergebnisse vorweisen. Besonders das GIF der nachgebauten CGI-Leia zeigt, wie nahe die neuen KI-Techniken den Effekte-Meistern in Hollywood kommen können.

Geht es mit der KI schief, endet der Porn-Fake in einem Albtraum (Bild: MrDrPresidentNotSure )

Es gibt allerdings auch viele andere Beispiele, die den Zuschauer direkt ins Uncanny Valley verfrachten. Und manchmal geht das Trainieren der neuronalen Netzwerke so gründlich schief, dass das Ergebnis aussieht wie ein Zombie-Porno aus der Hölle. Aber die Ergebnisse werden immer besser und manche Nutzer trainieren ihre Netze bereits aus den Instagram-Streams weiblicher Prominenter.

Nach Fake Porn kommt Fake News

Wir werden uns wohl an eine Welt gewöhnen müssen, in der solche Video-Fakes immer besser und damit auch schwerer zu erkennen werden. Inklusive der dazugehörigen Konflikte mit den Persönlichkeitsrechten der betroffenen Personen. In Zukunft könnten solche Fälschungen als Grundlage von Propaganda oder absichtlich irreführender Nachrichten benutzt werden.

Das Ziel des Entwicklers von FakeApp ist es, dass bald jeder Nutzer ohne Vorwissen ähnliche Videos erzeugen kann: In Zukunft brauche man nur ein beliebiges Video und ein bereits auf ein berühmtes Gesicht trainiertes neuronales Netz, das man herunterladen kann. Die Software soll dann die Gesichter auf Knopfdruck austauschen. (fab)