Generative neuronale Netze (GANs) erzeugen quasi aus dem Nichts realistisch wirkende Fotos oder Videos.Ian Goodfellow, der das Verfahren erfunden hat, verbringt seine Zeit mittlerweile damit, hauptsächlich gegen die dunkle Seite seiner Entdeckung zu kämpfen. An eine rein technische Lösung für die immer besseren maschinell erzeugten Fake-Bilder und - Videos glaubt der Experte jedoch nicht, berichtet Technology Review in seiner aktuellen Ausgabe.

GANs bilden gewissermaßen den Wettlauf zwischen einem Kunstfälscher und einem Kunstdetektiv ab: Beide versuchen in mehreren Runden, schlauer als der jeweils andere zu sein. Zwei neuronale Netze werden mit derselben Datensammlung trainiert. Das erste, der Generator, hat die Aufgabe, künstliche Outputs wie Fotos oder Handschriften zu erzeugen, die so realistisch sind wie möglich. Das zweite, der Diskriminator, vergleicht das Ergebnis mit echten Bildern aus der Trainingssammlung und versucht, Originale und Fälschungen zu unterscheiden. Auf der Basis dieser Ergebnisse passt der Generator seine Parameter für das Erzeugen neuer Bilder an. Und so geht es weiter, bis der Diskriminator nicht mehr erkennen kann, was echt ist und was gefälscht.

Das Verfahren kann beispielsweise dazu genutzt werden, künstliche, aber absolut realistische Patientendaten zu erzeugen, die so gut sind wie echte, sagt Casey Greene von der University of Pennsylvania. Solche Daten könnten weitergegeben werden und dazu beitragen, die Forschung voranzubringen, während die echten Daten gut geschützt bleiben müssen. Es kann aber auch genutzt werden, um Fake-Videos zu erzeugen, die extrem realistisch wirken.

Die KI-Community müsse die Lektionen aus früheren Innovationswellen lernen, bei denen Sicherheit und Datenschutz als Nebensache behandelt wurden, warnt GAN-Erfinder Ian Goodfellow. „Den Anfang haben wir eindeutig schon hinter uns“, sagt er, „aber hoffentlich können wir erhebliche Fortschritte bei der Sicherheit machen, bevor wir zu weit vorangekommen sind.“

Ob das jedoch auch bei Fälschungen von Bildern oder Videos gelingt, ist fraglich – auch wenn es Forscher derzeit versuchen. Hany Farid etwa, der sich am Dartmouth College mit digitaler Forensik beschäftigt, arbeitet an besseren Methoden zur Erkennung von Fake-Videos, etwa anhand von leichten Veränderungen der Gesichtsfarbe beim Ein- und Ausatmen; bislang sind GANs relativ schlecht darin, das exakt nachzuahmen. Doch er warnt, dass sich die Netze wieder anpassen werden.

„Wir sind in einer fundamental schwachen Position“, sagt Goodfellow. Er ist daher nicht der Meinung, dass es eine rein technische Lösung gegen das Problem der Fälschungen geben wird. Eher werden wir gesellschaftliche Lösungen entwickeln müssen. Man könne Kinder mit Vortrags- und Debattier-Unterricht in kritischem Denken schulen. „Bei Reden und Diskussionen tritt man gegen andere Schüler an“, erklärt er, „und man denkt darüber nach, wie man irreführende Behauptungen aufstellt oder korrekte Behauptungen, die große Überzeugungskraft haben.“

(wst)