Von Michael Moorstedt

Der Zeitraum, in dem aus einer theoretischen eine praktische Gefahr wird, schrumpft immer mehr. Zumindest, wenn es um Software geht. Vor einem Jahr klang es noch sehr futuristisch, dass künftig nicht mehr menschengemachte Falschmeldungen die Wahlen beeinflussen würden, sondern sogenannte Deep Fakes von künstliche Intelligenzen. Heute sieht man auf thispersondoesnotexist.com Menschen, die es nicht gibt. Der Eigentümer der Website, ein Software-Ingenieur namens Philip Wang, nutzt einen von der Firma Nvidia entwickelten Algorithmus, um auf seinem Server alle zwei Sekunden ein neues künstliches Gesicht zu erstellen, das dann per Zufallsgenerator hochgeladen wird. Und auf den ersten Blick wirken die computergenerierten Porträts absolut glaubhaft. Erst wenn man genauer hinsieht, erkennt man kleine Unstimmigkeiten. Gerade bei Haaren, Zähnen oder Augenbrauen scheint sich das Programm noch schwerzutun. Doch sieht im Netz jemand zweimal hin?

Es gibt nun also ein künstliches Antlitz. Fehlt nur, ihm künstliche Botschaften anzudichten. Passenderweise haben Forscher des kalifornischen Open-AI-Instituts gerade einen neuen Algorithmus namens GPT-2 vorgestellt, der angeblich genau das vermag. Bislang war Software zur automatischen Textgenerierung von zahlreichen Problemen geplagt. Weil der Speicher zumeist nicht ausreichte, vergaßen die Programme oft in der Mitte des Satzes, worum es an dessen Anfang ging. Das führte zu dadaistischen Experimenten, die gerne Maschinen-Poesie genannt werden. GPT-2 hat jetzt einen viel größeren Pool an Beispielen, aus dem es schöpfen kann. Um den Algorithmus mit Trainingsdaten auszustatten, sammelten die Forscher Texte von mehr als acht Millionen Webseiten, insgesamt 40 Gigabyte an Schriftsprache.

Die Geschichte handelt von englischsprechenden Einhörnern in den Anden

In einem Versuch gab man der Software etwa zwei Sätze vor, die besagten, dass in den Anden eine Gruppe von Englisch sprechenden Einhörnern entdeckt wurde. Das Programm spann die irrsinnige Geschichte dann auch stimmig weiter, erfand Experten, die zitiert wurden, berichtete von Details der Expedition, von anstehenden DNA-Proben oder möglichen Hinweisen auf Aliens. Die KI schrieb also eine von jenen unzähligen Quatschgeschichten, die man heutzutage in den Niederungen des sozialen Netzes finden kann und die auch reichlich angeklickt werden. GPT-2 schreibt die Geschichten aber nicht nur von selbst, so das Open-AI-Team, es sei auch in der Lage, die von ihm erdachten Zusammenhänge zu erkennen. Es wäre also ein System, das nicht nur Geschichten erfinden könnte, sondern auch Nachfragen glaubhaft beantworten könnte. Wäre ein Twitter-Bot so ausgestattet, wäre er der perfekte Agent Provocateur.

Nach Meinung eines der beteiligten Forscher seien die Resultate gut genug, um in Oberschultests gute Noten zu erzielen. Nicht nur politische Falschmeldungen, sondern auch gefälschte Produktrezensionen könnten so vollautomatisch, massenhaft und glaubhaft produziert werden. Die Ergebnisse seien so gut, dass man sich entschieden habe, GPT-2 unter Verschluss zu halten. Die Branchenpresse höhnte darauf in ihren Schlagzeilen etwa: "Eine KI, zu gefährlich, um sie auf die Menschheit loszulassen." Von zahlreichen Seiten hagelte es Kritik, denn was sei ein Experiment wert, wenn es nicht von unabhängiger Seite repliziert werden könne? Die Entwickler haben darauf eine einfache Antwort: "Es gibt viele Menschen, denen viel besser boshafte Anwendungen dafür einfallen als uns."