"Wir brauchen den Menschen im System, das Urteil von Experten ist unersetzlich" (Delip Rao)

"Sie werden versagen", unkt schon jetzt das US-Magazin "Wired". Denn neuronale Netze könnten zwar Bilder erkennen und sogar autonome Autos lenken, "aber sie können Fake-News nicht identifizieren, zumindest nicht mit realer Gewissheit." Dafür brauche es ein menschliches Urteil. Davon ist auch Pomerleau überzeugt: "Wenn eine Maschine zuverlässig Fake-News erkennt, würde das bedeuten, dass die künstliche Intelligenz ein menschliches Level erreicht hat."

Artikel und Aussagen wie diese ärgern Victoria Rubin. "Natürlich werden Algorithmen Falschmeldungen erkennen können", sagt die Forscherin, die sich auf "natural language processing" – die maschinelle Verarbeitung menschlicher Sprache – spezialisiert hat, "aber nicht in den nächsten zwei Monaten." Unbemerkt von der Öffentlichkeit beschäftigt sich eine kleine Gruppe Wissenschaftler schon seit rund 15 Jahren damit, wie man Lügen automatisch erkennen kann, vielleicht 30 bis 50 Experten weltweit schätzt Rubin. "Aber jetzt explodiert es." Seit das Internet den Lügen zum Erfolg verholfen und die Welt das Thema als Problem erkannt hat, können sich diese Forscher vor Anfragen kaum retten. Doch in Bezug auf Falschmeldungen stehen sie ebenfalls noch am Anfang.

In der Vergangenheit haben sich diese Wissenschaftler damit beschäftigt, wie beispielsweise Gerichtsgutachter oder Polizisten erkennen können, ob ein Zeuge lügt, woran man gefälschte Hotelbewertungen erkennt oder ob Blogs im Internet wahre oder falsche Inhalte verbreiten. Die Herausforderung in Bezug auf Fake-News sind unter anderem die Trainingsdaten: So wie eine Bilddatenbank mit Millionen gelabelter Bilder beispielsweise Googles Bilderkennungsalgorithmus groß gemacht hat, braucht es auch unzählige von Menschen als falsch und richtig markierte Meldungen, mit denen ein Algorithmus üben kann.

Die besseren Lügendetektoren

Überraschenderweise stellen sich die Maschinen beim Lügenerkennen schon heute deutlich besser an als der Mensch – was auch daran liegt, dass der Mensch sehr schlecht darin ist. Rubin und ihre Kollegen ließen bereits vor sieben Jahren rund 250 Probanden wahre und falsche Kurzgeschichten schreiben. Anschließend sollten sie selbst kennzeichnen, welche Erzählungen frei erfunden waren. Die gelogenen Geschichten sollten allerdings plausibel sein – beispielsweise konnten die Probanden eine wahre Begegnung schildern und nur Kleinigkeiten ändern, oder auch ganze Gegebenheiten erfinden, etwa einen Verkehrsunfall.

Anschließend baten die Forscher andere Teilnehmer, zu beurteilen, welche der Geschichten gelogen waren. Sie erkannten das mit einer Genauigkeit von 53 Prozent – man hätte also ebenso gut eine Münze werfen können. "Menschen sind schlecht darin, Lügen zu erkennen", sagt Rubin. "Wir haben eine falsche Tendenz, wir glauben gerne alles, wir suchen nicht nach Lügen." Ein Algorithmus hingegen, den Rubin anschließend mit den gleichen wahren und falschen Geschichten trainierte, fand offenbar doch Muster in den Texten, die auf Lügen schließen ließen: Er ordnete 63 Prozent der Texte richtig zu. Das ist zwar ebenfalls weit davon entfernt, zuverlässig zu sein – aber es ist eine Frage der Definition, was als Maßstab für die "reale Gewissheit" dient, die "Wired" fordert. Der Mensch? Dann sind die Maschinen schon heute besser.

"Menschen sind schlecht darin, Lügen zu erkennen" (Victoria Rubin)

Die Forscher nutzten in den Folgejahren verschiedene andere Trainingsdaten, beispielsweise satirische Artikel, die ebenfalls "falsche" Behauptungen enthalten – zumindest falls man die darin enthaltene Ironie und Satire nicht versteht, was ebenfalls vielen Menschen schwerfällt. Ein Algorithmus von Rubin und ihrem Team erkannte 2016 Satire mit einer Zuverlässigkeit von 87 Prozent – und als die Forscher zusätzliche Regeln programmierten, wie die, dass der erste und der letzte Satz eines solchen satirischen Artikels meist besonders deutliche Anzeichen enthalten, erreichten sie gar eine Genauigkeit von 91 Prozent. "Bis vor Kurzem hieß es, Ironie, Sarkasmus und Emotionen erkennen nur Menschen", sagt Rubin. Wieso also sollte Lügenerkennung eine menschliche Domäne bleiben?