Facebook hat sich offenbar von dem Film "Minority Report" inspirieren lassen und verwendet seinen reichhaltigen Datenschatz über die Aktivitäten der Mitglieder seiner Plattform, um mithilfe Künstlicher Intelligenz (KI) vorherzusagen, wie sich Nutzer künftig verhalten werden, welche Produkte sie kaufen und welche Einstellungen sie entwickeln.

Die Ergebnisse der Analysen, für die der Betreiber des sozialen Netzwerks die eigene KI-Technik "FBLearner Flow" einsetzt, werden "anonymisiert" auch an Werbekunden verkauft, damit diese noch zielgerichteter für einzelne Gruppen von Nutzern Anzeigen schalten können. Dies geht aus vertraulichen Dokumenten hervor, über die das Online-Magazin "The Intercept" berichtet.

KI für "relevante Inhalte" zur vorausschauenden Werbung weiterentwickelt

Das System funktioniert demnach ähnlich wie "Predictive Policing", also die umstrittene vorausschauende Polizeiarbeit. Bei "Predictive Advertising" à la Facebook können die Werbepartner Verbraucher nicht nur auf Basis demografischer Daten oder persönlicher Präferenzen passgenau ansprechen, sondern auch auf der Grundlage der automatisierten Voraussage künftigen Verhaltens. Dazu fließen laut dem Bericht Facebook direkt zur Verfügung stehende Informationen über den Nutzer ein wie sein Aufenthaltsort, das verwendete Gerät, Details über eine mögliche WLAN-Verbindung, angeschaute Videos, Vorlieben sowie Details zur Freundesliste einschließlich der Ähnlichkeit miteinander verknüpfter Profile.

Der Plattformbetreiber hat FBLearner Flow offiziell schon im Mai 2016 vorgestellt und eingeführt als ein Werkzeug, um durch KI und Maschinenlernen "jede[m] die am meisten relevanten Inhalte zu liefern". Von Werbung war dabei aber nicht die Rede, nur allgemein von einem verbesserten "Nutzererlebnis". Das System sei imstande, Algorithmen in verschiedenen Produkten einzusetzen und gleichzeitig tausende angepasste "Experimente" laufen zu lassen und einfach zu handhaben.

Die Technik werde schon von über 25 Prozent des Entwicklungsteams von Facebook verwendet, hieß es damals. Es seien bereits über eine Million einschlägige Modelle trainiert worden, sodass das System mehr als sechs Millionen Vorhersagen pro Sekunde ausspucken könne und sich damit viel Handarbeit erübrige. Auch später machte die Firma nur vage Andeutungen dazu, dass "Maschinenlernen auch für Anzeigen" verwendet werde.

Bevorstehende Entscheidungen von Nutzern ändern

Auf einer der jetzt ins Spiel gekommenen Folien erläutert Facebook dem Magazin zufolge, wie es seine gesamte Nutzerbasis von über zwei Milliarden Individuen durchgehen und Millionen von Mitgliedern herauspicken könne, die gerade kurz davor seien, "von einer Marke zu einem Wettbewerber zu wechseln". Diese könnten dann massiv mit Anzeigen bearbeitet werden, um ihre drohende Entscheidung in letzter Minute zu ändern. Facebook spreche hier von einer "verbesserten Marketingeffizienz" dank einer "Loyalitätsvorhersage".

Es gehe also nicht mehr nur darum, einem Nutzer eine "Golf"-Reklame zu zeigen, weil er längere Zeit Informationen über Volkswagen konsumiert habe. Vielmehr nutze der Betreiber Anhaltspunkte aus der persönlichen Lebensumwelt um herauszufinden, ob ein Anwender die Nase von seinem derzeit gefahrenen Auto voll habe.

Psychometrik mit 29 000 Kriterien

Prinzipiell funktioniert Facebooks KI-Werbung so ähnlich wie die Profilerstellung auf Basis der Psychometrik, die ein Markenzeichen der Big-Data-Firma Cambridge Analytica ist. Diese steht im Mittelpunkt des aktuellen Datenskandals rund um die beiden Unternehmen. Ziel dieses Teilgebiets der Psychologie ist es, die menschliche Persönlichkeit mithilfe mathematischer Verfahren und KI anhand bestimmter Merkmale wie Offenheit, Gewissenhaftigkeit oder Extraversion auszumessen.

Während Cambridge Analytica und vergleichbare Big-Data-Häuser aber auf die Nutzerdaten angewiesen sind, die sie über die öffentlichen Schnittstellen der Plattform absaugen können, sitzt Facebook auf dem vollständigen Informationsbestand mit unbegrenztem Zugang zu umfangreichen Datenbanken über das Verhalten und die Präferenzen der Mitglieder. Der Betreiber unterscheidet dabei zwischen rund 29.000 verschiedenen Kriterien über jeden einzelnen Nutzer.

Wertvoller als Nutzerdaten sind Erkenntnisse über Verhalten

Facebook selbst betont immer wieder, keine Nutzerdaten an Dritte zu verscherbeln. Konzernchef Mark Zuckerberg unterstrich dies gerade wieder bei den Anhörungen im US-Kongress zur jüngsten Datenaffäre. Was die Plattform verkauft, ist aber viel wertvoller, nämlich die bereits ausgewerteten Erkenntnisse über das Nutzerverhalten. Im Geheimdienstjargon spricht man hier von "Finished Intelligence", also den Endprodukten der Überwachung und Aufklärung in einfach verständlichen Informationen und Hinweisen an die Leitungsebene, im Gegensatz zu den schier unzähligen Roh- und Metadaten.

Experten zufolge kann Facebook so weite Teile des Lebens aktiver Nutzer simulieren, was zahlreiche ethische Fragen aufwerfe. So sei der Konzern eigentlich verpflichtet, den Nutzern zu offenbaren, dass er mit KI ihre elektronischen Spuren in bare Münze umwandle. Besonders "unheimlich" sei es, dass die Firma dank der Methode eine Art sich selbst erfüllende Prophezeiung anstoßen und diese nicht nur für klassische Produktwerbung, sondern etwa auch für Anzeigen in einem Wahlkampf einsetzen könne.

Die neuen Facetten über das Datengebaren des Konzern dürften so den Druck auf die Politik erhöhen, Facebook und andere Internetgrößen stärker zu regulieren. Gegenüber "The Intercept" wollten die Kalifornier sich nicht dazu äußern, welche Nutzerdaten sie konkret für die Verhaltensvorhersagen heranziehen. (tiw)