Facebook steht derzeit massiv in der Kritik: der Firma Cambridge Analytica ist es gelungen, sich die Daten von Millionen Nutzern anzueignen.

Digitalexperte Ben Scott hat analysiert, wie sich Falschmeldungen auf Facebook verbreiten. Er sagt: Das Hauptproblem ist das Werbemodell des Konzerns.

Interview von Hakan Tanriverdi

Der Fall Cambridge Analytica wirft auch die Frage auf, wie sich Falschmeldungen auf Facebook so rasant verbreiten können. Der Digitalexperte Ben Scott hat genau das analysiert. Dabei fiel ihm auf, dass manche Informationen einen Schub bekamen, obwohl sie vorher kaum Beachtung gefunden hatten - aus unerklärlichen Gründen. Scott, der für den Thinktank "Stiftung Neue Verantwortung" in Berlin arbeitet, vermutet, dass dieser unerklärliche Schub mit dem Werbemodell von Facebook zusammenhängt.

Also untersuchte er dieses Modell, gemeinsam mit seinem Kollegen Dipayan Ghosh. Sowohl Scott als auch Ghosh arbeiteten früher in der US-Regierung. Scott unter anderem als Digitalberater für die damalige Außenministerin Hillary Clinton, Ghosh ging danach zu Facebook. Im Interview erklärt Scott, wie soziale Netzwerke versuchen, die Gesellschaft zu spalten und was Facebook jetzt tun muss, um einen neuen Datenskandal zu verhindern.

SZ: Herr Scott, was ist die zentrale Erkenntnis Ihrer Analyse?

Ben Scott: Das Grundproblem, das wir in der Werbeindustrie haben, ist dass in massivem Ausmaß verhaltensbezogene Daten gesammelt werden - und, dass sich diese Daten für politische Werbekampagnen missbrauchen lassen.

Inwiefern?

Für Werbetreibende stellt es keinen Unterschied dar, ob sie Schuhe verkaufen wollen oder Rassismus. Die Struktur ist unverändert: Die gesammelten Daten werden dazu verwendet, Nutzer in Gruppen einzuteilen. Diese Gruppen sind fein säuberlich getrennt, nach politischen Ansichten, nach Bildung und ähnlichen Merkmalen. Dieses System hilft Werbetreibenden: Sie können die Menschen dazu bringen, Dinge zu tun, die sie eigentlich nicht tun würden.

Aber so funktioniert, grob vereinfacht, doch jede Art von Werbung.

Der Unterschied zwischen sozialen Netzwerken und klassischen Medien liegt im Targeting, also dem gezielten Ansprechen von bestimmten Gruppen. Bei klassischer Werbung richtet man sich ganz grob an alle, zumindest an ein breiteres Publikum. Und weil man nicht weiß, wen man alles erreicht und niemanden verprellen will, ist man vorsichtiger. Die Werbung auf sozialen Netzwerken ist aufgeteilt in 100 Untergruppen und keine davon wird mitbekommen, was die Anderen sehen.

Wie einfach lässt sich dieses System denn ausnutzen?

Man muss jedenfalls nicht besonders clever sein. Facebook hat sehr viel Geld in Algorithmen gesteckt, die die gezielte Ansprache perfektionieren sollen. Sie machen es für die Werbetreibenden leicht. Früher musste man sehr genau wissen, wen man ansprechen wollte und das auch mitteilen, wenn man eine Werbekampagne auf Facebook geschaltet hat. Heute reicht es aus, grobe Linien vorzugeben und Facebook füllt die Lücken aus.

Detailansicht öffnen Hat analysiert wie sich Falschmeldungen auf Facebook verbreiten: Ben Scott. (Foto: picture alliance / dpa)

Facebook schaut beispielsweise, ob Kampagnen von unterschiedlichen Gruppen untereinander Ähnlichkeiten aufweisen?

Zum Beispiel. Facebook hat das Ziel, Menschen so lange wie möglich auf der Plattform zu halten. Das heißt: Wenn die Werbung, die man schaltet, erfolgreich ist und Menschen dazu bringt, mit ihr zu interagieren, wird das belohnt. Man erreicht einerseits mehr Menschen und andererseits muss man für die nächste Werbung weniger zahlen, als Belohnung.

Was ist die Konsequenz?

Inhalte, die Menschen spalten bekommen mehr Reichweite. Inhalte, die unterhalten oder polarisieren ebenfalls. Das führt dann dazu, dass vermehrt solche Beiträge beworben werden - damit die Menschen weiterhin auf der Seite bleiben.

Wozu das führen kann, sehen wir gerade beim Fall von Cambridge Analytica. Die Firma hat einen Weg gefunden, an Daten zu kommen, mit denen sie Menschen manipulieren und Teile der Gesellschaft gegeneinander ausspielen kann.

Viele Menschen bezweifeln, dass die Psychospielchen von Cambridge Analytica erfolgreich waren.

Cambridge Analytica nutzt aus, was in der Gesellschaft an Spaltung existiert. Sie sind also nicht alleine dafür verantwortlich, die politische Meinungsbildung zu beeinflussen.

Die Gesellschaft in den USA ist tief gespalten und das nicht erst seit Cambridge Analytica. Hilft es, die Firma zu dämonisieren?

Es stimmt, dass die Gesellschaft in den USA seit vielen Jahren polarisiert ist. Das zeigt sich vor allem in der Diskussion um kulturelle Identitäten. Soziale Netzwerke tragen dazu bei. Sie sortieren Menschen in Gruppen. Menschen, die ähnliche Sichtweisen haben. Mit Andersdenkenden tritt man nur noch in Kontakt, wenn man sich anschreien will.

Das ist sehr vereinfachend.

Aber größtenteils akkurat. Um bildlich zu sprechen: Cambridge Analytica hat gesehen, dass die Tür bereits einen Spalt breit geöffnet ist und hat sich entschieden, sie weit aufzustoßen. Cambridge Analytica wollte die Gesellschaft radikalisieren.

Man kann die Schuld zwar nicht nur bei Cambridge Analytica und Facebook suchen. Auch das Internet ist nicht schuld. Aber es wurden Technologien und Geschäfts- und Werbemodelle entwickelt, die dazu beitragen, alles zu verschlechtern.

Facebook wurde jahrelang vorgeworfen, sich zu sehr abzuschotten. Jetzt wird ihnen vorgeworfen, zu viele Daten preisgegeben zu haben. Egal, wie sie es machen, es scheint falsch zu sein.

Das ist nicht von der Hand zu weisen.

Wenn Facebook Sie anrufen und um Tipps bitten würde, was wäre denn Ihre Antwort?

Es gibt zwei Wege, Schaden abzuwenden ohne das dahinterliegende Geschäftsmodell fundamental zu ändern. Erstens: Politische Werbung muss klar gekennzeichnet werden. Wer für sie gezahlt hat, wie viele Menschen erreicht wurden, welche Werbungen noch so geschaltet werden, das muss transparent sein. Dann würden Nutzer wissen, dass sie eine Anzeige zu sehen bekommen, weil sie zum Beispiel Weiße sind, um die 50 Jahre alt, und mit einem Hochschulabschluss in einer wohlhabenden Gegend wohnen.

Der zweite Weg wäre: Facebook verbietet, dass Daten gesammelt werden, die in politisch sensiblen Bereichen missbraucht werden können. Oder - wenn sie das nicht wollen - dann verbieten sie, dass solche Daten für die Werbung in politisch sensiblen Bereichen verwendet werden.

Sollte Facebook die Daten im Zweifel löschen?

Facebook sollte eher den Zugang zu den Daten einschränken. Nicht für normale, aber auf jeden Fall für politische Werbung.