von Konrad Lischka and Christian Stöcker, 3.7.17

Der Mann, den die meisten nur als Captain Kirk kennen, hat im Frühjahr 2017 ein prägnantes Beispiel dafür geliefert, wie sich unsere Medien- und Kommunikationswelt im vorangegangenen Jahrzehnt verändert hat. Der Schauspieler William Shatner, der Kirk in der Fernsehserie Star Trek verkörperte und sich in dieser Rolle gern mit dem Bordarzt „Pille“ McCoy „kabbelte“, geriet wieder einmal mit einem Mediziner in Streit. Diesmal aber im realen Leben und höchst öffentlich.

Ausgangspunkt des Streits war ein Tweet Shatners. Er warb darin für Autism Speaks, eine im Jahre 2005 in den USA gegründete Stiftung, die sich eigenem Bekunden zufolge für Menschen mit Autismus einsetzt, aber in der Vergangenheit mit Kritik und sogar Boykottaufrufen zu kämpfen hatte. Viele Menschen mit Autismus fühlen sich von der Organisation aus einer Reihe von Gründen nicht vertreten, zudem vertrat man bei Autism Speaks lange Zeit die wissenschaftlich unhaltbare Position, Autismus werde durch Impfungen verursacht.

Shatner hat auf Twitter 2,5 Millionen Follower. Sein Autism-Speaks-Tweet bekam viel Aufmerksamkeit – insbesondere von Personen, die der Organisation höchst kritisch gegenüberstehen. Als die Diskussion hitziger wurde, schaltete sich ein Mediziner ein, der sich mit den Verschwörungstheorien von Impfgegnern schon ausführlich beschäftigt hat. David Gorski, Onkologe an der Wayne State University in Detroit, betreibt ein Blog, das sich für evidenzbasierte Medizin und gegen pseudowissenschafliche Behauptungen einsetzt. Unter ideologisch motivierten Impfgegnern hat Gorski viele Feinde.

Gorski erklärte in einer ganzen Serie von Tweets, warum Autism Speaks eine umstrittene Organisation ist. Shatner, der selbst weder Impfgegner noch Verschwörungstheoretiker ist, reagierte so, wie viele das in dieser Situation tun würden: Er googelte Gorski.

Dann begann er das, was er dabei fand, unbesehen an seine 2,5 Millionen Follower zu verteilen. Etwa einen Artikel über den Mediziner auf einer höchst dubiosen Webseite namens TruthWiki, betrieben von einem Impfgegner und Verschwörungstheoretiker. Gorski wird in dem Text als „bezahlter Lügner der Impfindustrie“ diffamiert, der eine „pseudowissenschaftliche Religion“ vertrete und zu „wahnsinnigen Wutausbrüchen“ neige. Ein weiterer ergoogelter Artikel, den Shatner verbreitete, wirft dem Onkologen vor, er werbe für „medizinische Interventionen, die Krebs verursachen, weil er am Ende von Krebserkrankungen profitiert“.

Der Mediziner, der sich für die wissenschaftliche Methode und gegen Verschwörungstheorien, die gerade in diesem Bereich lebensgefährlich sein können, einsetzt, wurde einem Millionenpublikum als bösartiger, raffgieriger Scharlatan vorgeführt. Als ein Nutzer Shatner fragte, warum er nicht einfach Gorskis – korrekten – Wikipedia-Eintrag gelesen und getwittert habe, erwiderte der Schauspieler, „Truthwiki“ habe „bei Google weiter oben“ gestanden.

Der Fall zeigt exemplarisch eine ganze Reihe von Faktoren auf, die zu einem radikalen Wandel der Art und Weise geführt haben, wie heute Öffentlichkeit hergestellt wird.

Auf den digitalen Kommunikationsplattformen der Gegenwart ist die traditionelle Abgrenzung zwischen persönlicher und öffentlicher Kommunikation verschwunden.

Als Folge davon können einzelne Individuen, in diesem Fall William Shatner, plötzlich potenziell ein Millionenpublikum erreichen. In der Kommunikationswissenschaft wird in diesem Zusammenhang von der Entmachtung der traditionellen Gatekeeper – Journalisten, Pressestellen und so weiter – gesprochen.

Dem Einzelnen stehen völlig neue, mächtige, aber keineswegs unfehlbare Methoden der blitzschnellen Informationsgewinnung zur Verfügung, im Beispiel die Suchmaschine Google.

Diese Werkzeuge zur Informationsgewinnung folgen bestimmen algorithmischen Regeln.

Die Kriterien, nach denen die Algorithmen Relevanz bemessen, decken sich vielfach nicht mit den Qualitätskriterien, die gute Journalisten oder Wissenschaftler anlegen würden.

Die Algorithmen arbeiten vielfach deskriptiv – sie bilden etwa ab, auf welche Links in der Vergangenheit besonders häufig geklickt wurde. Die Ergebnisse werden von vielen Nutzern aber als normativ wahrgenommen („stand bei Google weiter oben“).

Bei bestimmten, extrem umstrittenen Themen wie der falschen Hypothese, es bestehe ein Zusammenhang zwischen Autismus und Impfungen, können kleine, aber hoch motivierte Minderheiten durch ihr Nutzungsverhalten dafür sorgen, dass eine massive Divergenz zwischen inhaltlicher Qualität und algorithmisch ermittelter „Relevanz“

Die Art und Weise, wie über digitale Kanäle kommuniziert wird, kann zu rascher Eskalation eigentlich trivialer Konflikte führen, selbst dann, wenn es inhaltlich de facto gar keinen Dissens zwischen den Beteiligten gibt.

Dass sogenannte Intermediäre wie Google oder Facebook eine relevante Rolle für die Meinungsbildung spielen, auch hierzulande, zeigen viele Studien. 57 Prozent der deutschen Internetnutzer beziehen auch politisch-gesellschaftliche Informationen über Suchmaschinen oder soziale Netzwerke. Zwar ist der Anteil derer, die soziale Netzwerke als ihre wichtigste Nachrichtenquelle nennen, mit sechs Prozent aller Internetnutzer noch relativ klein – aber in den jüngeren Altersgruppen sind die Anteile deutlich höher. Meinungsbildung sei „ohne Intermediäre nicht mehr denkbar“, so formulierten es 2016 Forscher vom Hamburger Hans-Bredow-Institut.

Dieser Strukturwandel der Öffentlichkeit erfordert ein erweitertes Verständnis von Medienvielfalt – sechs Thesen zur spezifischen Gestaltungsleistung der Intermediäre und den Herausforderungen, die sich daraus für die Vielfaltssicherung ergeben.

Die nach Reichweite wichtigsten Debattenräume der digitalen Sphäre sind auf maximales Engagement optimiert.

Die Gestaltungsprinzipien dieser Intermediäre führen zu einem Strukturwandel der Öffentlichkeit. Drei zentrale Aspekte sind:

Entkopplung von Veröffentlichung und Reichweite: Jeder kann veröffentlichen. Aber nicht jeder findet ein Publikum. Aufmerksamkeit entsteht erst durch das Zusammenwirken von Menschen und Prozessen algorithmischer Entscheidungsfindung (ADM-Prozesse).

Zentrale Auswahlinstanzen und Personalisierung der Auswahl: Es gibt bei Intermediären eine deutlich geringere Vielfalt als bei redaktionell kuratierten Medien. Das wird nur selten als Vielfaltsproblem thematisiert, weil die Personalisierung der Auswahl darüber hinwegtäuscht. Aber auch wenn jeder Nutzer bei heute großen Intermediären eine eigene Auswahl bekommt – die Prinzipien, nach denen ausgewählt wird, sind stets die gleichen.

Größerer Einfluss des Publikums auf Reichweiten durch algorithmische Analyse der Reaktionen: Nutzerreaktionen beeinflussen ADM-Prozesse insgesamt und die Reichweite jedes Beitrags. Das ist die neue, zentrale Rolle von Nutzerreaktionen und algorithmischen Prozessen: Beide bestimmen die Verteilung von Aufmerksamkeit über Intermediäre.

Intermediäre messen Engagement an automatischen, impulsiven Reaktionen der Menschen.

Die Intermediäre erfassen zur Errechnung ihrer Relevanzwerte eine Vielzahl von Variablen. Diese Signale reichen von basalen Verhaltensmaßen wie der Scrollgeschwindigkeit oder der Verweildauer auf einzelnen Seiten bis hin zum Grad der Interaktion zwischen mehreren Nutzern eines sozialen Netzwerks. Wenn eine Person, mit der man bei Facebook schon öfter kommuniziert hat, einen Inhalt postet, ist die Wahrscheinlichkeit höher, dass man diesen Inhalt zu sehen bekommt als bei einer anderen Person, mit der man zwar theoretisch digital verknüpft ist, praktisch aber nie in Kontakt tritt. Auch die Signale, die andere Nutzer – womöglich sogar unwissentlich – aussenden, gehen in die Relevanzbewertung mit ein, seien es Verlinkungen, Klicks auf Links oder den „Gefällt mir“-Button, Shares, oder die Anzahl der Kommentare, die ein bestimmter Inhalt hervorruft.

Die Intermediäre verändern selbst ständig die Variablen, die sie messen.

Die Relevanzsignale, über die Plattformbetreiber aus Wettbewerbs- und anderen Gründen nur ungern detailliert Auskunft geben, sind potenziell problematisch. Einmal deshalb, weil die Betreiber der entsprechenden Plattformen sie selbst ununterbrochen verändern: Systeme wie die von Google oder Facebook sind in einem permanenten Wandel begriffen, an nahezu jedem Aspekt der Benutzeroberfläche und anderen Eigenschaften der Plattformen wird experimentiert und geschraubt, um bestimmte Effekte zu erzielen, etwa die Interaktionsintensität zu steigern. Jede dieser Veränderungen beeinflusst ihrerseits potenziell die Relevanzsignale, die die Plattformen selbst messen.

Die reichweitenstärksten Intermediäre begünstigen Verhalten ohne Nachdenken.

Ein zentrales Credo der Gestaltung kommerzieller digitaler Plattformen lautet, dass Interaktionen möglichst einfach und mühelos sein sollten, um ihre Wahrscheinlichkeit zu maximieren. Auf den „Gefällt mir“-Button oder einen Link zu klicken, erfordert keinerlei kognitive Anstrengung. Und von dieser Anstrengungslosigkeit machen viele Nutzer augenscheinlich intensiv Gebrauch: So legen empirische Untersuchungen nahe, dass viele Artikel, die in sozialen Netzwerken mit einem Klick an den eigenen digitalen Freundeskreis weitergereicht werden, zuvor nicht gelesen worden sein können. Nutzer verbreiten also Medieninhalte weiter, von denen sie selbst nur die Überschrift und den Anreißertext kennen. Sie gaukeln dem Algorithmus und damit ihren „Freunden“ und Followern gewissermaßen nur vor, einen Text gelesen zu haben.

Die Leichtigkeit der Interaktion begünstigt zudem kognitive Verzerrungen, die in der Sozialpsychologie schon seit vielen Jahren bekannt sind. Ein gutes Beispiel ist die Verfügbarkeitsheuristik: Wenn ein Ereignis oder eine Erinnerung sich leicht aus dem Gedächtnis abrufen lässt, wird es oder sie als besonders wahrscheinlich oder häufig eingeschätzt. Die Konsequenz: Nicht gelesene, aber aufgrund einer Überschrift besonders häufig weitergereichte Medieninhalte begegnen Nutzern eines sozialen Netzwerks oft – und werden deshalb im Nachhinein als „wahr“ oder „wahrscheinlich“ erinnert. Das gilt auch dann, wenn der Text selbst womöglich klarmachen würde, dass die Überschrift eine groteske Übertreibung, irreführend oder einfach falsch ist.

Das hat Folgen wie negative Emotionalisierung und begünstigt kognitive Verzerrungen.

Tatsächlich zeigen einschlägige Studien, dass besonders emotionalisierende Inhalte auf Netzwerkplattformen besonders häufig kommentiert und weitergereicht werden – vor allem dann, wenn es sich um negative Emotionen handelt. Ein derartig emotionaler Umgang mit Nachrichteninhalten kann zu einer stärkeren gesellschaftlichen Polarisierung führen.

Insbesondere in den USA gibt es für diese These auch erste empirische Belege. Allerdings scheinen solche Polarisierungseffekte von einer Reihe weiterer Faktoren abzuhängen, etwa dem Wahlsystem eines Landes: Gesellschaften mit Mehrheitswahlrecht wie die der USA sind womöglich anfälliger für extreme politische Polarisierung als solche mit Verhältniswahlrecht, in denen wechselnde Koalitionen regieren und ein Mehrparteiensystem institutionalisiert Interessenausgleich begünstigt.

Vermutlich besteht auch eine Wechselwirkung zwischen bereits erfolgter Polarisierung und den Ergebnissen algorithmischer Sortierung von Medieninhalten. Eine Studie zeigt zum Beispiel, dass sich Anhänger von Verschwörungstheorien bei Facebook im Lauf der Zeit immer stärker der eigenen Verschwörungstheoretiker-Community zuwenden. Intensiviert wird dieser Prozess womöglich durch den Sortieralgorithmus, der ihnen entsprechende Inhalte immer häufiger vor Augen führt. Zumindest bei Menschen mit extremen Ansichten könnten diese Systeme also tatsächlich die Entstehung sogenannter Echokammern befördern.

Wir müssen Medienvielfalt in der digitalen Öffentlichkeit auch als Vielfalt algorithmischer Prozesse gestalten, die Relevanz bewerten.

Die Relevanzbewertungen der wenigen heute dominierenden algorithmischen Sortiersysteme für Medieninhalte folgen nicht notwendigerweise gesellschaftlich wünschenswerten Kriterien. Leitwerte wie Orientierung an der Wahrheit oder gesellschaftliche Integration spielen keine Rolle. Primär zählt die Optimierung der Interaktionswahrscheinlichkeit und der Verweildauer auf der jeweiligen Plattform.

Im Zentrum der komplexen Wechselwirkungen digitaler Öffentlichkeit stehen algorithmische Prozesse, die Inhalte sortieren und die Zusammenstellung personalisieren. Deshalb müssen Lösungen zuerst hier ansetzen. Das kann auf verschiedene Weise geschehen: Die Plattformen und ihre Auswirkungen besser erforschbar machen, auf mehr Vielfalt bei algorithmischen Sortierprozessen drängen, Leitwerte verankern, etwa durch eine Entwickler-Berufsethik. Und nicht zuletzt: Die Sensibilisierung des Publikums für die neuen Mechanismen, die heute Öffentlichkeit beeinflussen.

Aktuelle Debatten etwa über Fake News oder Hatespeech laufen auf einer zu dünnen empirischen Basis. Fachleute, die nicht für die Plattformbetreiber selbst arbeiten, müssen in die Lage versetzt werden, die Auswirkungen der dort getroffenen Entscheidungen wissenschaftlich zu begleiten und zu erforschen. Derzeit ist der Zugriff auf dafür notwendige Daten, die den Betreibern selbst in gewaltiger Zahl vorliegen, für externe Wissenschaftler oder Regulierungsbehörden wie die Medienanstalten mühselig bis unmöglich. Sowohl die Designentscheidungen der Plattformbetreiber als auch ihre Auswirkungen für individuelle Nutzer sind weitgehend intransparent. Systematische Verzerrungen etwa in einer bestimmten politischen Richtung ließen sich auf Basis der derzeit verfügbaren Daten kaum erkennen.

Mehr Transparenz durch eine Kombination aus freiwilligen Selbstverpflichtungen und im Zweifel auch regulatorischen Maßnahmen könnte unabhängiges Wissen über die tatsächlichen gesellschaftlichen Auswirkungen algorithmischer Sortierung von Medieninhalten ermöglichen und mögliche Gefahren frühzeitig erkennbar machen. Eine bessere Erforschbarkeit würde eine sachliche und lösungsorientierte Debatte fördern und könnte neue Lösungsansätze aufzeigen. Eine solche Entwicklung könnte auch helfen algorithmische Systeme stärker auf gesellschaftliche Teilhabe hin zu optimieren. Das würde eine differenzierte Betrachtung algorithmischer Prozesse fördern und könnte das Vertrauen in die zum Nutzen der gesamten Gesellschaft gestalteten Systeme stärken.

Veröffentlicht unter CC BY-SA 3.0 DE (Namensnennung – Weitergabe unter gleichen Bedingungen). Teils ergänzter, teils gekürzter Auszug aus: “Digitale Öffentlichkeit – Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen”, 1. Auflage 2017 , 90 Seiten (PDF), DOI 10.11586/2017028

Was Sie tun können, um CARTA zu unterstützen? Folgen, liken und teilen Sie uns auf Facebook und Twitter. Unterstützen sie uns regelmäßig über die Plattform steady oder spenden Sie an den CARTA e.V. Wenn Sie über neue Texte und Debatten auf CARTA informiert werden wollen, abonnieren Sie bitte unseren Newsletter.