Zuerst erschienen auf WIRED.de

Jürgen Geuter ist Informatiker, Blogger und im Netz vor allem unter dem Pseudonym tante bekannt. Für WIRED Germany schreibt er über die Macht der Algorithmen.

Die Zeiten, in denen man noch in der Lage war, sich die für die eigenen Interessen relevanten Websites zu merken, sind längst vorbei. Auch Browser-Lesezeichen haben für viele nicht mehr die Bedeutung, die sie noch vor ein paar Jahren hatten: Als gepflegte, organisierte und teilweise öffentliche Sammlung (die Älteren erinnern sich vielleicht noch an Delicious) waren Bookmarks das digitale Äquivalent zum Schallplatten- oder Bücherregal. Um Menschen kennenzulernen, guckte man sich ihre über Jahre gesammelten und sortierten Bookmarks an.

Heute kriechen ganze Armeen von Suchmaschinenrobotern durchs Internet um die immensen Datenmengen, die jeden Tag hinzukommen, irgendwie beherrschbar zu machen. Wo das von Menschen kuratierte Bookmark-Verzeichnis aufgrund der gigantischen Informationsmengen scheitert, nehmen die Algorithmen der Suchmaschinenbetreiber die Arbeit auf und bauen ihre eigenen, unfassbar großen Indexdatenbanken, die Websites bestimmten Suchbegriffen zuordnen. Längst steht nicht mehr die URL, die Webadresse mit ihrem kryptischen „http://“ im Zentrum, sondern die Suchanfrage, die zu den jeweiligen Informationen führt. Die Quelle der Information ist fast egal. Search is king.

Die Quelle der Information ist fast egal. Search is king.

Die Veränderung des Umgangs mit dem Netz haben Suchmaschinen in eine besondere Machtposition versetzt: Viele, wenn nicht sogar die meisten Zugriffe auf Inhalte im Netz laufen über Suchmaschinen. Das geht so weit, dass viele Browser ihre Adresszeile zu einer Suchmaschinen-Eingabemaske erweitert haben: Wenn die Nutzer keine URL eingegeben haben, wird das Ganze einfach an eine Suchmaschine weitergeleitet. Sollen Google oder Bing sich doch einen Reim drauf machen. Natürlich kann jeder und jede eine eigene Website aufmachen, zu jedem vorstellbaren Thema, und sie bis zum Bersten mit Artikeln und Informationen füllen. Aber falls die Suchmaschine die neue Website nich unter die ersten paar Ergebnisse zu den relevanten Anfragen einsortiert, existiert sie de facto nicht. Dabei ist die fachliche Qualität der Inhalte sekundär, alles ordnet sich dem Kriterium der Relevanz unter.

Eigentlich sind Suchmaschinen ziemlich einfach gestrickt: Durch Zugriff auf ihren Index, der Websites unterschiedlichen Begriffen zuordnet, ist es einfach eine Liste aller Seiten zu erstellen, die den Begriff irgendwie enthalten. Die Reihenfolge, in der diese allerdings dem Nutzer oder der Nutzerin angezeigt werden, ist, was die Suchmaschinen voneinander unterscheidet. Googles ursprünglicher Algorithmus Page Rank beispielsweise bestimmte Relevanz durch die Anzahl der Verlinkungen auf eine Seite. „Wer oft verlinkt wird, wird schon gut sein“ war der durchaus plausible Gedanke, mit dem es Google gelang, seine Konkurrenz zu deklassieren. Positiver Nebeneffekt für Google: Man konnte auch ohne menschliche Experten die Relevanz beliebiger Seiter bestimmen. Klar brauchte man mehr Server dazu, aber Hardware ist — im Vergleich zu Menschen — spottbillig.

Relevanz ist kein objektiver Wert.

Doch die Entwicklung der Suchmaschinen blieb nicht auf der Stelle stehen. Einerseits musste man sich gegen all die Spammer und SEO-Experten wehren und ihre Tricksereien herausfiltern, um die Suchergebnisqualität für die Nutzer hochzuhalten. Google plant mittlerweile sogar einen „Trustworthyness Score“, der Publikationen mit wissenschaftlich überprüften Aussagen eine höhere Wertigkeit zuordnen soll.

Andererseits wurde zunehmend deutlich, dass Relevanz gar kein objektiver Wert ist. Was für die eine Person absolut zentral ist, könnte für die andere völlig beliebig sein. Wenn ich etwa nach „Python“ suche, meine ich damit die Programmiersprache und nicht sie Schlange. Für Reptilienfans sieht das möglicherweise ganz anders aus.

Und so begann vor allem der Branchenprimus Google, seinen Suchalgorithmus zunehmend zu personalisieren, die Suchhistorie, den Aufenthaltsort und andere Faktoren in die Bewertung der Relevanz für den Einzelnen einfließen zu lassen. Nicht immer zur Freude aller Beteiligten. Die Kalibrierung auf die Nutzer nehmen viele als Manipulation wahr, als Abkehr von den „objektiven“ oder „neutralen“ (und implizit „wahren“) Suchergebnissen. Google müsse neutral bleiben und allen Suchenden auf dieselben Anfragen dieselben Ergebnisse liefern, heißt es. Wie sonst könne man Google noch trauen?

Schon in der prädigitalen Zeit arbeiteten wir mit personalisierten Filtern.

Auch die Angst, durch personalisierte Suchergebnisse in eine immer enger werdende Filterblase eingesperrt zu werden, in der man nur noch mit Inhalten in Berührung kommt, die den eigenen Vorlieben entsprechen, treibt viele um. So stark, dass sogar eigene Suchmaschinen wie DuckDuckGo auf den Markt kommen, die explizit damit werben, sich eben nicht den Nutzern anzupassen, neutral zu bleiben und — etwas übertrieben — die ungefilterte, echte, biologisch angebaute Freiland-Wahrheit zu präsentieren.

Die grundsätzliche Ablehnung der (personalisierten) Filterung von Suchergebnissen ist allerdings nur auf den ersten Blick schlüssig. Denn schon in der prädigitalen Zeit lebten und arbeiteten wir mit genau solchen personalisierten, kommerziellen Filtern.

Beim Umzug in eine neue Stadt beauftragten wir einen oder mehrere Makler mit einem sehr detaillierten persönlichen Anforderungsprofil, um eine für uns möglichst passende Wohnung zu finden. Wer wirklich gut angezogen sein wollte, ging zum Schneider und ließ sich einen Maßanzug anfertigen. Und Unternehmen stellten ihren leitenden Mitarbeitern persönliche Assistenzen zur Seite, die sich mit jeder Woche der Zusammenarbeit besser auf die Bedürfnisse ihrer Vorgesetzten einstellten. „Trinkt ihren Kaffee mit wenig Zucker und Milch“ und „Montags keine Termine nach 15 Uhr, da holt er das Kind aus der Kita“ sind und waren nichts anderes als persönliche Profile der Vorgesetzten, die der Assistenz ihren Job erst ermöglichten.

Personalisierte Suchdienste sind eine Demokratisierung von Assistenz.

Allen diesen personalisierten Filter- und Unterstützungssystemen war eines gemein: Weil sie auf menschlicher Arbeit basierten, waren sie vergleichsweise teuer. So hatte an vielen Stellen nur eine kleine Elite Zugriff auf diese Art von Dienstleistung. Die Automatisierung der personalisierten Suche stellte sie schließlich einer größeren Menge von Menschen zur Verfügung. Denn um mehr Menschen Zugriff auf den Dienst zu geben, braucht der Anbieter nur ein paar zusätzliche Server. Aus dieser Perspektive sind personalisierte Suchdienste eine Demokratisierung von Assistenz und bieten mehr Menschen als je zuvor die Art von auf sie zugeschnittener Unterstützung, die bisher nur einer kleinen, reichen Elite zugänglich war. Personalisierte Suchmaschinen schränken Menschen nicht ein, sondern erlauben es ihnen, sich zielgerichtet mit für sie relevanten Optionen zu beschäftigen.

Was allerdings vielen dieser Algorithmen fehlt und ein großes Problem darstellt, vielleicht sogar eine Gefahr, sind Möglichkeiten der Nutzer, sie bewusst zu steuern und direkt Einfluss zu nehmen. Dem Algorithmus quasi zu sagen, wie man seinen Kaffee am liebsten trinkt. Personalisierung von Filteralgorithmen ist nicht das Problem, sondern ihre Intransparenz und mangelnde Interaktivität. Und genau dort liegen das Potenzial und der Bedarf für Alternativen zum 800-Pfund-Gorilla unter den Suchmaschinen: Google.

Im Moment ist allerdings genau der noch mein persönlicher Assistent. Er ist oft etwas wortkarg und unkommunikativ. Ich würde die Stelle gern neu besetzen. Kommunikationsfähigkeit und Transparenz der Personalisierung wären weit oben im Anforderungsprofil. Ich freue mich über Bewerbungen.

In der ersten Folge von „Machines Of Loving Grace“ erklärte Jürgen Geuter, was Algorithmen überhaupt sind — und was nicht.