Mit schlechten Songs lassen sich auf Spotify Hunderttausende Dollar verdienen. Man muss nur wissen, wie man den Algorithmus überlistet.

Von Michael Moorstedt

Ach, wie einfach waren die Zeiten früher für die Musikindustrie, als sie nur von digitalen Raubkopien bedroht war. Wie kompliziert es heute zugeht, das zeigt ein Fall, über den kürzlich das Branchenmagazin Music Business Worldwide berichtet hat. Es ging um zwei Playlists auf Spotify, die in mehrerlei Hinsicht auffällig waren. Sie enthielten enorm viele Songs und wurden beinahe ausschließlich von denselben 1200 Nutzern angehört.

Diese Nutzerkonten wurden von den Machern der Songs selbst angelegt. Die Lieder waren mies zusammengeschustert und selten länger als eine halbe Minute, die Mindestdauer, um bei Spotify als Künstler eine Gewinnausschüttung zu erhalten. In einem Monat könnte ein Spotify-Account einen solchen Song 60 000 Mal abspielen. Branchenkenner schätzen die Tantiemen pro Song auf 0,004 Dollar pro Wiedergabe. So kommt man mit 1200 Konten auf knapp 300 000 Dollar pro Monat. Ein perfektes Geschäftsmodell, so einfach wie dreist.

Was da auf Spotify passiert war, ist kein Einzelfall. Immer wieder finden Menschen Mittel und Wege, die Empfehlungs- und Monetarisierungsalgorithmen der Tech-Firmen hinters Licht zu führen. Das aktuellste Beispiel sind neben der Spotify-Masche politische Fake News auf Facebook, die nicht mehr nur aus ideologischen, sondern auch aus monetären Gründen lanciert werden.

Früher waren es Spam-E-Books in Amazons Kindle Store, die populäre Suchbegriffe auf leere Dokumente kleisterten. Die Macher hofften, ein paar Gutgläubige würden schon auf den Kaufen-Knopf drücken. Ein paar Jahre zuvor schwemmten sogenannte Content-Farmen durch zielsichere Suchmaschinenoptimierung minderwertige Erklärartikel zu allen erdenklichen Banalitäten des Alltags ganz nach oben in die Google-Ergebnislisten und generierten so ein Vermögen.

Verstörende Kindervideos überfluten Youtube

All das ist mal mehr, mal weniger bösartig, aber völlig legal. Den letzten Fall, der für Aufregung gesorgt hat, beschrieb der Künstler und Journalist James Bridle in einem viel beachteten Blogpost. Auf Youtube stieß er auf eine Unzahl automatisch generierter Zeichentrickvideos und andere vor allem an Kinder gerichtete Inhalte. Bridle fand sich in einem bizarren Kaninchenbau wieder, in dem Youtube-Kanäle pro Woche Hunderte dieser Filmchen hochluden.

Die Clips bestanden vor allem aus Animationen aus dem Stock-Archiv und aus Schlagwörtern, die endlos wiedergekäut wurden. Mit Erfolg. Sie wurden millionenfach geklickt und brachten den Machern enorm viel Geld. Doch irgendetwas schien in der selbstlaufenden Produktion schiefzugehen. Immer wieder sah Bridle Videos mit grotesk vertauschten Köpfen, Bleichmittel trinkenden Disney-Figuren oder animalischem Geschrei im Hintergrund. Eine industrialisierte Albtraumproduktion.

Youtube, Amazon, Spotify und Google griffen schnell ein. Die Videos, Playlists und Bücher sind gelöscht. Nur mit den Fake News tut man sich noch schwer. Das bedeutet nicht, dass das Problem gelöst ist. Im Internet ist eine Art automatisierter Kapitalismus entstanden. Maschinen, die für sich selbst arbeiten, bis jemand kommt und eingreift. Die Mittel, diese Belohnungssysteme auszubeuten, sind fest in dieser Maschine verdrahtet, werden gar von ihr begünstigt. Es wird produziert, wonach der Algorithmus verlangt. Das nächste Schlupfloch ist mit Sicherheit schon gefunden.