Was wir von Algorithmen wissen : Der Skandal um Cambridge Analytica ist inszeniert

Lorena Jaume-Palasí ist Mitgründerin der Initiative „Algorithm Watch“. Sie forscht zum Datenschutz und plädiert für eine Ethik der Digitalisierung. Von zusätzlicher Gesetzgebung hält sie nichts. Ein Interview.

Wie erklären Sie jemandem, den Sie zum ersten Mal sehen, Ihre Arbeit?

Algorithm Watch erforscht und prüft Automatisierungsprozesse in Bezug auf Gerechtigkeit und Fairness. Viele komplexe Prozesse in der Mitte der Gesellschaft lassen sich heutzutage automatisieren. Dabei können Menschen manipuliert oder diskriminiert werden, weil sie in statistische Schubladen gesteckt werden. Umgekehrt kann Automatisierung aber auch Diskriminierungsmuster erkennen. Wir prüfen beides.

War das der Anlass dafür, Algorithm Watch zu gründen?

Wir wissen wenig über die sozialen und ethischen Folgen von Automatisierung. Es gibt kaum Forschung und wenn, ist sie oft auf Sicherheitsrisiken beschränkt und betrachtet keine Diskriminierungs- oder Manipulationsrisiken. Die Debatte, die wir über Automatisierungsprozesse führen, ist von Angst und Ungewissheit bestimmt. Mit der Gründung von Algorithm Watch wollten wir für mehr Sachlichkeit sorgen, Zahlen und Fakten sammeln, daraus Theorien entwickeln und diese in die Debatte einbringen.

Immer mehr Entscheidungen werden auf Basis von Algorithmen getroffen.

Algorithmen werden überall und schon seit langem eingesetzt. Wir benutzen Bankautomaten, die Ampelschaltung ist automatisch, und medizinische Geräte geben einen automatischen Befund ab. Die Nutzung von komplexeren Algorithmen, die große Datenmengen brauchen, befindet sich dagegen noch in einem sehr frühen Stadium. Die meisten Unternehmen in Deutschland und der EU haben zu kleine Datenbanken, um diese Verfahren nutzen zu können. Sie fangen aber damit an. Jeder Algorithmus kann Diskriminierung, Manipulation oder einen Mehrwert in sich tragen. Deshalb arbeiten wir an einem Mapping der Automatisierungsverfahren in Deutschland. Zugleich schauen wir uns die Umsetzung in der Praxis an, etwa im Personalmanagement, um Alltagsprobleme zu erforschen und ethische Normen auszuarbeiten.

Vor zwei Jahren haben Sie Algorithm Watch auf der Konferenz re:publica vorgestellt. Häufig ist die Rede von Filterblasen, die durch Automatisierung entstehen.

Die Angst vor der Filterblase ist die Angst vor dem, was wir Propaganda nennen. Es gibt reichlich Forschung zu Propaganda, und die Frage, ob die Menschen sich trotz Filterblase informieren können, beantwortet die Studienlage recht deutlich: In Deutschland werden andersartige Meinungen sehr wohl wahrgenommen. Das ist es, was unser Land von China unterscheidet. Deutschland ist in vielen politischen Fragen polarisiert – und beide Pole kennen einander.

Sie haben nichts gegen Filterblasen?

Problematisch ist, dass neue Akteure wie die sozialen Medien einen Teil der Öffentlichkeit moderieren. Das war traditionell etwas, was in den Händen des Staates und der Presse lag. Diese neuen Akteure haben aber wirtschaftliche Interessen. Andererseits stellen soziale Medien eine Infrastruktur zur Verfügung, mit der Menschen ihre Grundrechte ausüben können. Wenn wir ihnen dieselben Pflichten wie der Presse oder dem Staat auferlegen, wird das problematisch, denn im Umkehrschluss müsste man ihnen dieselben Privilegien und Rechte verleihen. Die Demokratie würde darunter leiden.

Algorithmen sind von Menschen gemacht, die Interessen verfolgen. Das hat zuletzt der Facebook-Skandal gezeigt. Was sollten wir aus der Cambridge-Analytica-Affäre lernen?

Das ist ein Beispiel für die Inszenierung eines Skandals. Cambridge Analytica hat seine algorithmische Methode der „Psychometrics“ nie benutzt. Ob sie funktionieren würde, wissen wir nicht. Die Statistiken zeigen: Die Wähler von Trump waren diejenigen, die Fox News verfolgen und kaum soziale Medien nutzen. Die Brexit-Befürworter waren in den sozialen Medien ebenfalls deutlich unterrepräsentiert. Demgegenüber war die Generation, die sich über Social Media informiert und austauscht, mehrheitlich gegen den Brexit.

Aber mehr Transparenz würde Plattformen wie Facebook schon guttun.