Mehr Engagement im Bereich Künstliche Intelligenz (KI) in Deutschland und der EU hat SPD-Generalsekretär Lars Klingbeil angemahnt. Es blieben jetzt zwei, drei entscheidende Jahre, in denen hier die Weichen gestellt würden, erklärte der Sozialdemokrat am Dienstag bei den Data Debates von Tagesspiegel und Telefónica Basecamp in Berlin.

Zugleich betonte er: "Wir sollten dem Thema positiv begegnen." Europa müsse KI stärker auf Basis "unseres Wertekomplexes" gestalten, da sich sonst die USA mit ihrem privatwirtschaftlich getriebenem oder China mit seinem staatlichen Ansatz durchsetzen würden.

Führende Rolle in KI nicht zu jedem Preis

"Wir brauchen Leadership", mahnte Klingbeil. Von ganz oben in Politik, Wirtschaft und Wissenschaft müsse gesagt werden: "Wir wollen führend sein." Gleichzeitig gab der frühere Netzexperte der SPD-Bundestagsfraktion aber auch zu bedenken: "Nicht alles, was technisch möglich ist, sollte getan werden." Er wolle etwa nicht, "dass Maschinen festlegen, was Recht und Unrecht ist" oder die Kriegsführung von Algorithmen vorangetrieben werde.

Auch die Auswirkungen von Künstlicher Intelligenz auf die Arbeitswelt gälte es im Blick zu behalten, konstatierte Klingbeil. Roboter und KI würden Jobs vernichten, parallel entstünden durch die Technik aber auch neue. Dringend geführt werden müsse eine "Debatte über Moral und Verantwortung" von Maschinen. Die Bundesregierung und das Parlament hätten die dafür erforderlichen Räume mit der Daten-Ethikkommission und der Enquete-Kommission für Künstliche Intelligenz zur Verfügung gestellt. Generell wäre es ihm lieber, "wenn wir leidenschaftlich über KI streiten als jetzt anderthalb Jahre über Flüchtlinge".

Von den Eckpunkten der Bundesregierung für eine Strategie für Künstliche Intelligenz sei er "sehr enttäuscht" gewesen, räumte der Spitzenpolitiker ein. Bis zum finalen Papier, das im November stehen solle, müsse noch "sehr viel kommen". Klingbeil forderte: "Wir brauchen massiv Investitionen, müssen Startups fördern." Gefragt sei ferner ein "anderer Zugang" zu Daten, wie ihn SPD-Chefin Andrea Nahles vorgeschlagen habe. So müssten neben dem Staat auch Online-Plattformen ab einer gewissen Größe Daten anonymisiert für alle verfügbar machen. Weiter sei es nötig, KI zumindest in alle naturwissenschaftlichen Studiengänge einfließen zu lassen und möglichst überall im Bildungssektor zu integrieren.

Keine Angst vor KI

Auf den Data Debates diskutierten Ralf Herbrich, Isabella Hermann, Lars Klingbeil und Richard Benjamins (v.l.n.r) über KI. (Bild: Stefan Krempl)

Klingbeils Mitstreiter auf dem Podium waren vor allem bestrebt, in der Bevölkerung vorherrschende Ängste vor einer möglicherweise heranreifenden künstlichen Superintelligenz zu zerstreuen. Bei KI gehe es im Kern darum, "aus Daten Regelmäßigkeiten zu extrahieren", erläuterte Ralf Herbrich, Leiter des weltweiten Forscher- und Entwicklerteams für den technologischen Trendbereich bei Amazon. Die "Intelligenz" komme also aus den Informationen, "die wir dem Computer digital zur Verfügung stellen". Die Maschine lerne dabei in der Regel "in einer festen Domäne", die vom Menschen bestimmt werde.

In diesen klar umrissenen Bereichen wie Geschicklichkeits- oder Wissensspielen könnten Programme und Algorithmen zwar stärkere Fähigkeiten entwickeln als der Mensch, führte Herbrich aus. Laufen, gehen, greifen seien dagegen "hochkomplexe Aufgaben", die die Maschinen noch nicht gut beherrschten. Bei Amazon selbst würden KI-Systeme hauptsächlich verwendet, um wichtige menschliche Entscheidungen wie den Einkauf von Millionen neuer Produkte zu unterstützen. Es handle sich um Hilfsmittel, "die uns produktiver machen".

Der Informatiker, der nach eigenen Angaben selbst acht Alexas zu Hause hat und damit vor allem Musik hört, stellte zudem klar, dass Algorithmen nur schwer ethische Werte repräsentieren und keinesfalls allgemeingültigere Urteile als Menschen fällen könnten. Die Muster für die Datenwertung seien schließlich von Menschen erzeugt und würden so "nicht plötzlich objektiv". Wenn Menschen Entscheidungen träfen, fänden ebenfalls Verzerrungen statt. Eine KI sei her eher imstande, diese abzumildern.

"Horrorszenarien nützen herzlich wenig", meinte auch Isabella Hermann, Koordinatorin des Forschungsprojektes Verantwortung im digitalen Zeitalter der Berlin-Brandenburgischen Akademie der Wissenschaften. KI fungiere hier eher als Projektionsfläche für den Versuch, grundlegende Menschheitsprobleme wie die Angst vor Kontrollverlust zu bewältigen. Durchaus problematisch sei eine "Diskriminierung durch Daten", da der Algorithmus etwa beim Predictive Policing vorgaukele, dass eine Entscheidung objektiv sei. Wenn eine Software aufgrund der eingegebenen Datensets lauter Schwarze mit hohem Kriminalitätsscore etwa ausspucke, müssten "Gegenprogramme" entwickelt und neue staatliche Stellen gegen Diskriminierung eingerichtet werden.

Beste KI durch viele Daten

Telefónicas KI-Botschafter Richard Benjamins tat die Frage, ob Maschinen menschliche Intelligenz erreichen könnten, als "philosophische Diskussion" und "Glaubenssache" ab. Er zeigte sich sicher, dass Unternehmen, "die die meisten Daten haben, die besten KI-Systeme bauen und Monopolstellungen erreichen werden". Europa müsse hier aufholen gegenüber China oder den USA. Die Datenschutz-Grundverordnung (DSGVO) sei dabei langfristig kein Nachteil für Firmen auf dem alten Kontinent, da sie mit anonymisierten Messwerten arbeiten könnten und einem ein Personenbezug bei sicherheitstechnisch rasch um die Ohren fliegen könne.

Von einer Maschinenethik halte er wenig, da das entsprechende Modell beim Menschen nicht universell sei, beschied Benjamins. Besser sei es, eine KI darauf zu eichen, die Menschenrechte einzuhalten. Der spanische Konzern verwende die Technik etwa dafür, um die UN-Nachhaltigkeitsziele voranzutreiben. Die Mobilfunkdaten und damit nachvollziehbare Bewegungen könnten auch etwa für Vorhersagen genutzt werden, an welchen Orten die Wahrscheinlichkeit groß sei, dass ansteckende Krankheiten wie Ebola als nächstes ausbrechen. (olb)