Militärische Tötungsmaschinen rücken Menschen schon bald auf die Pelle, wenn es nicht zu einer Ächtung solcher Waffen kommt. Über den Umgang mit vollautomatischen Kampfsystemen inklusive Bewaffnung und Künstlicher Intelligenz diskutierten gestern Experten und Politiker. Welche Position bezieht Deutschland bei den Vereinten Nationen?

Gestern kamen in der Berliner Heinrich-Böll-Stiftung Politiker und Experten zusammen, um über eine fatale Entwicklung zu diskutieren, die bisher selten im Fokus der Öffentlichkeit steht. Es ging um die Frage Tödliche Algorithmen – Dürfen Waffen autonom über Leben und Tod entscheiden? Im Militärjargon werden solche Systeme „Lethal Autonomous Weapon Systems“ (LAWS, tödliche autonome Waffensysteme) genannt. Die Bezeichnung „Killer Robots“ für solche Waffen ist ebenfalls gebräuchlich und griffiger, aber weniger präzise.

Seit mehreren Jahren wird von der internationalen Kampagne Stop Killer Robots ein Verbot von autonomen Waffensystemen gefordert, das im Rahmen einer UN-Waffenkonvention geltend gemacht werden soll: Ziel ist die völkerrechtliche Ächtung von Militärsystemen, die autonom über den tödlichen Waffeneinsatz entscheiden. Dafür haben sich bisher 19 Staaten bei den Vereinten Nationen ausgesprochen, im August beginnt die nächste Verhandlungsrunde.

Das Ziel der gestrigen Diskussion war eine Nummer kleiner: Eine öffentliche Diskussion über die gefährlichen militärischen Entwicklungen soll stimuliert werden, wie Ellen Ueberschär von der Heinrich-Böll-Stiftung in ihren einleitenden Bemerkungen betonte. Dazu hatte die Stiftung eine eigene „Task Force“ ins Leben gerufen, die nicht nur dem Namen nach eine gewisse Militärnähe aufweist. Denn zeitgleich mit der gestrigen Veranstaltung erschien bei der Heinrich-Böll-Stiftung das Heft Autonomy in Weapon Systems (pdf) unter der Federführung von Frank Sauer von der Bundeswehr-Universität München.

Sauer war auch einer der Podiumsteilnehmer, gemeinsam mit Konstantin von Notz, dem stellvertretenden Fraktionsvorsitzenden der Grünen im Bundestag, Lorena Jaume-Palasí von „Algorithm Watch“ und John Reyels als Vertreter des Auswärtigen Amts.

Welche autonomen Waffensysteme gibt es?

Die Entwicklung von mörderischen Kampfmaschinen, die selbständig Entscheidungen über Leben und Tod fällen, ist keine ferne Zukunft mehr. So hat etwa der größte russische Militärzulieferer Kalaschnikow im Juli 2017 ein Waffensystem mit der Bezeichnung нахлебник (russ. etwa Schnorrer) vorgeführt, das mit Hilfe von Künstlicher Intelligenz und sogenannten Neuronalen Netzen autonom entscheidet, ob es schießt oder nicht. Es handelt sich um ein vollautomatisches Kampfsystem inklusive Bewaffnung, das älteren Entwicklungen der Firma Samsung in Südkorea ähnelt, aber mit leistungsfähigerer Künstlicher Intelligenz (KI) beworben wird.

Solche bereits angebotenen Waffensysteme sind aber nur ein Ausschnitt der technischen Entwicklungen für Militärs. An Frank Sauer von der Bundeswehr-Uni richtete sich die Frage, was für autonome Waffensysteme es derzeit gibt und welche bereits in naher Zukunft absehbar sind. Statt einer überblicksartigen Antwort widmet sich Sauer einigen Beispielen und verweist auf die Broschüre der Böll-Stiftung, die jedoch diese Frage auch nicht umfassend beantwortet. Allerdings beinhaltet das Heft die relevanten Definitionen und Begriffe, die versuchen, tödliche autonome Waffensysteme und ihre Eigenschaften zu erfassen und rechtlich einzuordnen.

Die sich entwickelnden Möglichkeiten der KI sind zusammen mit der Sensorik, den verfügbaren Daten und der Rechenleistung für die autonomen Entscheidungen solcher Waffensysteme zweifelsohne von hoher Bedeutung. Aktuell wird die Frage, in welche Dienste sich KI-Forscher und -Entwickler stellen, heftig diskutiert. Es ist in den letzten Tagen zu einem öffentlich ausgetragenen Konflikt zwischen dem US-amerikanischen Pentagon einerseits und Ingenieuren und Wissenschaftlern andererseits gekommen. Am 16. Mai wurde bekannt, dass ein Dutzend Google-Mitarbeiter ihren Job hinwarfen, um sich gegen die Partnerschaft in Sachen KI zwischen Google und dem Pentagon zu wehren. Zuvor hatten mehr als dreitausend Google-Leute eine Forderung unterzeichnet, diese Partnerschaft zu beenden und den Vertrag mit dem US-Verteidigungsministerium aufzulösen.

In der Podiumsdiskussion wurde der Streit in den Vereinigten Staaten aber nur am Rande diskutiert, es ging stärker um die deutsche Perspektive auf die sogenannten „Killer Robots“: Welche Haltung nimmt die deutsche Regierung ein? Wie ist die rechtliche Situation? Was sind drängende ethische Fragen im KI-Zusammenhang?

Sauer nennt als Beispiel für autonome Entscheidungen mit Hilfe von KI die militärischen Minidrohnen „Perdix“: Kampfjets können Dutzende solcher kleinen Flugkörper bei hohen Geschwindigkeiten abwerfen. Die preiswerten Drohnen bilden dann einen Schwarm und bewegen sich autonom zu vorbestimmten Wegpunkten. Das Pentagon hatte „Perdix“ im Jahr 2017 demonstriert, allerdings dabei betont, man wolle in einem „zukünftigen Kampf-Netzwerk“ stets Menschen die Entscheidungen über einen Waffeneinsatz überlassen.

Das Beispiel zeigt: Bei völkerrechtlich umstrittenen Waffensystemen mit eigener „Intelligenz“ ist eben nicht mehr nur an große Kampfroboter oder militärische Drohnen mit Hellfire-Raketen zu denken, sondern längst auch an kleinere bewaffnete Drohnen der Militärs, die in naher Zukunft ebenfalls in der Lage sein könnten, autonome Entscheidungen über den Waffeneinsatz zu fällen. Ob auch Software ohne Hardware-Komponente als tödliches autonomes Waffensystem gelten kann, wäre zu diskutieren.

Ebenso wie bei größeren militärischen Waffensystemen sind jedenfalls rechtliche Verantwortlichkeiten bei Kriegsverbrechen sowie Fragen von Menschenrechtsverletzungen zu klären. Der Unterschied zu bereits seit Jahrzehnten verwendeten autonomen Waffensystemen, die etwa herannahende Flugkörper selbständig abschießen, ist vor allem die Frage, ob auf „belebte Ziele“ geschossen wird. Damit meinen Militärs Fahrzeuge oder Gebäude, in denen sich Menschen befinden könnten, oder aber das direkte Zielen von autonomen Kampfsystemen auf Menschen.

Lorena Jaume-Palasí verweist darauf, dass man solche Waffensysteme wegen des Begriffs autonom nicht als menschenunabhängig missverstehen sollte. Schließlich seien es konkrete Menschen, die sie entwickeln, programmieren und zum Einsatz bringen. Ohne menschliches Zutun gäbe es solche Waffen nicht. Sie schlägt vor, besser von automatisierten als von autonomen Systemen zu sprechen.

Auch sollte die Diskussion nicht auf die „Trefferquoten“, Wahrscheinlichkeiten und Effizienz verengt werden, betont Jaume-Palasí. Wer sich dazu drängen lasse, blende Fragen der Verantwortung für solche Tötungsmaschinen aus.

Auswärtiges Amt: „Optimum wäre ein Verbot, das ist aber nicht erreichbar“

Eine Zusammenfassung der politischen Positionen in der Diskussion über autonome Waffensysteme lieferte John Reyels vom Auswärtigen Amt. Bei den Vereinten Nationen hat diese Diskussion den formalen Charakter von Konsultationen von Regierungsexperten. Er fasst den Stand der UN-Debatte zur Ächtung solcher Waffen mit einem knappen Satz zusammen: „Es sieht nicht gut aus.“

Grund sei vor allem eine gewisse Lagerbildung: Es gäbe eine zahlenmäßig größere Gruppe sogenannter blockfreier Staaten, die sich für ein Verbot einsetzt. Dem gegenüber stünden vor allem die Vereinigten Staaten, die eine UN-Regelung gar nicht erst verhandeln wollen. Man stelle stattdessen ausschließlich die Vorteile solcher Waffensysteme heraus.

Auch andere militärisch bedeutsame Staaten wie Russland oder China bezögen einen Standpunkt, der ein schnelles Verbot ablehne. Begründung dafür sei ein Wissens- und Erfahrungsdefizit, man müsse zunächst mehr lernen über die Möglichkeiten solcher Waffensysteme.

Die deutsche Position beschreibt Reyels als „vermittelnde Lösung“, die zusammen mit Frankreich vertreten werde. Er verweist dabei auf den aktuellen Koalitionsvertrag: Man strebe wie darin festgehalten zwar eine Ächtung an und „bekenne sich zum Völkerrecht“, aber realpolitisch könne man derzeit nur die Gründung eines Expertenkreises anstreben. „Optimum wäre ein Verbot, das ist aber nicht erreichbar“, fügte Reyels an. Der Moderator der Diskussion findet für diese Haltung der Regierung den passenden Begriff „deklaratorische Politik“. Der Grüne Konstantin von Notz merkt an, ihm werde bei dieser Positionierung des Auswärtigen Amtes „mulmig“.

Aus dem Publikum wird an Reyels die Frage gerichtet, warum man die Ächtung tödlicher autonomer Waffen nicht auch ohne die Zustimmung der Vereinigten Staaten oder China bei den Vereinten Nationen offen unterstütze, wenn man das Verbot wirklich anstrebe. Der Diplomat verweist daraufhin auf den „geringen praktischen Wert“, den ein solches Vorgehen haben würde. Es bestehe zudem hoher Zeitdruck, so dass sein Ministerium die „vermittelnde Lösung“ mit Gründung einer Expertengruppe vorziehe. Ziel sei vor allem ein Ergebnis in absehbarer Zeit. Welchen praktischen Wert das allerdings hat, blieb offen.

Rüstungsindustrie als Randnotiz

Einen „Schritt in den Wahnsinn“ nennt von Notz die absehbaren militärischen Entwicklungen bei autonomen Waffensystemen. Krieg als eine Art Wahrscheinlichkeitsrechnung, bei der „mathematische Kriterien für Leben oder Tod“ programmiert werden, lehnt er klar ab. Der Krieg an sich sei ohnehin „ein grauenvolles Business“. Diese Bemerkung des Politikers bleibt in anderthalb Stunden Diskussion das einzige Mal, dass ein Bezug zur Rüstungsindustrie fällt. Kein Wort wird ansonsten über die diejenigen gesprochen, die tödliche autonome Waffensysteme herstellen und anbieten.

Der Grüne von Notz verweist auf den Drohnenkrieg der Vereinigten Staaten im letzten Jahrzehnt, der im Rückblick mehr Terroristen hervorgebracht als umgebracht habe. Der praktische Einsatz von bewaffneten Drohnen wird während der Diskussion oft erwähnt und am Ende durch eine Zuhörerfrage zugespitzt. Denn dass Kampfdrohnen technisch als tödliche autonome Waffensysteme fungieren könnten, ist naheliegend. Der Mensch, der in weiter Ferne die Rakete der Drohne auslöst, ist keine technische Notwendigkeit mehr.

Eine Zuhörerin verweist darauf, dass de facto beim Drohneneinsatz der Vereinigten Staaten auch nicht der Soldat am fernen Abzug die Entscheidung über Leben und Tod der Menschen unter der Drohne fälle, sondern die dafür verantwortlichen CIA-Leute. Denn sie seien es, die den Soldaten im Drohnenkrieg die Befehle erteilten. Die Zuhörerin fragt auch nach einem Widerspruch in der Haltung der Bundesregierung: Warum denn einerseits für Deutschland der Beschluss zum Kauf bewaffneter Drohnen unmittelbar bevorstünde, wenn doch andererseits ein Verbot tödlicher autonomer Waffensysteme angestrebt und zudem ein von Reyels extra betontes Bekenntnis zum Völkerrecht abgegeben werde? Das Völkerrecht gelte schließlich auch im deutschen Ramstein, von wo US-amerikanische Drohnen operiert werden.

Reyels räumt in seiner Antwort ein, dass Drohnen wahrscheinlich eines der ersten praktisch benutzten Waffensysteme mit tödlicher Wirkung sein werden, die zu Entscheidungen ohne direktes menschliches Zutun fähig sind. Warum Deutschland nun zu der Liga der Staaten gehören soll, die Kampfdrohnen besitzen, begründet er nicht. Reyels versichert stattdessen zum Einsatz dieser bewaffneten Drohnen: „Wir werden nichts Vergleichbares tun wie die USA.“

Man kann nur hoffen, dass nicht noch die Realpolitik dazwischenkommt.