Werden Kriege durch autonome Waffensysteme schrecklicher? Florian Rötzer

Ein Bericht der Menschenrechtsorganisation Human Rights Watch warnt vor dem "Verlust der Menschlichkeit" und verklärt das Verhalten und die Emotion der Menschen

Kürzlich veröffentlichte die Menschenrechtsorganisation einen Bericht, der sich dagegen wendet, dass autonome Kampfroboter entwickelt werden. Im Hintergrund der Kritik steht auch hier wie üblich die Annahme, dass mit den kalten und unbarmherzigen Robotern Kriege schrecklicher werden würden, als wenn Menschen andere Menschen beschießen oder mit anderen Mitteln angreifen. "Losing Humanity" ist der Bericht überschrieben, der letztlich fordert, dass Menschen weiter Roboter steuern sollen, um Zivilisten im Krieg zu schützen, und dass die Entwicklung, die Herstellung und der Einsatz von autonomen Kampfrobotern völkerrechtlich verboten werden sollte.

Von KI gesteuerte Roboter hätten, so die Begründung, nicht die "menschlichen Qualitäten, die erforderlich sind, um die Regeln des internationalen humanitären Rechts einhalten zu können". Einmal selbst angenommen, alle Menschen hätten diese "Qualitäten", so werden diese doch massenhaft verletzt. Menschen steuern wie jetzt US-Soldaten oder CIA-Mitarbeiter unbemannte Kampfdrohnen und töten dabei auch Zivilisten, ganz zu schweigen davon, dass sich Regierungen das Recht herausnehmen, Verdächtige in einer militärisch verkleideten Willkürjustiz auch dann zu exekutieren, wenn sie keine unmittelbare Bedrohung darstellen. Und wenn man den Blick auf Syrien wirft, dann sind keine autonomen Kampfroboter notwendig, um schwere Menschenrechtsverletzungen und gnadenlose Bombardierungen zu begehen.

Roboter, so heißt es bei Human Rights Watch, würden nicht zurückgehalten von "menschlichen Emotionen und der Fähigkeit des Mitleidens", aber Menschen können auch andere Menschen quälen, foltern und niedermetzeln, mitunter auch an der Lust, den Mitmenschen zu erniedrigen, Herr über den anderen zu sein, Schmerzen zuzufügen und Lust am Leiden zu empfinden. Und haben die Menschen nicht auch kaltblütig und dennoch besessen, systematisch Völkermord begangen, als wären sie Maschinen? Haben nicht Menschen Atombomben über Millionenstädten abgeworfen und massenhaft Zivilisten getötet, verwundet und ihnen durch die Radioaktivität Leid zugefügt? Menschen mit Emotionen kapern Passiermaschinen und steuern sie in Hochhäuser oder sie sich durch Sprengstoff oder andere Mittel möglichst viele Mitmenschen in den Tod zu reißen.

Was heißt ihr "Angemessenheit" von Angriffshandlungen im Rahmen des Kontextes? Verklärt werden die Menschen, denen im Gegensatz zu den Robotern und ihrer KI unterstellt wird, sie könnten gleichzeitig rational und emotional die Regeln einhalten, die sie einhalten sollen. Das tun sie nicht und können sie nicht. Nach der Logik und Argumentation von HRW müsste es eigentlich nicht darum gehen, autonome Waffensysteme zu verbieten, sondern Kriege überhaupt, egal ob zum Töten ausgebildete Menschen, von Menschen kontrollierte oder autonome Waffensysteme eingesetzt werden.

Was einerseits tatsächlich eine Schranke sein kann, die das Töten oder einen Angriff auf einen anderen Menschen verhindert, obgleich Experimente wie das Milgram-Experimente gezeigt haben, wie schnell und leicht solche Schranken zu überwinden sind, kann auch zu Gewaltexzessen und zu "bösen" Handlungen führen, die vermutlich regelgeleiteten Robotern fremd wären - angenommen, ihre kognitiven Systeme verfügen nicht auch über Module, die Emotionen, Gewissen, Mitleid oder auch immer simulieren und entsprechend menschlichen Emotionen bzw. Gehirnarealen Handlungen bewerten, fördern oder behindern können.

Auch das Argument, dass bei autonomen Systemen niemand wirklich zur Rechenschaft gezogen werden könne, weil dies sowohl beim Kommandeur als auch beim Programmierer oder Hersteller "schwierig und unfair" sei, ist nur eine Frage des Völkerrechts, die sich regeln ließe. Aber auch hier ließe argumentieren, dass es einerseits zwar internationale humanitäre Rechte gibt, diese aber kaum eingehalten werden. Wenn, dann werden meist nur die kleinen Fische verurteilt - oder die Verlierer.

Human Rights Watch fordert die Staaten dazu auf, international und national die Entwicklung, Herstellung und Verwendung "vollständig autonomer Waffen" zu unterbinden und schon Ansätze zu deren Entwicklung zu verhindern. Das ist natürlich naiv, überall werden Robotsysteme, bewaffnet oder nicht, entwickelt, sie sollen auch weitgehend autonom sein, um die Steuerung zu erleichtern. Der Schritt zu vollständig autonomen Systemen ist dann nicht mehr weit, zumal diese in vielen Hinsichten interessant werden und dann eben auch schnell zu bewaffneten Systemen aufgerüstet werden können. Ein völkerrechtlich bindendes Verbot durchzusetzen, dürfte in nächster Zeit völlig unrealistisch sein, ebenso wie sich kein Staat in die Karten schauen lassen würde, nach welchen Regeln autonome Systeme handeln und entscheiden würden. Die Kriterien, wann jemand auf die Todesliste kommt, verrät nicht einmal jetzt die US-Regierung bei ihrem ferngesteuerten Drohnenkrieg. Bekannt wurde nur, dass auch dann von Menschen geschossen wird, wenn die Identität nicht bekannt ist, aber ein Mensch irgendwie ein verdächtiges Verhalten zeigt.

Interessant ist, dass der Einsatz von Kampfrobotern offenbar auch im Pentagon umstritten ist. So werden zwar Aufklärungs- und Kampfdrohnen sowie Roboter zum Aufspüren und Entschärfen von Sprengsätzen gerne verwendet, die schon vorhandenen und auch in den Irak gebrachten bewaffneten Bodenroboter wurden lieber nicht verwendet. Soldaten fühlen sich, wie ein Bericht des Defense Science Board kürzlich offenbarte, durch Roboter verunsichert und selbst gefährdet (US-Soldaten schätzen autonome Roboter nicht). Sie sind ihnen ebenfalls so unheimlich wie vielen Menschen, die sich auch ungern etwa autonomen Autos oder Flugzeugen anvertrauen würden, auch wenn die Fehleranfälligkeit der Menschen gerade auch wegen ihrer Emotionalität und Unkonzentriertheit höher ist. Daher wird auch überlegt, wie man die Entwicklung von autonomen Robotern den Soldaten überhaupt schmackhaft machen kann.

autonomous weapon system. A weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation.

Vorerst versichert das Pentagon - schließlich gibt es auch noch keine vollständig autonomen Kampfroboter, sieht man einmal von den immobilen Wächtern an der Grenze zu Nordkorea ab -, dass man gar nicht anstrebe, den Menschen ganz aus autonomen bewaffneten Systemen herauszunehmen. Das ist sicherlich scheinheilig und soll nur beruhigen. Vizeverteidigungsminister Ashton Carter hat nämlich am 21. November eine Anordnung zum Thema "Autonomie in Waffensystemen" unterzeichnet, die regeln soll, wie das Pentagon in Zukunft mit autonomen und semi-autonomen Waffensystemen umgehen will. Ausgeschlossen sind explizit autonome Systeme im Cyberspace und alle nichtbewaffneten autonome Systeme.

Nach der Anordnung sollen Kommandeure und Bediener stets über die Anwendung von Gewalt "angemessene Stufen der menschlichen Entscheidungsfindung" ausüben können. Die autonomen Waffensysteme sollen ihre Aufgaben nur innerhalb des vorgegeben Zeitrahmens ausführen und davor geschützt sein, unbeabsichtigte Angriffe zu machen oder nicht mehr kontrollierbar zu sein. Menschen sollen von ihnen nicht ohne menschliche Steuerung angegriffen werden können. Die Steuerung soll über verständliche Schnittstellen ausgeübt werden können. (Florian Rötzer)