DerBossHier
Spitzen-Poster
Autonome Waffen: Wie Roboter den Krieg menschlicher machen sollen
Sollen Kampfroboter selbst entscheiden, wann sie schießen? Für Kritiker sind vollautonome Waffensysteme ein Horrorszenario - nicht aber für manche Experten. Sie glauben, dass Roboter im Krieg ethischer handeln könnten als Menschen.
Ronald Arkin ist binnen Sekunden auf Betriebstemperatur. "Die Situation von Unbeteiligten in Kriegen ist vollkommen inakzeptabel", ruft der US-Professor in den Presseraum des Euroscience Open Forum, Europas größter interdisziplinärer Forschungskonferenz, die derzeit in Kopenhagen stattfindet. "Technologie kann, sollte und muss eingesetzt werden, um Zivilisten zu schützen."
Eine Möglichkeit, das zu tun, seien tödliche autonome Roboter. Maschinen, die selbstständig über Leben und Tod entscheiden. Die Menschen mit ihren Sensoren erfassen, ihn als legitimes Ziel identifizieren, ihre Waffen aktivieren und ihn töten.
"Niemand will den Terminator", sagt Arkin. Aber in bestimmten Kriegssituationen könnten Roboter womöglich besser als Menschen in der Lage sein, ethisch zu handeln. Sie könnten viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Und eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht, ohne Nervosität oder Angst um das eigene Leben.
Aber sie handelt auch ohne Mitgefühl, ohne Kreativität und ohne die Fähigkeit, komplexe Situation beurteilen zu können oder sich zu fragen, ob ihr Handeln verhältnismäßig ist. Ob es etwa richtig ist, zum Erreichen eines vielleicht legitimen Ziels Menschen zu töten - und falls ja, wie viele. Dergleichen, glaubt Noel Sharkey, lasse sich nicht in Algorithmen fassen. Deshalb gehörten vollautonome Kampfroboter schnellstmöglich verboten.
"Das wäre zutiefst unmenschlich"
Sharkey, emeritierter Professor für Künstliche Intelligenz und Robotik an der britischen University of Sheffield, ist so etwas wie Arkins akademische Nemesis, die beiden sind die prominentesten Antipoden in der Kampfroboter-Debatte, die immer öfter aus Expertenzirkeln in die Öffentlichkeit dringt. Er hält es nicht nur für technisch kaum machbar, ethisch handelnde vollautonome Roboter zu entwickeln. "Maschinen", sagt er, "sollten grundsätzlich nicht entscheiden dürfen, ob ein Mensch lebt oder stirbt." Derartiges an Roboter zu delegieren, wäre zutiefst unmenschlich.
Das Problem: Die Debatte kommt möglicherweise um Jahre zu spät. Schon heute gibt es Marschflugkörper, Drohnen, automatische Verteidigungssysteme auf Schiffen oder bestimmte Land- und Seeminen, die selbstständig angreifen können:
Die Grenze zwischen automatischen und autonomen Systemen ist fließend, eine allgemeingültige Definition gibt es nicht. Eines aber ist sicher: Militärs und Rüstungskonzerne in aller Welt forschen an Robotern, die sich veränderbaren Bedingungen anpassen und eigene Entscheidungen treffen können - bis hin zum Waffeneinsatz, auch wenn das Pentagon dies bisher noch offiziell ablehnt.
- Im April 2014 berichteten russische Medien, dass Moskau seine Atomwaffenlager künftig mit bewaffneten Robotern schützen wird. Die Nachrichtenagentur RIA Novosti zitierte einen Sprecher des Verteidigungsministeriums mit der Aussage, die Maschinen könnten "stationäre und bewegliche Ziele erfassen und zerstören".
- Südkorea hat an der Grenze zu Nordkorea stationäre Roboter postiert. Der "Security Guard Robot 1" ("SGR-1") ist mit einem Maschinengewehr bewaffnet und ferngesteuert, soll aber auch in der Lage sein, Feinde automatisch zu erkennen und zu bekämpfen, wie ein martialisches Werbevideo zeigt.
- Israel lässt an der Grenze zum Gaza-Streifen seit einiger Zeit ein Roboter-Auto selbständig Patrouille fahren. "Guardium" ist laut öffentlich verfügbaren Informationen derzeit unbewaffnet, könnte aber mit Waffen ausgestattet und nach Angaben der israelischen Armee auch "autonom reagieren" und "gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren".
- Die israelische "Harpy"-Drohne kann feindliche Radarstellungen erfassen und selbständig angreifen, ohne dass ein Mensch den entsprechenden Befehl geben muss. Das Fluggerät wird nicht nur von Israel selbst, sondern auch von der Türkei, China, Südkorea, Chile und Indien genutzt.
Forschung an rücksichtsvollen Kampfrobotern
Erst im Mai wurde bekannt, dass das Office of Naval Research der US-Marine an mehreren Universitäten erforschen lässt, wie man Robotern ethisches Verhalten beibringen kann. 7,5 Millionen Dollar sollen dafür fließen, verteilt über fünf Jahre. Auch das US-Verteidigungsministerium interessiert sich schon seit Jahren für die Entwicklung rücksichtsvoller Kampfroboter. Ende 2013 veröffentlichte das Pentagon die "Unmanned Integrated Systems Roadmap" für den Zeitraum von 2013 bis 2038. "Autonomie und kognitives Verhalten" ist darin als eine von sechs Schlüsseltechnologien für künftige unbemannte Systeme genannt. Lernende Maschinen, so heißt es, sollen im Rahmen ihrer Programmierung eigene Strategien entwickeln und ihr Verhalten selbst wählen, um eine Mission zu erfüllen.
Im November 2012 hatte das Pentagon bereits in einer Direktive eigens die Entwicklung und den Einsatz tödlicher autonomer Waffensysteme geregelt - anstatt sich von ihnen zu distanzieren, wie Sharkey kritisiert. Damit provoziere Washington einen neuen Rüstungswettlauf. "Und der beginnt bereits", warnt Sharkey in Kopenhagen.
Er befürchtet, dass auch fliegende Drohnen der nächsten Generation vollautonom agieren könnten - etwa die US-Tarnkappendrohne "X-47B" oder die britischen und russischen Gegenstücke "Taranis" und "Skat". Ähnliches stand in einer im Januar 2014 veröffentlichten Studie des einflussreichen US-Thinktanks "Center for a New American Security". Die heutigen ferngesteuerten unbemannten Systeme würden schon bald von "zunehmend autonomen Systemen" verdrängt - an Land und in der Luft, unter und über Wasser sowie im Weltraum. Das Resultat könnte nicht weniger als eine "Revolution der unbemannten Militärtechnik" und der Kriegsführung insgesamt sein.
Streit im totales Verbot
Menschenrechtler stemmen sich mit aller Kraft gegen diese Entwicklung. Human Rights Watch (HRW) etwa hat die Kampagne "Stop Killer Robots" angestoßen, der sich inzwischen 53 nicht-staatliche Organisationen aus 25 Ländern sowie diverse Wissenschaftler angeschlossen haben, darunter Sharkey. Vor kurzem hat HRW mit dem Bericht "Losing Humanity" für Schlagzeilen gesorgt. Die Forderung nach dem Killerroboter-Verbot wird darin unter anderem damit begründet, dass "vollständig autonome Waffen nicht imstande wären, gesetzliche Standards einzuhalten".
Sollte das aber stimmen, wären Kampfroboter auch nach dem heute geltenden humanitären Völkerrecht schon illegal, argumentieren Juristen wie etwa Michael Schmitt, Völkerrechtsprofessor am United States Naval War College und an der britischen Durham University. Deshalb bedürfe es keines weiteren Verbots, argumentiert Schmitt in einer Replik auf das HRW-Papier.
Auch Arkin hält ein totales Verbot autonomer Kampfroboter für verfrüht. Er könnte sich eher ein Moratorium vorstellen - "bis wir genauer wissen, ob es Robotern gelingen kann, sich besser an das Kriegsrecht zu halten als Menschen." Natürlich sei das ein enormes technisches Problem. "Aber ich habe noch keinen Beweis dafür gesehen, dass es unlösbar ist."
Würde es weniger Tote geben?
Für Wolfgang Richter, ehemaliger Bundeswehr-Oberst und inzwischen bei der Berliner Stiftung Wissenschaft und Politik tätig, geht in der Debatte einiges an der Praxis vorbei. Denn immerhin, betont Richter in Kopenhagen, gebe es auch noch militärische Befehlshaber - und die würden es Maschinen kaum gestatten, außerhalb jeder Kontrolle zu operieren. "Roboter führen Funktionen aus, die von Menschen entworfen wurden und kontrolliert werden", sagt Richter. Nützlich könnten sie in Situationen sein, in denen sie planbare Aufgaben erledigen, in denen sie dem Menschen aufgrund ihrer technischen Fähigkeiten überlegen sind, und in denen potenzielle Ziele leicht und klar identifizierbar sind. Für solche Einsätze aber, sagt Richter, "müssen Roboter keine eigenständigen ethischen Entscheidungen treffen können". Sharkey ist dagegen davon überzeugt, dass autonome Roboter volle moralische Urteilskraft haben müssten, um selbstständig schießen zu dürfen - und das werde wahrscheinlich nicht möglich sein. Ein Roboter könne keine eigene Moral entwickeln, sondern bestenfalls den ethischen Vorstellungen seines Programmierers folgen.
David Rodin, Kriegsethiker an der University of Oxford, sieht die alles entscheidende Frage darin, ob der Einsatz autonomer Roboter in Konflikten die Zahl der Toten senken könnte. Zwar würde die Maschine, wenn sie einen Menschen verschone, dies nicht aus Mitgefühl oder eigenen moralischen Erwägungen tun. "Das Menschen aber womöglich aus den falschen Gründen gerettet werden", meint Rodin, "ist ein eher schwaches Argument."
Autonome Waffen: Roboter sollen Krieg ethischer machen - SPIEGEL ONLINE
Tolle Leserkommentare:
Wenn Maschinen menschlicher sind als Menschen, dann haben letztere ihre Existenzberechtigung verloren. Anzunehmen ist, dass "intelligente" Roboter erkennne würden, dass Krieg die dümmste aller möglichen Verhaltensweisen ist. Nach der Eliminierung der letzten menschlichen Störenfriede könnte dann ja endlich Frieden bei den (robotischen) Intelligenzwesen auf diesem Planeten einziehen
eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht ... Klar, die Roboter können sich noch höflich entschuldigen, wenn sie jemanden umlegen - im Ernst: Hass, Frust und Rache werden von den Betreibern einprogrammiert, von daher ist die ganze Debatte reiner Nonsens.
Wird unsere Erde dadurch friedlicher wenn unsere Elite Roboter statt Menschen in den Krieg schickt?