Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Kampfroboter

Weniger tote Zivilisten?

  • Naürlich.................... nicht

    Stimmen: 5 62,5%
  • Ja es wird weniger Tote Zivilisten geben

    Stimmen: 3 37,5%

  • Umfrageteilnehmer
    8

DerBossHier

Spitzen-Poster
Autonome Waffen: Wie Roboter den Krieg menschlicher machen sollen


Sollen Kampfroboter selbst entscheiden, wann sie schießen? Für Kritiker sind vollautonome Waffensysteme ein Horrorszenario - nicht aber für manche Experten. Sie glauben, dass Roboter im Krieg ethischer handeln könnten als Menschen.


Ronald Arkin ist binnen Sekunden auf Betriebstemperatur. "Die Situation von Unbeteiligten in Kriegen ist vollkommen inakzeptabel", ruft der US-Professor in den Presseraum des Euroscience Open Forum, Europas größter interdisziplinärer Forschungskonferenz, die derzeit in Kopenhagen stattfindet. "Technologie kann, sollte und muss eingesetzt werden, um Zivilisten zu schützen."



Eine Möglichkeit, das zu tun, seien tödliche autonome Roboter. Maschinen, die selbstständig über Leben und Tod entscheiden. Die Menschen mit ihren Sensoren erfassen, ihn als legitimes Ziel identifizieren, ihre Waffen aktivieren und ihn töten.

"Niemand will den Terminator", sagt Arkin. Aber in bestimmten Kriegssituationen könnten Roboter womöglich besser als Menschen in der Lage sein, ethisch zu handeln. Sie könnten viel mehr Informationen viel schneller verarbeiten und so weniger tödliche Fehler begehen. Und eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht, ohne Nervosität oder Angst um das eigene Leben.


Aber sie handelt auch ohne Mitgefühl, ohne Kreativität und ohne die Fähigkeit, komplexe Situation beurteilen zu können oder sich zu fragen, ob ihr Handeln verhältnismäßig ist. Ob es etwa richtig ist, zum Erreichen eines vielleicht legitimen Ziels Menschen zu töten - und falls ja, wie viele. Dergleichen, glaubt Noel Sharkey, lasse sich nicht in Algorithmen fassen. Deshalb gehörten vollautonome Kampfroboter schnellstmöglich verboten.


"Das wäre zutiefst unmenschlich"



Sharkey, emeritierter Professor für Künstliche Intelligenz und Robotik an der britischen University of Sheffield, ist so etwas wie Arkins akademische Nemesis, die beiden sind die prominentesten Antipoden in der Kampfroboter-Debatte, die immer öfter aus Expertenzirkeln in die Öffentlichkeit dringt. Er hält es nicht nur für technisch kaum machbar, ethisch handelnde vollautonome Roboter zu entwickeln. "Maschinen", sagt er, "sollten grundsätzlich nicht entscheiden dürfen, ob ein Mensch lebt oder stirbt." Derartiges an Roboter zu delegieren, wäre zutiefst unmenschlich.
Das Problem: Die Debatte kommt möglicherweise um Jahre zu spät. Schon heute gibt es Marschflugkörper, Drohnen, automatische Verteidigungssysteme auf Schiffen oder bestimmte Land- und Seeminen, die selbstständig angreifen können:


  • Im April 2014 berichteten russische Medien, dass Moskau seine Atomwaffenlager künftig mit bewaffneten Robotern schützen wird. Die Nachrichtenagentur RIA Novosti zitierte einen Sprecher des Verteidigungsministeriums mit der Aussage, die Maschinen könnten "stationäre und bewegliche Ziele erfassen und zerstören".
  • Südkorea hat an der Grenze zu Nordkorea stationäre Roboter postiert. Der "Security Guard Robot 1" ("SGR-1") ist mit einem Maschinengewehr bewaffnet und ferngesteuert, soll aber auch in der Lage sein, Feinde automatisch zu erkennen und zu bekämpfen, wie ein martialisches Werbevideo zeigt.
  • Israel lässt an der Grenze zum Gaza-Streifen seit einiger Zeit ein Roboter-Auto selbständig Patrouille fahren. "Guardium" ist laut öffentlich verfügbaren Informationen derzeit unbewaffnet, könnte aber mit Waffen ausgestattet und nach Angaben der israelischen Armee auch "autonom reagieren" und "gewaltsame Methoden anwenden, um die Bedrohung zu eliminieren".
  • Die israelische "Harpy"-Drohne kann feindliche Radarstellungen erfassen und selbständig angreifen, ohne dass ein Mensch den entsprechenden Befehl geben muss. Das Fluggerät wird nicht nur von Israel selbst, sondern auch von der Türkei, China, Südkorea, Chile und Indien genutzt.
Die Grenze zwischen automatischen und autonomen Systemen ist fließend, eine allgemeingültige Definition gibt es nicht. Eines aber ist sicher: Militärs und Rüstungskonzerne in aller Welt forschen an Robotern, die sich veränderbaren Bedingungen anpassen und eigene Entscheidungen treffen können - bis hin zum Waffeneinsatz, auch wenn das Pentagon dies bisher noch offiziell ablehnt.


Forschung an rücksichtsvollen Kampfrobotern



Erst im Mai wurde bekannt, dass das Office of Naval Research der US-Marine an mehreren Universitäten erforschen lässt, wie man Robotern ethisches Verhalten beibringen kann. 7,5 Millionen Dollar sollen dafür fließen, verteilt über fünf Jahre. Auch das US-Verteidigungsministerium interessiert sich schon seit Jahren für die Entwicklung rücksichtsvoller Kampfroboter. Ende 2013 veröffentlichte das Pentagon die "Unmanned Integrated Systems Roadmap" für den Zeitraum von 2013 bis 2038. "Autonomie und kognitives Verhalten" ist darin als eine von sechs Schlüsseltechnologien für künftige unbemannte Systeme genannt. Lernende Maschinen, so heißt es, sollen im Rahmen ihrer Programmierung eigene Strategien entwickeln und ihr Verhalten selbst wählen, um eine Mission zu erfüllen.
Im November 2012 hatte das Pentagon bereits in einer Direktive eigens die Entwicklung und den Einsatz tödlicher autonomer Waffensysteme geregelt - anstatt sich von ihnen zu distanzieren, wie Sharkey kritisiert. Damit provoziere Washington einen neuen Rüstungswettlauf. "Und der beginnt bereits", warnt Sharkey in Kopenhagen.
Er befürchtet, dass auch fliegende Drohnen der nächsten Generation vollautonom agieren könnten - etwa die US-Tarnkappendrohne "X-47B" oder die britischen und russischen Gegenstücke "Taranis" und "Skat". Ähnliches stand in einer im Januar 2014 veröffentlichten Studie des einflussreichen US-Thinktanks "Center for a New American Security". Die heutigen ferngesteuerten unbemannten Systeme würden schon bald von "zunehmend autonomen Systemen" verdrängt - an Land und in der Luft, unter und über Wasser sowie im Weltraum. Das Resultat könnte nicht weniger als eine "Revolution der unbemannten Militärtechnik" und der Kriegsführung insgesamt sein.


Streit im totales Verbot



Menschenrechtler stemmen sich mit aller Kraft gegen diese Entwicklung. Human Rights Watch (HRW) etwa hat die Kampagne "Stop Killer Robots" angestoßen, der sich inzwischen 53 nicht-staatliche Organisationen aus 25 Ländern sowie diverse Wissenschaftler angeschlossen haben, darunter Sharkey. Vor kurzem hat HRW mit dem Bericht "Losing Humanity" für Schlagzeilen gesorgt. Die Forderung nach dem Killerroboter-Verbot wird darin unter anderem damit begründet, dass "vollständig autonome Waffen nicht imstande wären, gesetzliche Standards einzuhalten".
Sollte das aber stimmen, wären Kampfroboter auch nach dem heute geltenden humanitären Völkerrecht schon illegal, argumentieren Juristen wie etwa Michael Schmitt, Völkerrechtsprofessor am United States Naval War College und an der britischen Durham University. Deshalb bedürfe es keines weiteren Verbots, argumentiert Schmitt in einer Replik auf das HRW-Papier.
Auch Arkin hält ein totales Verbot autonomer Kampfroboter für verfrüht. Er könnte sich eher ein Moratorium vorstellen - "bis wir genauer wissen, ob es Robotern gelingen kann, sich besser an das Kriegsrecht zu halten als Menschen." Natürlich sei das ein enormes technisches Problem. "Aber ich habe noch keinen Beweis dafür gesehen, dass es unlösbar ist."


Würde es weniger Tote geben?





Für Wolfgang Richter, ehemaliger Bundeswehr-Oberst und inzwischen bei der Berliner Stiftung Wissenschaft und Politik tätig, geht in der Debatte einiges an der Praxis vorbei. Denn immerhin, betont Richter in Kopenhagen, gebe es auch noch militärische Befehlshaber - und die würden es Maschinen kaum gestatten, außerhalb jeder Kontrolle zu operieren. "Roboter führen Funktionen aus, die von Menschen entworfen wurden und kontrolliert werden", sagt Richter. Nützlich könnten sie in Situationen sein, in denen sie planbare Aufgaben erledigen, in denen sie dem Menschen aufgrund ihrer technischen Fähigkeiten überlegen sind, und in denen potenzielle Ziele leicht und klar identifizierbar sind. Für solche Einsätze aber, sagt Richter, "müssen Roboter keine eigenständigen ethischen Entscheidungen treffen können". Sharkey ist dagegen davon überzeugt, dass autonome Roboter volle moralische Urteilskraft haben müssten, um selbstständig schießen zu dürfen - und das werde wahrscheinlich nicht möglich sein. Ein Roboter könne keine eigene Moral entwickeln, sondern bestenfalls den ethischen Vorstellungen seines Programmierers folgen.
David Rodin, Kriegsethiker an der University of Oxford, sieht die alles entscheidende Frage darin, ob der Einsatz autonomer Roboter in Konflikten die Zahl der Toten senken könnte. Zwar würde die Maschine, wenn sie einen Menschen verschone, dies nicht aus Mitgefühl oder eigenen moralischen Erwägungen tun. "Das Menschen aber womöglich aus den falschen Gründen gerettet werden", meint Rodin, "ist ein eher schwaches Argument."


irobot.jpg


Autonome Waffen: Roboter sollen Krieg ethischer machen - SPIEGEL ONLINE



Tolle Leserkommentare:

Wenn Maschinen menschlicher sind als Menschen, dann haben letztere ihre Existenzberechtigung verloren. Anzunehmen ist, dass "intelligente" Roboter erkennne würden, dass Krieg die dümmste aller möglichen Verhaltensweisen ist. Nach der Eliminierung der letzten menschlichen Störenfriede könnte dann ja endlich Frieden bei den (robotischen) Intelligenzwesen auf diesem Planeten einziehen


eine Maschine handelt ohne Hass, ohne Frust, ohne Rachsucht ... Klar, die Roboter können sich noch höflich entschuldigen, wenn sie jemanden umlegen - im Ernst: Hass, Frust und Rache werden von den Betreibern einprogrammiert, von daher ist die ganze Debatte reiner Nonsens.


Wird unsere Erde dadurch friedlicher wenn unsere Elite Roboter statt Menschen in den Krieg schickt?
 
Soll ich dir einen konstruieren? Ich fange mal mit dem Festigkeitsnachweis an Brate..
 
Wird unsere Erde dadurch friedlicher wenn unsere Elite Roboter statt Menschen in den Krieg schickt?

Nichts fuer ungut - in dem Fall pfeife ich auf die geringeren Verluste - die Freiheit geht immernoch vor.
Und ich habe 0 Bock darauf, dass die Futzis, die die Roboter kontrollieren (Roboter sind, im Gegensatz zu Menschen, 100% programmierbar und kontrollierbar - sowie fuer jede Schandtat zu haben. Geht schnell.), mal eben kurz die Macht uebernehmen.

Der Triumph der Volksheere ueber die Berufsarmeen ist letzlich das, was die Volksherrschaft (Demokratisierung der Laender) erst ermoeglichte.
Schon Elite/Berufsarmeen sind das, was Diktaturen, Monarchien (...) wie die Luft zum Atmen benoetigten.
Menschliche Rekruten werden einem Tyrannos den Befehl irgendwann verweigern.
Und Berufssoldaten zeigen gegen Irregulaere (DIE Waffe des Volkes gegen ungewuenschte Herrschaft) schnell Aufloesungserscheinungen.
Aber Roboter? Die koennen sich problemlos quer durch die Rebellen und Unschuldige metzeln, werden dabei nicht undiszipliniert, ungehorsam, unaufmerksam oder aengstlich - gehen auch nach dem 10.000sten getoeteten Unbewaffneten, oder nah 99,999% Verluste pro Schlacht psychisch nicht kaputt.
Man koennte sich verheerend heftige und lange Kaempfe leisten - kein Thema.
Maschinenkrieger sind der feuchte Traum eines jeden Diktators, pluenderes und Voelkermoerders.
Roboterheere waeren fatal fuer unsere Gesellschaft.

Was wir brauchen sind Volksheere. Weltweit NUR Volksheere.
Sowie ein Verbot beweglicher, bewaffneter KI (Aufklaerung, Zielerfassung und Spionage mag ja noch angehen - aber selbststaendig ANGREIFEN? Neeee...).
 
Zuletzt bearbeitet:
Kampfroboter? Hmmm
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Zurück
Oben