Der Kampf der Roboter ist greifbar nahe

_______________________________________


Es klingt wie aus einem schlechten Science-Fiction-Film. Roboterarmeen stehen sich gegenüber und kämpfen eine Maschinenschlacht. Sie vernichten sich, sie vernichten Gebäude und Einrichtungen, und sie vernichten Menschen.

Auf den Schlachtfeldern der Zukunft will die US-Armee autonom agierende Kampfroboter einsetzen. Das ist nicht neu. Bereits heute ziehen in Afghanistan Drohnen ihre Bahn, um im geeigneten Moment als Bombe auf ein entsprechendes Ziel zu stürzen. Noch werden sie mit einem Joystick aus Tausenden Kilometern Entfernung von Menschenhand gesteuert. Aber auch das verhindert keine Opfer
Unschuldiger, wie wir wissen. Kollateralschaden heißt das dann lapidar. Schließlich ist der Mensch fehlbar, Zyniker behaupten,
er sei der Fehler an sich.
Deshalb macht man sich im amerikanischen Pentagon jede Menge Gedanken um autonome automatische Kampfeinheiten, die selbständig agieren, die den Feind erkennen und sich nicht gegenseitig
umbringen, die Zivilobjekte von militärischen Zielen unterscheiden können. Diese Maschinen wären dann, einmal losgelassen, bei jeder Witterung, ohne Essen und Schlafen, ohne jeden Skrupel und ohne Verzögerung in der Lage, alles auszulöschen, was sich ihrem Programm in den Weg stellt. Eine grausige Vorstellung, die allerdings bei den Pentagon-Strategen schon in einigen Jahren Realität
sein soll. Mehr als vier Milliarden Dollar wurden für dieses Ziel allein bis 2010 ausgegeben.

Fachleute sind sich einig: Das wird künftig noch deutlich teurer.
Jetzt ist man auf die Idee gekommen, ethische Merkmalein die Programmierung aufzunehmen.Essei dahingestellt, ob das nicht schon von der Begrifflichkeit der falsche Ansatz ist,denn Ethik ist an Bewusstsein gekoppelt,ethisches Handeln einer Maschine somit unmöglich. Das sehen die Roboterspezialistenanders. Sie ziehen jetzt sogar Philosophen und Religionswissenschaftler hinzu. Irgendwann soll schließlich ein Kampfroboter nach der Genfer Konventionhandeln können, einem Verwundeten vielleicht nicht den „letzten Rest“ zu geben, sondern als Gefangenen zu übergeben. Wie menschlich!
„Es gibt bereits wissenschaftliche Aufsätze zu dem Thema. Patrick Lin von der philosophischenFakultät der California Polytechnic
State University hat beispielsweisegemeinsam mit zwei Kollegen den Artikel ,Autonomous Military Robotics:Risk, Ethics, and Design‘ verfasst. Lin hat zudem an einer Veröffentlichung überdie Ethik von Nanotechnologie mitgearbeitet“,schreibt SPIEGEL Online. Und weiter: „Roboter kennen weder Stress,Trauer, noch Wut – Verfehlungen von Folter bis zu Racheaktionen, wie sie beiden US-Truppen immer wieder auftreten– sollen sie eines Tages verhindern.Aber kann dies wirklich gelingen? Ronald Arkin glaubt, dass Roboter tatsächlich die besseren Kämpfer sein können.
Der Roboterforscher an der GeorgiaTech University hat im Auftrag der USArmy das Problem von Ethik und Moral bei Maschinen untersucht. Sein Fazit:Roboter können ethischer handeln als Menschen. Roboter müssten sich nicht selbst schützen,“ sagte Arkin, „sie könnten auch ohne Emotionen auskommen,die ihr Urteilsvermögen einschränkten. Aber auch von Robotern sei kein perfektes Verhalten auf dem Schlachtfeld zuerwarten.“
Wer die Roboter-Games in Magdeburg mit weltweiter Beteiligung verfolgt hat,der weiß, dass die scheinbar harmlosen Fußballspiele der Maschinen auch aus Washington aufmerksam beobachtet werden. Da geht es um ganz lapidare Fragen, die aber für Kampfroboter ungeheuer wichtig sind.
Ein Beispiel: Zwei Roboter begegnen sich an einer Tür. Wergeht zuerst? Das sind Entscheidungsprozesse, die für Menschen völlig normal sind. Für Roboter nicht. Darüber hinaus gibt es Überlegungen, welche Folgen ferngesteuerte und autonome Kampfroboter für das geltende Kriegsrecht mit sich bringen. Gilt beispielsweise das Selbstverteidigungsrecht, wenn sie angegriffen werden? Sind Piloten,die solche Roboter aus der Ferne steuern, noch Soldaten? Sind sie „legale Kämpfer“ oder könnten sie als „illegale Kämpfer“ behandelt werden? Und wer kann zur Verantwortung gezogen werden, wenn autonome Kampfroboter unverhältnismäßige Gewalt anwenden oder unbeteiligte Zivilisten töten? Der Roboter? Derjenige, der ihn steuerte?
Sein Kommandeur? Oder gar der Softwareentwickler? Einige Strategien zielen darauf, dass autonome Kampfroboter nur unbelebte Dinge wie Waffen oder Maschinen angreifen.Wenn dabei Gegner oder unbeteiligte Zivilisten zu Schaden kommen, ist das „Kollateralschaden, mit dem man rechnen muss, der nicht vermeidbar ist.“ Sorgen bereitet dem Militär, da der Gegner die autonomen Systeme austricksen könnte, so dass sie Menschen töten.
Hier wird empfohlen, die Daten derSensoren zu speichern, um die Schuld des Gegners nachweisen zu können. Es mutet perfide an, Roboter zum gezielten Töten zu programmieren, und gleichzeitig als Dokumentationsinstrument für die eigene Unschuld zu benutzen.Es ist völlig unwichtig, ob und wie die Kampfroboter oder die autonomen Kampfsysteme töten werden. Die Plattform ihrer Entwicklung ist längst vorhanden, ihr Einsatz beschlossene Sache.Die Feinheiten und ethischen Auslegungen dürften den Opfern egal sein, ob sie nun regulär oder lediglich als Kollateralschaden ihr Ende finden.
Doch das seit Menschengedenken krankhafte Suchen nach noch besseren, noch effektiveren Waffen hat damit noch längst kein Ende. Seit Jahren forscht man im Pentagon an der Schwarmtechnologie.Klein wie Käfer sollen sie sein und in jedes Versteck und jeden unterirdischen Bunker eindringen können. Das vor allem deshalb, weil immer mehr Militärs ihre sensiblen Waffentechniken tief in der Erde verbergen, wo nicht einmal Atombombenschläge etwas ausrichten können. Da kommen die Roboterkäfer zum Einsatz. Solche Käfer wurden, allerdings zur Brandbekämpfung in Wäldern, auch schon vor Jahren in Sachsen-Anhalt getestet.Das ebenfalls nach Science Fiction klingende Vorhaben der US-Luftwaffe, anstatt Bombenoder Präzisionsraketen Roboterschwärme loszuschicken, die gezielt, effektiv und ohne erheblichen „Kollateralschaden“ unterirdische Anlagen mit samt den in ihnen befindlichen
Menschen, Geräten und Waffen zerstören können, wurde schon 2003 bewilligt. In dem Papier heißt es: „Neue militärische Bestrebungen haben die Schwierigkeit verdeutlicht, mit konventionellen Waffen tiefgelegene Ziele zu finden und
zu zerstören, die abgeschlossen, bewacht, mobilodersogar vergraben sind.Beispiele dafürsind verstärkte Bunker unter der Erde,Höhlen/Tunnel-Systeme und mobile SCUD-Abschussrampen. Mini-Roboter könnten solche Ziele finden, Daten sammeln, verfolgen und sogar zerstören, aber die Roboter müssen gut koordiniert sein und über Intelligenz verfügen, um kreative Lösungen für die Erreichung des Ziels zu finden. “Ein neues Feld im Wettrüsten ist längst beackert. Was jetzt nach außen dringt, sind Ergebnisse. Und sobald Ergebnisse vorliegen, werden sie auch genutzt. Das war schon immer so. Der bekannte amerikanische Roboterforscher Thaler dazu:
„Es gibt eine Zurückhaltung, autonomen Robotern tödliche Missionen anzuvertrauen.Aber die Bösen werden nicht dieselben Einschränkungen machen.
Die Eskalation ist unvermeidlich.“