Atomraketen sind von gestern

Die USA und Russland steigen aus dem INF-Vertrag aus. Dabei hat sich das Wettrüsten längst erweitert. Wo die Gefahren der Zukunft lauern.

Eine Kampfdrohne vom Typ Heron TP. (Archivbild)

Eine Kampfdrohne vom Typ Heron TP. (Archivbild)

(Bild: Reuters Fabrizio Bensch)

Die Welt war einmal wesentlich überschaubarer. Als die Weltkriege des 20. Jahrhunderts ausgefochten waren, standen sich noch zwei grosse Blöcke gegenüber. Die Atomraketen waren in dieser Machtarithmetik eine verlässliche Waffe, um das Schwarz-Weiss-System zu zementieren.

Solange sich beide Seiten auslöschen konnten, war die Gefahr zwar nie gebannt, aber doch begrenzt, dass einer der beiden Kontrahenten tatsächlich zum äussersten Mittel greifen würde: Wer riskiert es schon, den anderen zu vernichten, wenn der Preis dafür die eigene Vernichtung ist? «Gleichgewicht des Schreckens» hiess das. Mit dem Ende des Kalten Krieges schien dieser Dualismus ein Relikt der Vergangenheit zu sein.

Aber die Atempause war nur von kurzer Dauer, wie auch die Aufkündigung des INF-Vertrags zeigt. Und inzwischen sind neue Schauplätze des Wettrüstens hinzugekommen. Kriege der Zukunft, da sind sich Militärstrategen sicher, werden nicht nur im Feld, sondern auch im Cyberspace ausgefochten. Künstliche Intelligenz und Waffensysteme, die den Menschen ersetzen können, bringen eine neue Dynamik in die Konflikte des 21. Jahrhunderts.

Die meisten Atomwaffen sind so modern wie Röhrenfernseher

Russen und Amerikaner modernisieren bereits seit Jahren ihre nuklearen Arsenale. Das Ziel einer Welt ohne Atomwaffen, vor ein paar Jahren noch vom damaligen US-Präsidenten Barack Obama formuliert, ist aus dem Sichtfeld geraten. Auch wenn es redliche Versuche gibt und 120 Staaten einen Verbotsvertrag für Atomwaffen beschlossen haben, für die Nuklearmächte und Verbündete ist das Dokument nur ein bedeutungsloses Stück Papier.

Selbst die Friedensnobelpreisträgerin Beatrice Fihn von der Kampagne zum Verbot von Nuklearwaffen sagt: Atomraketen werden nicht so bald verschwinden, sie werden nur ihren Sinn verlieren, irgendwann einmal.

Aus technischer Sicht sind die meisten Atomwaffen schon heute aus der Zeit gefallen und in etwa so modern wie Röhrenfernseher. Ihre Instandhaltung und Weiterentwicklung ist teuer, der Einsatz nach wie vor undenkbar, solange nicht die eigene Todessehnsucht Überhand gewinnt. Nur an ihrem Nutzen als Abschreckungsmittel hat sich nichts geändert, das macht sie für Amerikaner, Russen und Diktatoren wie Kim Jong-un noch immer zur ultimativen Waffe.

Es gibt indes eine Ausnahme, an der die USA, Russland und China forschen: Überschallraketen, die mit mehr als 5000 Stundenkilometern Durchschnittsgeschwindigkeit unter feindlichem Radar fliegen und so einen Gegenschlag unmöglich machen könnten.

Die dritte Revolution der Kriegsführung ist angebrochen

In Zeiten des digitalen Wandels haben sich auch in der modernen Kriegsführung neue Rüstungsschauplätze entwickelt: «Das Ende des INF-Vertrages ist Ausdruck einer politischen Krise, insbesondere der Rüstungskontrolle. Dies ist gefährlich, denn technologisch geht es längst um andere Systeme als nur landgestützte Mittelstreckenraketen», sagt Marcel Dickow von der Berliner Stiftung Wissenschaft und Politik (SWP).

Nach der Erfindung des Schiesspulvers und der Atomwaffen ist nicht weniger als die dritte Revolution in der Kriegsführung angebrochen. Zum Standard gehört dabei bereits die menschliche Distanzierung im Krieg, das heisst, Soldaten stehen sich seltener als früher direkt im Feld gegenüber. Drohnenpiloten sitzen heute in einem Operationszentrum in der Wüste von Nevada, wenn sie mutmassliche Terroristen im weit entfernten Pakistan per Joystick ausschalten.

In Laboren werden Tiere gezüchtet, die dem Menschen unangenehme, gefährliche Einsätze im Krieg abnehmen sollen. Ausgestattet mit künstlicher Intelligenz wecken sie das Interesse von Militärplanern, zum Beispiel die «Robo-Ratten»: Sie bekommen Elektroden eingepflanzt und sind per Fernbedienung steuerbar. Sie sind noch nicht als Kampfmaschinen vorgesehen, aber könnten dabei helfen, «Überlebende zu entdecken, die unter den Trümmern eingestürzter Häuser begraben sind, Bomben und Sprengfallen zu orten und unterirdische Tunnel und Höhlen zu erkunden», wie der Historiker Yuval Noah Harari in seinem Buch «Homo Deus» das Forschungsprojekt einer New Yorker Universität beschreibt.

Waffensysteme können selbst über die Zielauswahl entscheiden

Die Automatisierung des Krieges versetzt Fachleute kaum noch in Unruhe, sie ist eine Realität. Aber der nächste Schritt – die Autonomie und damit verbunden die Frage, welche Entscheidungen Maschinen Menschen abnehmen werden, wirft beunruhigende Fragen auf: Voll autonome Waffensysteme können, wenn sie einmal von Menschen aktiviert worden sind, ohne weiteres Zutun über Zielauswahl und Zielbekämpfung entscheiden.

Erprobt werden etwa Drohnenschwärme, wie sie das amerikanische Militär bereits im Jahr 2017 erfolgreich getestet hat. Kampflugzeuge haben dabei 103 Perdix-Drohnen ausgesetzt, die sich mittels künstlicher Intelligenz zu einem Schwarm formierten – ohne weiteres menschliches Eingreifen. Und es geht um selbstfahrende U-Boote, unbemannte Panzer, Kampfroboter, die an Grenzen patrouillieren und schiessen können, wenn sich ihnen jemand nähert. Der russische Hersteller Kalaschnikow, bekannt für seine Sturmgewehre, hat ein Panzerfahrzeug vorgestellt, das selbständig Ziele identifizieren und eigene Entscheidungen treffen könne.

«Das Ziel bei autonomen Waffensystemen ist noch nicht richtig klar, anders als damals bei den Nuklearwaffen. Es gibt noch keine ausgereiften militärischen Strategien, wie man die autonomen Waffensysteme wirklich einsetzen will», sagt Sicherheitsexperte Dickow. Aber klar ist: Die USA, Russland und China wollen in der Technologie nicht ins Hintertreffen geraten, unter Verweis auf den jeweils anderen werden Waffen entwickelt und getestet. Für die Zukunft der Kriegsführung wollen die führenden Mächte zumindest auf alles vorbereitet sein.

Die Vereinten Nationen ringen seit Jahren um verbindliche Regelungen

Diese dritte Revolution in der Kriegsführung wirft eine Reihe ethischer und juristischer Fragen auf: Wie unterscheidet ein Roboter zwischen Zivilisten und Kämpfern? Wie soll eine Maschine erkennen, ob jemand bereits verletzt ist, also nicht mehr schiessen kann? Oder dass er sich ergibt? «Entscheidend ist, ob der Mensch noch genug Einfluss und Kontrolle hat über den Waffeneinsatz. Bei autonomen Systemen ist das nicht mehr der Fall, da stösst auch das internationale Völkerrecht an seine Grenzen», sagt Sicherheitsexperte Dickow.

Bei den Vereinten Nationen in Genf ringt die Staatengemeinschaft seit Jahren um verbindliche Regelungen für autonome Waffensysteme, es gibt eine Lobby für ein Verbot der sogenannten Killerroboter. Aber es gibt einige Staaten, die sich unter Verweis auf das bereits stattfindende Wettrüsten einem Verbot widersetzen. Im März steht die nächste Verhandlungsrunde an, eine Einigung gilt als unwahrscheinlich. Es ist gut möglich, dass eine Reihe von Staaten dann wie bei dem Verbot von Landminen, Streumunition oder Atomwaffen voranprescht und ausserhalb der UN nach Regelungen sucht, denen sich nur ein Teil der Staatengemeinschaft unterwirft.

Noel Sharkey, emeritierter Professor von der Universität Sheffield und einer der bekanntesten britischen Forscher im Bereich Robotik und künstliche Intelligenz, steht an der Spitze der Bewegung, die sich für ein Verbot autonomer Waffensysteme einsetzt, noch bevor sie in den militärischen Alltag integriert werden. Die Entscheidung, einen Menschen zu töten, dürfe niemals von einer Maschine gefällt werden, sagt Sharkey. «Zwar machen Menschen Fehler, auch in Kriegen, aber man kann sie zur Verantwortung ziehen.» Der Einsatz voll autonomer Waffen im Krieg sei ein Verstoss gegen die Menschenwürde.

Weniger menschliche Verluste durch autonome Waffensysteme?

Aber es gibt in der wissenschaftlichen Debatte auch andere Haltungen. Paul Scharre etwa, der für die US-Armee einst als Soldat im Irak und in Afghanistan gekämpft hat, nun beim Thinktank Center for a New American Security forscht und ein Buch über die Zukunft der Kriegsführung geschrieben hat, will sich nicht so eindeutig positionieren. Scharre will zumindest darüber diskutieren, ob der Einsatz autonomer Waffensysteme im Krieg nicht auch dazu führen könnte, menschliche Verluste zu reduzieren.

Dahinter steckt die Frage: Irren sich Roboter häufiger als Menschen? In zivilen Bereichen wie der Gesichtserkennung sind autonome Systeme längst präziser als Menschen. Und falls selbstfahrende Autos eines Tages Statistiken mit weniger Verkehrstoten hervorbringen sollten, ist es dann nicht auch denkbar, dass autonome Waffensysteme, die nicht durch menschliche Regungen wie Frust, Wut und Trauer geleitet werden, Entscheidungen treffen, die in Kriegen zu weniger Toten führen?

«Was das Thema Präzision betrifft, haben Maschine klare Vorteile», sagt Sicherheitsexperte Dickow, «aber das ist kein Argument für den Einsatz autonomer Systeme im Krieg.» Niemand habe ein Problem mit den Vorzügen der neuen Technologie, «es ist nur ein massives Problem, wenn die menschliche Kontrolle vollständig verloren geht». Und das Argument der emotionsfreien Maschine, die keine Kriegsgräuel verübe, lasse sich auch genau umdrehen: «Es gibt auch menschliche Empathie und Zurückhaltung im Krieg, wodurch Schlimmeres verhindert wird», sagt Dickow.

Diese Inhalte sind für unsere Abonnenten. Sie haben noch keinen Zugang?

Erhalten Sie unlimitierten Zugriff auf alle Inhalte:

  • Exklusive Hintergrundreportagen
  • Regionale News und Berichte
  • Tolle Angebote für Kultur- und Freizeitangebote

Abonnieren Sie jetzt