Autonome Waffen : Künstliche Intelligenz ermöglicht neues Zeitalter des Tötens

Noch sind sie von Menschen gesteuert: Drohnen. Doch in der Zukunft könnten Algorithmen das Kommando übernehmen.
Noch sind sie von Menschen gesteuert: Drohnen. Doch in der Zukunft könnten Algorithmen das Kommando übernehmen.

Nach Erfindung des Schießpulvers und der Atombombe steht eine neue Revolution beim Militär ins Haus: autonome Waffen. Noch fehlt dazu jeder Regelungs- und Rechtsrahmen. Können die Vereinten Nationen Abhilfe schaffen?

svz.de von
08. November 2018, 19:00 Uhr

Osnabrück | Bundesaußenminister Heiko Maas ist nicht bekannt dafür, mit drastischen Worten Panik zu verbreiten. Was er jüngst vor den Vereinten Nationen vortrug, ist aber durchaus geeignet, schlimme Befürchtungen zu wecken. „Unsere Regelwerke müssen Schritt halten mit den technologischen Entwicklungen. Was wie Science Fiction klingt, könnte sonst sehr bald tödliche Realität werden: Autonome Waffensysteme, Killerroboter, die völlig außerhalb menschlicher Kontrolle töten“.

Tatsächlich steht nach der Erfindung des Schießpulvers und der Atombombe eine dritte Revolution in der Kriegsführung ins Haus: autonome Waffensysteme. Künstliche Intelligenz, unbemannte Systeme und eine Datenverarbeitung in Echtzeit haben ein neues Zeitalter eingeläutet. Schon heute können Militärangehörige mit Joystick aus Tausenden Kilometern Entfernung unbemannte Drohnen tödliche Geschosse abfeuern lassen. Bis Algorithmen diese Aufgaben übernehmen, scheint es nicht weit hin. Entzieht sich das Töten demnächst also der menschlichen Kontrolle?

Die entsprechende Forschung läuft auf Hochtouren, fasziniert Militärs in Ost und West, in Nord und Süd gleichermaßen. Zumindest teilautonome Waffensysteme gehören weltweit inzwischen in vielen Einsätzen zum Alltag.

Das israelische Militär hat mit der Harpy-Rakete inzwischen eine Rakete in ihrem Arsenal, die ohne menschliches Zutun Radaranlagen finden und zerstören kann. Ist sie in der Luft, reagiert sie auf Signale des Radars und greift an. Mit ein paar technischen Modifikationen könnten sich auch Menschen mit bestimmten Eigenschaften ins Visier nehmen lassen.

Digitalisierung bietet ungeahnte Möglichkeiten

Die digitale Revolution eröffnet auch im Militärischen ungeahnte Möglichkeiten. „Cyber- also digitale Informationstechnologien beeinflussen und verändern unser gesamtes Leben in geradezu dramatischer Weise. Das macht natürlich auch nicht vor dem Militärischen nicht halt“, sagt Karl-Heinz Kamp, Präsident der Bundesakademie für Sicherheitspolitik (BAKS) in Berlin. Ob die Auswirkungen zu brutaleren oder weniger brutalen Konflikten führen, hänge davon ab, was die Menschen daraus machen: „Wenn Sie mit einem Cyber-Angriff die Kommunikation eines herannahenden Panzerbataillons lähmen, mag der Angriff zu Stillstand kommen, bevor ein Schuss abgefeuert wurde“, sagte Kamp: „Wenn ein Cyber-Angriff die Luftraumkontrolle eines großen Zivilflughafens ausschaltet, wären die Folgen katastrophal“.

Künstliche Intelligenz greift in der Militärtechnik mehr und mehr um sich. Damit drängen sich völkerrechtliche und ethische Fragen auf. Sollen Forscher solche Technologien überhaupt weiterentwickeln? Ist ein Verbot zielführend? Senken selbstständig agierende Systeme nicht die Hemmschwelle für militärisches Eingreifen, weil deren Zielgenauigkeit weniger Opfer befürchten lässt? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, überhaupt zur Verantwortung gezogen werden? Und was geschieht, wenn autonome Waffentechnik in die Hände von Terroristen gerät?

Roboter sind gewissenlos. Deshalb töten sie ohne ethische Bedenken. Damit aber verletze selbstständig agierendes Kriegsgerät die Normen internationaler Verträge. Zu diesem Schluss kommt eine Analyse der Menschenrechtsorganisation Human Rights Watch. Sie fordert das völlige Verbot sowohl der Entwicklung wie auch des Einsatzes von Killerrobotern.

Noch keine internationale Ächtung

Tatsächlich laufen bei den Vereinten Nationen seit 2014 entsprechende Gespräche. „Besonders die USA und Russland lehnen jedoch jedwede Regulierung strikt ab“, schreibt der Sicherheitsexperte Frank Sauer von der Bundeswehruniversität in München in einer Analyse zur „Künstlichen Intelligenz in den Streitkräften“.

Deutschland habe sich der Gruppe der 26 Verbotsbefürworter noch nicht angeschlossen. Die Bundesregierung erteile vollautonomen Waffensystemen im Koalitionsvertrag aber eine klare Absage und fordere die internationale Ächtung. Bislang gibt es aber nicht mal eine unverbindliche politische Deklaration –Zeit also, dass der Appell von Außenminister Maas Gehör findet.

„Eine Gesellschaft, die eine solche Praxis erlaubt und mit dem Töten im Krieg ihr kollektives menschliches Gewissen nicht mehr belastet“, mahnt Sauer, „riskiert nicht weniger als die Aufgabe der grundlegendsten zivilisatorischen Werte und humanitären Prinzipien“.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Diskutieren Sie mit.

Leserkommentare anzeigen