Künstliche Intelligenz in Waffensystemen – Warum wir dringend neue Regeln brauchen

Ein Expertenbeitrag von Dr. Frank Sauer, Universität der Bundeswehr MünchenDas Zeitalter der Künstlichen Intelligenz (KI) ist voller Verheißungen. Auch Militärs wollen – und sollen – von den jüngsten technologischen Durchbrüchen profitieren. KI dient im Militär bereits für bessere Logistik, vorausschauende Wartung oder die Analyse großer Datenbestände zur Krisenfrüherkennung. Eine deutlich risikoreichere Anwendung ist ihre Nutzung zur Steigerung von Autonomie in Waffensystemen.
Autonome Waffensysteme sorgen seit einigen Jahren für Schlagzeilen. Tausende KI-Expertinnen und -Experten warnen vor ihrer Entwicklung. 28 Staaten sprechen sich im Rahmen der Vereinten Nationen (VN) für ein völkerrechtlich bindendes Verbot aus, ebenso das Europäische Parlament und deutliche Bevölkerungsmehrheiten in weltweiten Meinungsumfragen. Auch Deutschland lehnt autonome Waffensysteme laut dem aktuellen Koalitionsvertrag ab.

Doch was sind autonome Waffensysteme? Nach der inzwischen gängigen Definition gelten Waffensysteme dann als vollautonom, wenn sie selbständig Ziele suchen und diese dann ohne menschliches Zutun auswählen und bekämpfen. Gänzlich neu ist das nicht. Aber bisher blieb diese Funktion auf militärische Nischenanwendungen begrenzt, etwa bei der stationären Raketenabwehr. Dank KI könnten bald flächendeckend alle möglichen Waffensysteme Ziele ohne menschliches Zutun bekämpfen. Das würde große sicherheitspolitische, völkerrechtliche und ethische Risiken aufwerfen.

Dr. Frank Sauer ist Politikwissenschaftler und forscht an der Universität der Bundeswehr München. Er ist Mitglied im International Committee for Robot Arms Control (ICRAC) und dem International Panel on the Regulation of Autonomous Weapons (IPRAW). Außerdem ist er einer der vier Gastgeber von „Sicherheitshalber“, dem einzigen deutschsprachigen Podcast zu Sicherheitspolitik in Deutschland, Europa und der Welt. Auf Twitter ist er zu finden unter @drfranksauer.

Aus sicherheitspolitischer Perspektive drohen unbeabsichtigte militärische Eskalationen. Denn unvorhersehbare Interaktionen zwischen Algorithmen sind, etwa an den Finanzmärkten, schon lange bekannt. Dort enden diese bisweilen in „flash crashes“ (d.h. starke Kurseinbrüche in sehr kurzer Zeit). Was, wenn Algorithmen einen „flash war“ auslösen?

Aus Sicht des Völkerrechts droht eine Verantwortungslücke. Denn es ist unklar, wer im Rahmen der Anwendung militärischer Gewalt durch autonome Waffensysteme die Verantwortung trägt, sollten sie Zivilisten illegal Leid zufügen.
Vor allem aber verletzt es die Würde des Menschen, Entscheidungen über Leben und Tod auf dem Schlachtfeld an Maschinen zu delegieren. Denn das Töten im Krieg auf einen Automatismus auszulagern und nur noch „abarbeiten“ zu lassen, degradiert Menschen zu Objekten – explizit auch Kombattanten, deren Tod unter Berücksichtigung kriegsvölkerrechtlicher Regeln ja durchaus bewirkt werden darf. 


 

 

Für die Getöteten mag es keinen Unterschied machen, ob ein Mensch oder eine Software ihren Tod bewirkt hat. Aber die Gesellschaft, die diese Praxis erlaubt und mit dem Töten im Krieg ihr kollektives menschliches Gewissen nicht mehr belastet, gibt grundlegende zivilisatorische Werte und humanitäre Prinzipien auf.
Bei den Vereinten Nationen ringen Staatenvertreter schon seit 2014 um eine international verbindliche Regulierung von Autonomie in Waffensystemen – bisher ohne Erfolg.

Deutschland könnte mit gutem Beispiel vorangehen und für die Bundeswehr Regeln entwickeln, dabei die Vorteile der neuen Technologien, etwa zur Verteidigung, nutzend und Risiken meidend. Wenn der Mensch auch zukünftig die Verfügungsgewalt über Waffensysteme bewahren und sich seiner rechtlichen und ethischen Verantwortung stellen will, dann brauchen wir solche nationalen und internationalen Regelungen jetzt dringend.


Die hier veröffentlichten Inhalte und Meinungen der Autorinnen und Autoren entsprechen nicht notwendigerweise der Meinung des Wissenschaftsjahres 2019 – Künstliche Intelligenz.

Metadaten zu diesem Beitrag

Mehr zum Themenfeld:

Schlagworte zu diesem Beitrag: