KI in Waffensystemen

roger-naebig-foto
Lesezeit: 3 Minuten

Der Experte für Sicherheitspolitik Roger Näbig arbeitet als Rechtsanwalt und freier Journalist in Berlin mit dem Fokus auf globalen Konflikten, Militärpolitik und Kriegsvölkerrecht. Er gibt uns aktuelle Einblicke in die KI im militärischen Bereich:

Herr Näbig, was ist der aktuelle Stand von KI in Waffensystemen?

Diese Frage ist aufgrund der im militärischen Bereich geltenden Geheimhaltung nur sehr schwer zu beantworten. Die USA, China, Russland, Israel und die EU (hier vor allem Großbritannien sowie Frankreich) halten sich bezüglich der konkreten Entwicklung von KI in militärischen Systemen sehr bedeckt. Die „Sea Hunter“ als unbemanntes, selbständig fahrendes US-Kriegsschiff oder die über ihren Einsatz selbst entscheidende Kamikaze-Drohne „Harop“ aus Israel sind Beispiele für den aktuellen Stand teilautonomer militärischer Systeme mit Hilfe von KI.

Unterscheiden muss man hier allerdings zwischen schwacher und starker KI. Starke KI entspricht im übertragenen Sinn der menschlichen Intelligenz. Ein mit starker KI ausgestattetes Waffensystem wäre in der Lage, unbekannte Aufgaben in einer für sie völlig fremden Umgebung zu lösen, aus den insoweit gewonnenen Erfahrungen zu lernen, um sich schließlich selbständig fortzuentwickeln. Solche Systeme existieren bislang nicht und es unter Wissenschaftlern äußerst umstritten, ob der Mensch je in der Lage sein wird, überhaupt eine starke KI zu entwickeln, völlig losgelöst von der Frage, ob man diese dann überhaupt in Waffensysteme integrieren möchte. Schwache KI wird aktuell schon in einem größeren Rahmen bei relativ eng begrenzten, spezialisierten Aufgabenstellungen in einer vordefinierten Umgebung eingesetzt z.B. bei der der Selbstdiagnose, Bildauswertung oder Gesichtserkennung. Alle bislang eingesetzten militärischen KI-Anwendungen sind der schwachen KI zuzuordnen.

 

Wie autonom sind diese wirklich?

Zunächst macht nicht jede autonome Funktion in einer Waffe diese zu einem (letalen) autonomen Waffensystem. Navigation, Selbstdiagnose oder selbständiges Landen und Starten bei Drohnen sind Teilbereiche bei Waffensystemen, die meiner Meinung nach völkerrechtlich eher unkritisch sind. Erst wenn der Waffeneinsatz (Zielen und Feuern) als sogenannte Bekämpfungsschleife selbständig abläuft, können wir von einem autonomen Waffensystem sprechen. Und wenn sich dieser sodann konkret gegen einen Menschen richtet, dann sprechen wir von einem Letalen Autonomen Waffensystem („LAWS“).

Weiterhin ist zwischen Automatik, (hoher) Automatisierung und Autonomie zu unterscheiden. Automatische Systeme führen vordefinierte Aktionen selbstständig aus. Diese sind für den menschlichen Benutzer vorhersehbar. Automatisierte Systeme wägen im Gegensatz dazu zunächst verschiedene, vordefinierte Variablen ab, bevor sie Maßnahmen ergreifen. Die internen kognitiven Prozesse der Maschine sind hierbei für den menschlichen Benutzer grundsätzlich auch noch nachvollziehbar. Autonome Systeme hingegen treffen selbstständig Entscheidungen, die der Mensch u.U. nicht mehr nachvollziehen kann.

Die Selbstmorddrohne „Harop“, das schiffsgestützte Nahverteidigungssystem „Phalanx“ oder das aktive Panzerschutzsystem „Trophy“ gehören bezüglich des Waffeneinsatzes alle zur zweiten Kategorie der hochautomatisierten Waffensysteme, die sich nicht direkt gegen einen Menschen richten. Wirkliche autonome Funktionen im Sinne der o.a. Definition finden wir bislang nur in wenigen Teilbereichen wie z.B. bei den noch experimentellen Schwarmalgorithmen für eine gemeinsam agierende Gruppen von Drohnen.

 

Welche rechtlichen Bedenken sehen Sie hauptsächlich?

Bevor letale autonome Waffensysteme („LAWS“) überhaupt eingesetzt werden könnten, müssten diese eigentlich eine strenge Überprüfung durchlaufen, damit sichergestellt ist, dass sie wie vorgesehen funktionieren. Art. 36 I. Zusatzprotokoll der Genfer Konventionen („I. ZP GK“) verlangt diese staatliche Eigenkontrolle bei Entwicklung, Einführung und Beschaffung neuer Waffen oder Mittel bzw. Methoden der Kriegsführung. Dies wäre aber gerade für LAWS mit künstlicher Intelligenz nur sehr schwer zu realisieren, da es bislang keine Konzepte bzw. Standards gibt, wie diese entsprechend zertifiziert werden sollen. Problematisch sind für LAWS vor allem komplexe, dynamisch sich ändernde, schwer vorhersehbare Umgebungen und die Interaktion mit Menschen oder anderen autonomen Systemen. Problematisch wäre bei einem LAWS vor allem die Autonomie beim Zielen & Feuern, weil hier die Grundprinzipien des Humanitären Völkerrechts (Kriegsvölkerrecht) wie z.B.

  • die Unterscheidung gemäß Art. 51, 52 I. ZP GK zwischen Kombattanten und Zivilisten sowie militärischen und zivilen Objekten,
  • die Verhältnismäßigkeit gemäß Art. 51, 57 I. ZP GK einer physischen Gefahr für Zivilisten bzw. für zivile Objekte im Verhältnis zum militärischen Vorteil und
  • die Vorsorge bzw. Vorsicht im Gefecht gemäß Art. 57 I. ZP GK, also Zivilisten bzw. zivile Objekte bei Kampfhandlungen möglichst zu verschonen und alles praktisch Mögliche zu unternehmen, um allein militärische Ziele anzugreifen,

zu beachten wären.

Volle Autonomie bei der Bekämpfungsschleife würde also eine komplexe quantitative & qualitative Bewertung durch die Soft- & Hardware des LAWS erfordern. Bislang hat aber keine Anwendung der künstlichen Intelligenz ein Niveau situativer Wahrnehmung erreicht, um selbständig unbestimmte Rechtsbegriffe zu berechnen oder z.B. eine Abwägung zwischen „Kollateralschaden“ und „militärischem Vorteil“ vollziehen zu können. Es ist bislang für existierende KI-Systeme unmöglich, eine qualitative Beurteilung vorzunehmen, um festzustellen, ob ein Angriff bezüglich eines zu erwartenden militärischen Vorteils verhältnismäßig wäre oder nicht.

 

Präsident Putin hat gesagt „Wer in diesem Bereich die Führung übernimmt, wird der Herrscher der Welt“ – wer wird das Ihrer Meinung nach sein?

Ich glaube, dass wir bei KI nicht eine einzelne Nation sehen werden, die die alleinige Führung übernehmen wird und sich so zum Herrscher der Welt aufschwingen kann, wie es Russlands Präsident Putin vorhersagt. Die USA und China werden sicherlich in den nächsten 20-30 Jahren zu sogenannten „KI-Supermächten“ aufsteigen, daneben wird es Staaten wie Israel, Großbritannien, Frankreich und Russland geben, die als aufstrebende KI-Technologiemächte einen bedeutenden Anteil bei Forschung, Entwicklung sowie Einsatz von künstlicher Intelligenz im militärischen Bereich haben werden. Deutschlands Platz sehe ich hier (leider) eher auf den hinteren Rängen. Die aktuelle KI-Strategie der Bundesregierung räumt dem militärischen Bereich nur eine sehr untergeordnete Rolle ein.

Vielen Dank für das Gespräch!

(Beitragsbild: Näbig)

 

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Scroll to Top