Wolfgang Engelhardt: Die ethische Debatte um den Einsatz autonomer Waffensysteme
Wolfgang Engelhardt: Die ethische Debatte um den Einsatz autonomer Waffensysteme. Eine theologische Perspektive, Stuttgart: Kohlhammer, 2025, Pb., 236 S., € 49,–, ISBN 978-3-17-045996-0
Autonome Waffensysteme (AWS) wecken schnell Science-Fiction-Bilder im Kopf: Killerroboter, die sich verselbständigen und unzählige Opfer fordern. Ob diese Vorstellung der Wirklichkeit entspricht, überprüft Engelhardt in seiner theologischen Promotion an der Universität Pretoria. Viele Jahre arbeitete er als Dipl.-Ing. im Bereich Lenkflugkörper- und Luftverteidigungssysteme.
Eine Welt ohne Krieg wünschen wir uns alle. Doch, so der Verf., kann es in einer gefallenen Welt notwendig sein, dem Bösen auch mit militärischen Mitteln zu wehren.
Seine Kernfrage ist: Dürfen AWS über Menschenleben entscheiden – oder widerspricht dies grundsätzlich der Menschenwürde?
Es geht um Waffen, die aufgrund ihrer Programmierung Ziele selbstreguliert erfassen und bekämpfen. Das ist nicht neu. Schon heute schützen z. B. radargesteuerte Abwehrsysteme die Bevölkerung, indem sie Raketen erkennen und eliminieren. Die Geschwindigkeit und Gleichzeitigkeit von AWS in Zielermittlung, -identifizierung und -bekämpfung ist menschlichem Handeln überlegen und schützt Leben. Es geht also nicht um Fantasieszenarien, sondern um eine programmierte Nachahmung menschlichen Handelns, die Soldaten unterstützt, ergänzt und in bestimmten Fällen gar ersetzt, damit der Mensch nicht zum „Flaschenhals“ (54) der Technik wird.
Strittiger wird es natürlich, wenn AWS die Tötung von Menschen beinhalten und durch KI (semi)autonom identifizieren und angreifen.
Uns scheint wohler, dies dem Menschen zu überlassen. Er kann im Gegensatz zu einer (unberechenbaren?) Maschine situativ angemessen entscheiden. Andererseits erleben wir bei menschlichem Handeln Panik, Hass, Blutrausch und Kriegsverbrechen, was bei AWS nicht der Fall ist. Zudem verhindern AWS, dass Soldaten unmittelbarer Gefahr ausgesetzt werden, weil sie in sicherer Entfernung bleiben können.
Die Thematik ist vielschichtig und Engelhardt will die ethische Frage nicht allein der säkularen Ethik überlassen. Aufgrund einer repräsentativen Auswahl technikethischer Beiträge aus dem NATO-Kontext fragt er nach einer christlichen Bewertung.
AWS versteht er dabei als „Stellvertreter von Soldaten“ (30). Dieses Verständnis öffnet eine differenzierte Abwägung. Im Blick auf den Aspekt zielorientierten Handelns spricht er vom „homo kybernetikus“ (45): Der Mensch als Regler, der Situationen erfasst, bewertet und zielorientiert handelt. Diese Struktur ist ein Aspekt der Gottebenbildlichkeit. Solch ein zielorientiertes Handeln versuche man durch Programmierung nachzuahmen.
Der Dipl.-Ing. erklärt Basiswissen zu Autonomie, Algorithmen, Robotik und KI. Er zeigt, „wie menschliches Verhalten auf Algorithmen äquivalent transformiert werden kann“ (25), wodurch ein „Schnittpunkt zwischen Anthropologie und Ingenieurswissenschaften“ (25) entsteht. Zugleich hinterfragt er die vermenschlichende Redeweise von „Autonomie“ und „Intelligenz“ für KI-gesteuerte Maschinen. Bis heute gebe es „kein selbstbestimmtes Handeln […] sondern lediglich ein programmiertes“ (69). Engelhardt pflichtet den Ethikern und Philosophen bei, die KI kein Bewusstsein oder moralisches Gewissen zuschreiben. Auch „Geist“ und „Verantwortungsbewusstsein“ bleiben dem Menschen als Schöpfergabe vorbehalten.
In der technikethischen Debatte geht es um die Fragen: Sind AWS vereinbar mit a) der Einhaltung humanitären Völkerrechts (Verschonung Kapitulierender/Verwundeter, Unterscheidungsprinzip Soldat/Zivilist), b) der Menschenwürde (ein Algorithmus entscheidet über Leben und Tod) und c) mit der Verantwortung (wobei sich die Frage stellt, ob diese der Programmierer, Hersteller oder Befehlshaber trägt)?
Anhand u. a. der Stellungnahme des Internationalen Komitees des Roten Kreuzes (ICRC) spürt der Verf. diesen Fragen nach. Technisch könnte AWS durch präzise Programmierung eines Tages in der Lage sein, das Völkerrecht einzuhalten. Schon jetzt ergeben statistische Auswertungen von Kampfgeschehen und virtuellen Trainings Vorzüge von AWS gegenüber Soldaten: weniger Opfer, keine emotionalen Eskalationen, keine Kriegsverbrechen. Offen bleiben Fragen im Umgang mit Mitleid, Verschonung sich Ergebender oder Verwundeter. Die Fragen nach Menschenwürde und Verantwortung bleiben grundlegender Natur.
Die zweite Buchhälfte widmet sich der theologischen Einordnung. Zum Reflexionsrahmen des Verf. gehören die Zuordnung von Kirche und Welt (Luther, Barth, Bonhoeffer), sowie die Entfaltung der Lehre vom gerechten Krieg, welche die technisch möglicherweise lösbaren wie grundlegenden Argumentationslinien verbindet und in das Humanitäre Völkerrecht einfloss. Beide dämmen die „dunkle Seite des Menschen während der Kriegsführung“ (128) ein und setzen ein realistisches wie biblisches Menschenbild voraus. So kommt auch der Technologieprofessor Ronald Arkin zum Schluss, dass AWS einsetzbar sind, weil der Mensch zwar zum Guten in der Lage ist (Mitgefühl, Barmherzigkeit), im Krieg erfahrungsgemäß aber zum Gegenteil neigt. Dieses Menschenbild deckt sich mit dem der gefallenen imago dei. AWS können also zu humanerer Kriegsführung beitragen. Gleichzeitig schließen sie die menschlichen Möglichkeiten von Mitgefühl und Barmherzigkeit aus.
Zur ethischen Meinungsbildung nutzt der Verfasser das Reflexionsmodell des Theologen Markus Mühling. Dieses arbeitet mit den vielschichtigen Beziehungen und Einwirkungen, die letztlich zum Handeln führen. Der Verf. legt den Schwerpunkt auf die Relate „Person“, „Mittel“, „religiöse Gewissheit“, „Ziele“, „Regeln“, „Ergebnisse“ und „Gewissen“. Engelhardt hält dieses Modell aufgrund der vielseitigen Aspekte der AWS-Thematik für am besten geeignet. Da allein Gott gut ist und der Mensch in Sünde gefallen, fragt Mühling nicht nach dem guten, sondern dem „vorzuziehenden“ (194) Handeln. Doch auch in der Fragestellung des Autors um AWS halte ich dies für sinnvoll und sensibel.
Engelhardt plädiert für „eine eindeutige Präferenz für den Schutz des Lebens“ (198) als vorzuziehendes Gut gegenüber der grundlegenden Menschenwürde. Deswegen wäre für ihn ein generelles Verbot von AWS verfrüht, solange nicht nachgewiesen wird, dass diese menschliches Leben schlechter schützen als Soldaten. Klar sei aber auch: Wenn es um Menschenleben geht, dürfen keine vollautonomen Systeme verwendet werden – der Mensch muss die Kontrolle behalten. Denn im Blick auf Verwundete, Empathie oder Barmherzigkeit ist der Mensch den AWS überlegen. Wenn AWS als eigene Kategorie ins Völkerrecht aufgenommen würden, könnte definiert werden, wie beispielsweise ein kapitulierendes Verhalten aussieht. So könnten Programmierungen verbessert werden. Eine Fehlerquote wäre auch hier mit missbräuchlich-menschlichem Verhalten zu kontrastieren.
Doch wer ist für die Handlung von AWS verantwortlich? Der Verf. folgt auch hier Mühling, der von einer „gesteigerten Verantwortung“ (201) spricht. Wer ein Mittel zur Zielerreichung wählt, trägt die Verantwortung über dessen (un)erwartete Folgen. Damit liegt diese beim Kommandeur.
Formal scheint das Buch weitgehend im Promotionsstil belassen. Eine stärkere Überarbeitung könnte den wichtigen Beitrag einer breiteren Leserschaft zugänglich machen. Hilfreich sind die Fußnoten am Seitenende, Schaubilder und Skizzen. Das rund neunseitige Literaturverzeichnis dokumentiert die intensive und interdisziplinäre Auseinandersetzung mit einem hochaktuellen ethischen Thema.
Michael Schwantge, Gemeinschaftspastor der Ev. Stadtmission Oppenheim, Mitglied im Wissenschaftlichen Beirat des Instituts für Ethik und Werte Gießen