Asset Publisher

Essay

Intelligente Waffensysteme als ethisches Problem?

Die moralischen Herausforderungen autonomer Kriegsführung

In Kooperation mit der GSP Sektion Ulm und als Gastgeber fungierend, wurde seitens der KAS BW der Privatdozent und Publizist PD Dr. Hartwig von Schubert zu einem Expertengespräch zum Thema "Intelligente Waffensysteme als ethisches Problem?" eingeladen.

Asset Publisher

"Wäre es nicht besser KI für den Erhalt des Friedens einzusetzen, als Kriegswaffen damit effizienter zu machen?", wollte ein Zuschauer am Ende des Vortrags von Privatdozent Dr. Hartwig von Schubert, evangelischer Theologe der Universität Hamburg und langjähriger Dekan der FüAkBw Hamburg, wissen. Und seine Antwort war eindeutig: "Ja, Sie haben Recht. Jedoch ist KI nun mal in der Welt und sie wird nicht wieder verschwinden. Vielmehr kann sie sehr viel zur Abschreckung beitragen und dadurch Kriege quasi unmöglich machen".

Eingeladen hatte von Schubert Oberstleutnant a.D. Wofgang Goetze von der GSP Sektion Ulm am 8. April 2025 ins Casino der Dornstadter Rommelkaserne zum Thema "Intelligente Waffensysteme als ethisches Problem", zusammen mit den Kooperationspartnern Deutsche Gesellschaft für Wehrtechnik, Deutscher Bundeswehrverband, Deutsche Gesellschaft für Wehrmedizin und Wehrpharmazie und erstmals der Konrad-Adenauer-Stiftung.

In seiner Einführung zum Thema stellte Goetze die Frage, "wie intelligent ist künstliche Intelligenz?" Von Schubert zeigte anhand des zukünftigen FCAS (Future Combat Air System) auf, wie komplex die technischen Herausforderungen sind, solch ein gemischtes System aus bemannten und unbenannten "Flugzeugen" zu steuern und resilent zu machen gegen feindliche Übernahme oder Cyberangriffe. Der US-Amerikaner Warren O,Donell hatte 2005 für das National Research Council der USA in einer Tabelle zusammengefasst, welche Anforderungen es gibt, um vollautomatische Waffensysteme zu entwickeln. Beim höchsten Level 10 müssten die Systeme z.B. "total indepent to plan and implement" sein, um definierte Objekte zu treffen. Zur Zeit sei man in der Forschung eher auf Level 5 bis 6 "planning and negotiation of complex terrain and objects". Um das höchste, vollautimatische Niveau zu erreichen, sei es noch ein langer Weg und nur wenige global player wie USA, Europa, China und vermutlich Indien könnten in der Zukunft in diesem Bereich eine Rolle spielen. Russland sehe er dabei eher nicht mit ganz vorn, so von Schubert. Heute gebe es zwar an der Dermakationslinie zwischen den verfeindeten Brüdern südkoreanische intelligente Roboter und an der Küste Singapurs Drohnen ohne menschliche Besatzung. Beide würden aber von Menschen kontrolliert und gesteuert.

In einem geschichtlichen Abriss zeigte der Dozent auf, wie sich das humanitäre Völkerrecht, das auf ethische Prinzipien setzt, entwickelte. Nach den verheerenden Konfessionsskriegen des 16. Jahrhunderts war der "Westfälische Frieden" ein erster Meilenstein, mit der grundlegenden Bestimmung "cuius regio, eius religio". Die Untertanen hatten jeweils den Glauben des herrschenden Regenten anzunehmen. So entstanden an den Rändern Europas quasi konfessionsbereinigte Reiche, was dann die Entwicklung zu Nationalen Staaten beschleunigte. Nur das Deutsche Reich war ein Flickenteppich, mit kleinsten Fürsten oder Herzogtümern und damit unterschiedlichen Konfessionen. Erst 1872 gelang dann die Deutsche Einigung unter preußischer Führung.

Der nächste wichtige Schritt zum internationalen Völkerrecht war nach den Napoleonischen Kriegen der Wiener Kongress und daraus resultierend das Haager Kriegsrecht und das Genfer Recht. Erstmals wurde zwschen Kombatanten und Nichtkombatanten unterschieden, nur Staaten das Monopol des Krieges zugesprochen und das Töten im Krieg straffrei gestellt.

Nach der Katastrophe des Zweiten Weltkriegs entstand dann die UN-Charta, die vorsieht, dass jeder Angriffskrieg verboten ist und der Sicherheitsrat befugt ist, zur Wiedeherstellung des Völkerrechts mit der Entsendung von UN-Truppen zu reagieren. Die UN-Charta nimmt dabei stark Bezug auf den deutschen Philosophen Immanuel Kant und seiner Schrift "zum ewigen Frieden" von 1795. Kant unterscheidet zwischen Völkernaturrecht und dem Recht des Stärkeren, dem Völkerrecht des Übergangs mit zum Beispiel der Gründung von Bündnissen und dem öffentlichen, weltbürgerlichen Friedensvölkerrecht in einem universellen und supranationalen Staatenkongress, einer Weltregierung gleich. Kant erkannte jedoch bereits damals, dass eine räumlich und weltanschaulich überdehnte Weltregierung nicht funktionieren würde.

Was sind jedoch nun die Herausforderungen der Implementierung und Durchsetzung von ethischen Maßstäben des humanitären Völkerrechts bei der Entwicklung und dem Einsatz KI-gesteuerter Waffensysteme? Wie auch bei analogen Kampfhandlungen muss auch hier beispielsweise gelten die Minimierung von Kolateralschäden, der Schutz von Zivilisten, die Verhältnismäßigkeit der Mittell und Schonung der Umwelt. Einem durch visuelle Hilfsmittel gesteuerten KI-Waffensystem muss also beigebracht werden, unterscheiden zu können zwischen einem Drohnen- und einem Vogelschwarm oder zwischen einem Kombatanten und einem Zivilisten. Zusätzlich potentiert sich das Problem durch die enorme Geschwindigkeit KI-gesteuerter Waffensysteme. Entscheidungen für eine Reaktion müssen in Millisekunden erfolgen. Rückversicherungen oder Befehlsketten auf höherer Kommandoebene werden dadurch obsolet. Vorgaben und Planungen auf strategischer und operationeller Ebene könnten so an Bedeutung verlieren und Entscheidungen schleichend mehr und mehr auf die taktische Ebene verlagert werden, so von Schubert. Dort gäbe es dann eine vermeintliche Wissens- und Machtfülle, die auch zu Fehlentscheidungen führen könnten.

Der evangelische Theologe Hartwig von Schubert sprach sich definitiv gegen KI-gesteuerte Nuklearwaffen aus, da deren Einsatz ein hohes Eskalationsrisiko berge. Ebenso forderte er, KI-gesteuerte Waffen so zu programmieren, dass die letztliche Entscheidungsbefugnis des Waffeneinsatzes immer ein Mensch habe. Dies erfordere jedoch hoch qualifizierte und moralisch integre Soldaten.

Zum Schluss gab der Referent noch zu bedenken, dass es zukünftig so sein könnte, dass irgendwann einmal die Armeen einen Vorteil haben könnten, die noch gewohnt seien analog zu kämpfen. Denn wenn alle KI-gesteuerten Waffensysteme sich gegenseitig vernichtet hätten, dann sei der Soldat im Vorteil, der noch ausgebildet wurde im Kampf "Mann gegen Mann".

 

Am Ende seines Vortrags war nicht nur der Leiter der Ulmer GSP Sektion Goetze nachdenklich, sondern sicher alle Zuhörer. Ja, KI wird aus der Welt nicht verschwinden und wird unser zukünftiges Leben begleiten und die GSP wird sich dieses Themas weiter annehmen. Oberstleutnant a.D. Goetze dankte am Schluss dem Referenten, den Kooperationspartnern und Gästen und empfahl allen noch ein kühles Nass im Offizierscasino einzunehmen.

 

(Johannes Mack, Diplomtheologe, Mitglied GSP Sektion Ulm)

Asset Publisher

Contact

Michel Salzer

Michel Salzer
Referent Politisches Bildungsforum Baden-Württemberg
michel.salzer@kas.de +49 711 870309-42

comment-portlet

Asset Publisher