Zum Inhalt:
Unterstützen Sie Manova mit einer Spende
Unterstützen Sie Manova
Berechnende Befehlshaber

Berechnende Befehlshaber

Der Mensch gerät existenziell ins Hintertreffen, wenn Algorithmen in die Lage versetzt werden, Kriege zu erklären.

Wenn Maschinen beraten, wann Menschen sterben sollen

Oktober 2023: Israel fliegt im Gazastreifen nahezu pausenlos Luftangriffe. Ziel ist es, Hamas-Kämpfer und ihre Infrastruktur zu vernichten. Doch wie entscheidet ein Militär im Minutentakt, welches Gebäude als nächstes getroffen wird?

Mehrere Investigativberichte, darunter aus dem Umfeld der israelischen Armee und US-Militäranalysten, weisen darauf hin, dass bei der Zielauswahl künstliche Intelligenz (KI) zum Einsatz kam. Dabei handelt es sich nicht um Roboter mit Waffen, sondern um Software, die riesige Datenmengen, etwa Kommunikationsmuster, Bewegungsprofile, geografische Informationen, in Echtzeit analysiert und daraus sogenannte Zielvorschläge errechnet. Diese Empfehlungen gehen dann an menschliche Entscheider, die innerhalb weniger Sekunden ein Ziel freigeben oder verwerfen.

Im Zentrum der Berichte steht ein Name: Palantir. Der US-Konzern mit engen Verbindungen zum Pentagon bietet genau solche KI-gestützten Analyseplattformen an, mit denen „feindliche Netzwerke“ identifiziert und Angriffsoptionen priorisiert werden können. Offiziell bestätigt ist der Einsatz nicht, doch zahlreiche Quellen deuten darauf hin, dass Palantir-Software in Israel im Hintergrund mitlief, ob direkt militärisch oder auf der Ebene der Datenanalyse.

Wenn das stimmt, dann wurde in Gaza nicht nur geschossen, es wurde gerechnet. Der Algorithmus filterte Zielmöglichkeiten, bewertete Gefahrenpotenziale, empfahl Entscheidungen. Die Verantwortung blieb nominell beim Menschen, doch die Taktung, in der Entscheidungen fielen, spricht für eine Verlagerung des Denkens in den Code.

Was nach Science-Fiction klingt, ist längst Realität: Krieg als datengetriebene Operation, bei der technologische Überlegenheit über moralische Reflexion dominiert. Die eigentliche Frage lautet daher nicht mehr, ob künstliche Intelligenz Kriege führt, sondern wie viel Mensch noch zwischen Zielerfassung und Einschlag liegt.

Die Militarisierung der KI — Kriegsplanung auf Autopilot

Wer glaubt, dass Drohnen noch von Soldaten gesteuert werden und der Mensch stets den Finger am Abzug hat, lebt geistig in „Top Gun“. Willkommen in der Gegenwart, dort, wo Kriege auf Serverfarmen beginnen.

2017 startete das US-Verteidigungsministerium ein Programm namens Project Maven. Klingt harmlos, fast poetisch. Tatsächlich geht es um nichts Geringeres als die automatisierte Auswertung von Drohnenaufnahmen, Zielerkennung und bei Bedarf Zielerfassung. Die künstliche Intelligenz sichtet Material, für das menschliche Analysten Wochen oder Monate bräuchten, in wenigen Minuten. Praktisch, wenn man keine Zeit verlieren will, zum Beispiel beim Töten.

Seitdem sind KI-Systeme in der militärischen Logistik, Aufklärung und Gefechtsführung nicht nur akzeptiert — sie sind zentraler Bestandteil moderner Kriegsführung. Unternehmen wie Palantir liefern Softwarelösungen, mit denen Truppenbewegungen vorhergesagt, Schwachstellen berechnet und Gegner kategorisiert werden. Man könnte auch sagen: Der Feind wird ausgerechnet.

Ein besonders brisanter Fall spielte sich im Gazakrieg 2023 ab. Damals flogen israelische Streitkräfte Luftangriffe in ganz kurzen Abständen. Laut verschiedenen Investigativberichten kam ein KI-gestütztes System zur Zielauswahl zum Einsatz. Es analysierte Bewegungsdaten, Kommunikationsmuster, Gebäudestrukturen und lieferte Vorschläge, welche Ziele „prioritär“ zu behandeln seien. Der finale Klick blieb beim Menschen. Der Zeitdruck bei den Entscheidungen sprach allerdings Bände.

Palantir, der US-amerikanische Datenkonzern mit besten Pentagon-Verbindungen, steht im Verdacht, die Technologie im Hintergrund geliefert zu haben. Offiziell bestätigt ist das nicht, aber mehrere Quellen legen nahe, dass Palantirs Systeme zur Echtzeit-Analyse von Gefechtsfeldern auch hier eine Rolle spielten. Die Firma selbst schweigt, wie immer, wenn es konkret wird. Doch ihre Eigenwerbung spricht Bände: „Disruptive battlefield intelligence“, „AI-enabled mission dominance“. Das klingt nicht nach Friedensverhandlung.

Auch die NATO hat längst aufgerüstet, nicht mit Panzern, sondern mit Codezeilen. 2021 veröffentlichte sie ihre eigene „AI Strategy“, die ausdrücklich die Integration von künstlicher Intelligenz in Entscheidungsprozesse vorsieht. Ziel ist der sogenannte „Decision Advantage“: schneller reagieren, früher zuschlagen, Risiken algorithmisch abwägen, ohne dabei in zu viele moralische Schlaufen zu geraten.

Ein internes NATO-Papier spricht von „responsible and trustworthy AI“. Das klingt ungefähr so beruhigend wie ein Schild im Atomkraftwerk „Bitte nur freundliche Kernspaltung“.

Die Euphorie ist groß: Mehr Tempo, mehr Effizienz, weniger Zweifel. Dabei hat man offenbar vergessen, dass Zweifel eine zentrale Kategorie zivilisierter Politik ist. Maschinen haben keine Zweifel. Sie liefern Ergebnisse. Und wenn die falsch sind? Dann hat eben das System versagt. Oder der Mensch, der es falsch bedient hat. Irgendwer ist immer schuld. Nur nie der Algorithmus.

Die Entmenschlichung der Außenpolitik — Wenn Kalter Krieg wirklich kalt wird

In alten Politthrillern saß der Präsident noch nachts am roten Telefon, mit zitternder Hand und allein, mit schwerer Entscheidung. Heute übernimmt diesen Part zunehmend ein Dashboard.

Was auf den ersten Blick wie Effizienzgewinn aussieht, entpuppt sich bei näherem Hinsehen als zivilisatorischer Kurzschluss: Entscheidungen, die früher auf moralischer Abwägung, diplomatischem Feingefühl und historischem Verständnis beruhten, werden heute zunehmend von Systemen vorbereitet, die weder Vergangenheit noch Ethik kennen. Nur Muster.

Eine KI kennt keine Erinnerung, keine Verhältnismäßigkeit, keinen Schmerz. Sie erkennt Cluster, Korrelationen, Frequenzabweichungen. Was aus dieser Logik folgt, ist eine radikale Vereinfachung politischer Realität: Der Mensch wird zur Variablen, das Risiko zur Zahl, der Krieg zum Kalkül.

In der Praxis heißt das: Statt Diplomatie gibt es Simulation. Statt Verhandlung Wahrscheinlichkeitsberechnung. Die Konsequenz? Die Schwelle zur Gewalt sinkt, weil die Verantwortung keine Gewissensentscheidung mehr ist. Niemand entscheidet mehr für den Krieg, es ergibt sich eben so aus den Daten.

Die US-Streitkräfte haben längst begonnen, mit KI-gestützten Planspielen („Wargaming AI“) mögliche Konfliktszenarien durchzuspielen, etwa mit China oder Russland. Diese Szenarien sind nicht als Strategie gedacht, sondern als Option. Doch Optionen, die einmal digital verfügbar sind, entwickeln eine unheimliche Eigendynamik. Wer sie nicht nutzt, gilt schnell als zögerlich. Wer sich auf seine menschliche Intuition verlässt, ist langsam. Und wer zögert, verliert. So denkt das System.

Doch was passiert, wenn dieses Denken zur Doktrin wird? Wenn eine Regierung Entscheidungen trifft, die aus algorithmischen Prognosen resultieren und dabei nur noch nach außen hin „menschlich“ erscheinen? Dann hat Außenpolitik ihr letztes Korrektiv verloren: den Zweifel. Und Krieg wird nicht mehr erklärt, er wird prognostiziert.

Wer steuert den Code? — Die unsichtbaren Architekten der Kriegslogik

Wenn Maschinen Entscheidungen vorbereiten, bleibt eine Frage brisanter denn je: Wer programmiert die Maschine? Oder konkreter: Wer schreibt den Code, der den nächsten Krieg denkbar oder führbar macht?

Die Vorstellung, dass Staaten sich ihre militärischen KI-Systeme selbst zusammenbauen, ist ein Mythos aus PR-Broschüren. In Wahrheit sind es private Konzerne, die den technologischen Unterbau der neuen Außenpolitik liefern. Firmen wie Palantir, Anduril, Clearview AI, Rebellion Defense oder kleinere, hochspezialisierte Start-ups, fast alle mit Sitz in den USA, viele mit ehemaligen CIA-, NSA- oder Pentagon-Leuten in der Führungsetage.

Ihr Geschäftsmodell? Sicherheit als Software. Kriegsführung als Plattformdienstleistung. Was früher Generäle planten, wird heute in Produktlinien und Abo-Modellen ausgeliefert, als „operational readiness“, „tactical awareness“ oder „autonomous decision support“ — Buzzwords, die in der Fachpresse wie Fortschritt klingen, aber in Wahrheit einen Verlust demokratischer Kontrolle markieren.

Denn wer entscheidet in letzter Instanz über die Trainingsdaten, die Prioritäten, die Schwellenwerte, ab wann ein Ziel als „bedrohlich“ gilt? Die Parlamente? Die Bürger? Die Diplomatie? Nein. Es sind Entwicklerteams in Kalifornien oder Thinktanks im Beltway, die genau jene Werkzeuge schreiben, mit denen später Regierungen ihre Strategien legitimieren.

Die europäische Politik schaut staunend zu oder macht mit. Zwar gibt es innerhalb der EU vereinzelte Debatten über KI-Ethik, doch militärisch ist Europa längst technologische Kolonie. Statt eigene Standards zu setzen, werden US-Militärprotokolle und NATO-Richtlinien übernommen, inklusive KI-Module, deren Herkunft man nicht so genau wissen will. Es läuft wie bei der Cloud-Infrastruktur: Man nimmt, was funktioniert, und hofft, dass es gut gemeint ist.

Dabei wäre genau hier die demokratische Kontrolle überfällig: Wer besitzt den Quellcode? Wer haftet bei Fehlentscheidungen? Und: Wer garantiert, dass die KI morgen nicht zur Eskalation rät, nur weil ihre Risikomatrix einen Schatten über dem chinesischen Luftraum entdeckt hat?

Die Antwort lautet meist: „Das System ist komplex.“ Was in diesem Zusammenhang ungefähr so beruhigend klingt wie: „Keine Sorge, das Flugzeug fliegt sich selbst, wir wissen nur nicht, wohin.“

Die letzte Entscheidung – Warum der Mensch nicht fehlen darf

Vielleicht wird in Zukunft kein Krieg mehr „erklärt“. Vielleicht wird er nur noch eingeleitet, wenn eine Schwelle überschritten wird, die ein neuronales Netz in einer Militärzentrale berechnet hat. Vielleicht sitzen dann Minister noch vor Kameras, lesen Statements vom Teleprompter, und keiner sagt den Satz, der früher zum Alltag politischer Vernunft gehörte: „Wir haben uns diese Entscheidung nicht leicht gemacht.“

Denn leicht ist sie jetzt. Schnell. Simuliert. Plausibel. Und wenn sie sich im Nachhinein als falsch erweist? Dann war es eben das System, das ein Signal übersehen hat. Kein Schuldiger, kein Gewissen, kein Eingeständnis. Nur ein nächstes Update. Doch genau hier liegt die Gefahr: Der Mensch ist nicht das Problem in der Außenpolitik. Er ist ihr letzter Anker. Seine Zweifel, seine moralischen Dilemmata, seine Unvollkommenheit, all das war über Jahrhunderte der Grund, warum Krieg nicht leichtfiel. Warum man zauderte. Warum man verhandelte.

Der Algorithmus kennt kein Zaudern. Er kennt Zielkoordinaten, Prioritätenlisten, Risikomodelle. Politik wird so zur Ausführungslogik, zur Durchsetzung technisch optimierter Entscheidungen. Sie verliert das, was sie ausmacht: die Fähigkeit zur Unterbrechung.

Wir stehen an einem Punkt, an dem sich entscheidet, ob menschliche Urteilskraft im Zentrum der Außenpolitik bleibt oder ob sie ersetzt wird durch das, was „leistungsfähiger“ erscheint. Doch Geschwindigkeit ist kein Ersatz für Verantwortung. Und eine perfekt berechnete Eskalation ist immer noch ein Krieg.

Die letzte Entscheidung, ob ein Mensch stirbt oder nicht, darf keine Systementscheidung sein.


Wenn Sie für unabhängige Artikel wie diesen etwas übrig haben, können Sie uns zum Beispiel mit einem Dauerauftrag von 2 Euro oder einer Einzelspende unterstützen.

Oder senden Sie einfach eine SMS mit dem Stichwort Manova5 oder Manova10 an die 81190 und mit Ihrer nächsten Handyrechnung werden Ihnen 5, beziehungsweise 10 Euro in Rechnung gestellt, die abzüglich einer Gebühr von 17 Cent unmittelbar unserer Arbeit zugutekommen.


Quellen und Anmerkungen:

Quellen zu Palantir und Gaza (2023)
Palantirs Rolle in Israel (kontextualisiert, kritisch):
https://investigate.info/company/palantir-technologies
AP News über Tech-Unternehmen im Gazakrieg:
https://apnews.com/article/430f6f15aab420806163558732726ad9
Palantir selbst über militärischen Einsatz (Selbstdarstellung):
https://www.palantir.com/solutions/defense/
Palantir auf Deutsch erklärt (Netzpolitik.org):
https://netzpolitik.org/2020/palantir-die-werkzeuge-der-ueberwachung/

Quellen zu Project Maven / US-Militär-KI
Wikipedia-Eintrag zu Project Maven mit Primärquellen:
https://en.wikipedia.org/wiki/Project_Maven
US-Verteidigungsministerium über KI (DoD AI):
https://www.ai.mil/
Bericht über Googles Beteiligung an Project Maven (The Intercept):
https://theintercept.com/2018/05/30/google-israeli-military-project-maven/

Quellen zur NATO-KI-Strategie
Offizielle NATO-AI-Strategie 2021:
https://www.nato.int/docu/review/articles/2021/10/25/an-artificial-intelligence-strategy-for-nato/index.html
NATO und autonome Systeme (Bundeszentrale für politische Bildung):
https://www.bpb.de/themen/sicherheit/konflikte/506808/nato-und-kuenstliche-intelligenz/

Quellen zu Rebellion Defense, Anduril, militärischer KI
Rebellion Defense – offizielle Website:
https://www.rebelliondefense.com/
Anduril Industries (autonome Kriegssysteme):
https://www.anduril.com/
FAZ über Anduril & KI-Kriegsführung (deutsch):
https://www.faz.net/aktuell/technik-motor/technik/anduril-waffentechnik-start-up-mit-autonomen-waffen-17590839.html

Hintergrund & Kritik zur KI-Militarisierung (deutsch & international)
Frank Sauer (TU München) über autonome Waffensysteme:
https://www.frank-sauer.org/
Sandro Gaycken (ESMT Berlin) über Cyberwar & KI:
https://esmt.berlin/faculty-research/faculty-directory/sandro-gaycken
MIT Technology Review – KI in der Kriegsführung:
https://www.technologyreview.com/2021/06/03/1025709/the-military-wants-to-automate-the-kill-chain/

Weiterlesen

Eigennutz vor Gemeinnutz
Thematisch verwandter Artikel

Eigennutz vor Gemeinnutz

Künstliche Intelligenz, Stiftungen und Moraldruck krempeln den Journalismus um — „Gemeinnutz“ ist dabei nur ein Tarnbegriff für knallharte Interessen.

Befreiende Niederlage
Aktueller Artikel

Befreiende Niederlage

Ein Russe und eine Deutsche diskutieren über das Kriegsende vor 80 Jahren, über gelebte Geschichte beider Länder — miteinander und gegeneinander.