Pressemitteilung: Keine Grauzonen für Tötungsalgorithmen
Zur Antwort der Bundesregierung auf eine Kleine Anfrage zum Einsatz KI-gestützter Zielidentifikations- und Entscheidungssysteme im Krieg erklärt Donata Vogtschmidt, für die Linksfraktion im Bundestag ordentliches Mitglied im Verteidigungsausschuss, Obfrau im Digitalausschuss und Sprecherin für Digitalpolitik und Cybersecurity ergänzend zu ihrer Erklärung vom 11.02.2026:
„Die Bundesregierung bleibt bei zivilen Opferzahlen als Kollateralschäden bewusst vage. Zwar gibt es keine festen Schwellenwerte – doch jede Praxis, die zivile Tote als kalkulierbare Größe behandelt, unterläuft den Verhältnismäßigkeitsgrundsatz. Dieser verlangt eine konkrete, situationsbezogene Abwägung und aktive Schadensminimierung – kein Rechenmodell, das ziviles Leben gegen militärische Effizienz aufwiegt. Dass die Bundesregierung nicht klarstellt, dass pauschale Opferbudgets völkerrechtswidrig sind, ist politisch bezeichnend.
Ebenso unzureichend ist der Verweis auf nationale Prüfverfahren nach Artikel 36 des Zusatzprotokolls I. Diese Reviews sind intransparent, uneinheitlich und greifen bei KI-gestützten Entscheidungssystemen oft nicht, weil diese als Unterstützung statt als Waffen gelten. Gleichzeitig räumt die Bundesregierung ein, dass es weder auf UN- noch auf EU-Ebene verbindliche Kontrollmechanismen gibt. Statt diese Lücke als Handlungsauftrag zu begreifen, verweist sie auf internationale Dialogprozesse.
Das Ergebnis ist eine gefährliche Grauzone: Hochriskante Technologien werden militärisch integriert – ohne demokratische Kontrolle, ohne internationale Verbindlichkeit und ohne klare rote Linien.
Wir halten fest: Krieg darf nicht weiter automatisiert werden. Wer den Schutz der Zivilbevölkerung ernst nimmt, muss autonome und teilautonome Tötungsentscheidungen ablehnen, algorithmische Feindkategorisierung ohne individuelle menschliche Verifikation verbieten und sich für verbindliche internationale Regeln zur wirksamen menschlichen Kontrolle einsetzen. Technologische Effizienz ersetzt keine rechtliche Verantwortung – und kein Algorithmus darf darüber entscheiden, wer lebt und wer stirbt.“
Link zur Kleinen Anfrage und Antwort der Bundesregierung auf Drucksache 21/3726: dserver.bundestag.de/btd/21/037/2103726.pdf
