In keinem der bisherigen Kriege im Gazastreifen wurden so viele Menschen getötet wie im aktuellen. Israels Armee erklärt dazu, dass der Großteil der Getöteten keine Zivilisten, sondern Hamas-Kämpfer seien. Nach welchen Kriterien wird nun aber entschieden, wer "Kämpfer" ist – und wer nicht?

Israels Armee hat im Februar 2023 zugegeben, dass sie sich bei der Auswahl ihrer Beschussziele auch auf Künstliche Intelligenz (KI) verlässt. Laut Recherchen israelischer Investigativjournalisten soll die KI im Gazakrieg eine größere Rolle spielen als bisher angenommen. Schon vor dem aktuellen Krieg war bekannt, dass die KI-Maschine "Gospel" zum Einsatz kommt. Sie erstellt Listen möglicher Angriffsziele – also militärisch genutzte Gebäude oder Stellungen.

Nicht nur bei der Raketenabwehr ("Iron Dome" über Ashkelon) setzt Israel auf modernste Technologien.
REUTERS/AMIR COHEN

Jetzt soll zusätzlich auch das Programm "Lavender" zum Einsatz kommen, das dem Militär ermöglicht, binnen kurzer Zeit Listen tausender Zielpersonen vorzulegen, die als Terroristen eingestuft werden.

37.000 Kämpfer identifiziert

Laut den Recherchen der israelischen Rechercheplattformen +972 und Local Call, die auch von Journalisten des britischen Guardian überprüft werden konnten, soll die Armee in der ersten Kriegsphase dank dieser KI-Anwendung rund 37.000 Hamas-Kämpfer identifiziert haben. Die Angaben lassen sich nicht verifizieren, das Militär dementiert sie jedenfalls. Ein Armeesprecher betont, dass es stets Menschen seien, die die Letztkontrolle bei der Auswahl von Angriffszielen hätten. Sechs Offiziere, die mit Reportern von +972 sprachen, stellen es anders dar: Sie stammen laut Reporter Yuval Avraham alle der Militärgeheimdienst-Einheit 8200, die für Informationssammlung und Datenverwertung zuständig ist. Gospel und Lavender wurden von dieser Einheit entwickelt, ihre Listen dienen Militäreinheiten als Basis ihrer Einsatzplanung.

Nach einer Anfangsphase in diesem Krieg habe die Armee die Listen stichprobenartig überprüft, sagt Avraham. Man sei zum Ergebnis gekommen, dass Lavender in zehn Prozent der Fälle falschgelegen sei und Zivilisten irrtümlich als Terroristen markiert habe. Unter tausend von der Armee getöteten Personen seien demnach hundert unschuldige Zivilisten gewesen – doch die Armee soll diese Fehlerquote als "ausreichend gering" erachtet haben. Von da an, so erzählen die anonymen Quellen, habe man der KI dennoch für einige Wochen mehr Freiraum gelassen.

Grund für die hohen Opferzahlen war laut den Offizieren eine Richtlinienänderung, und diese machte den Einsatz der KI erst notwendig. Das bestätigt dem STANDARD auch ein Reservist, der anonym bleiben möchte: Während es vorher strengere Regeln für den Beschuss von Privathäusern gegeben habe, sei man diesmal legerer, sagt er. Jetzt sei es möglich, auch Mitglieder der unteren Hamas-Ebenen in deren Privathäusern zu töten. Da Präzisionsschläge in so großer Zahl vergleichsweise teuer seien, habe man sich oft für "dumb bombs" ("dumme", also keine "smarte" Bomben) entschieden, die große Streueffekte haben. Sie töten mit jeder gesuchten Person immer auch eine größere Anzahl Unschuldiger.

Schneller als der Mensch

Solche Vorwürfe werden von der Armee dementiert. Ein Vergleich der aktuellen Opferzahlen mit den Toten in früheren Gazakriegen legt aber nahe, dass man diesmal von einer geringeren Präzision ausgehen muss. Im Krieg 2014 kamen in Gaza 2300 Menschen ums Leben – in 49 Tagen. Im aktuellen Krieg gab es im gleichen Zeitraum 15.000 Tote. Die israelische Armee erklärte nach 27 Kriegstagen, man habe 12.000 militärische Ziele getroffen – also 444 pro Tag. 2014 waren es derer 164.

KI-Befürworter argumentieren, dass diese präziser und weniger fehleranfällig sei als menschliches Kalkül. Ein Algorithmus könne aus vielen Daten Schlussfolgerungen ableiten. Ein Mensch hingegen verarbeite nur ein paar Komponenten, bis er zu einer Entscheidung kommt – und dafür brauche er viel länger. Im Krieg, wo jede Sekunde zählt, biete KI entscheidende Vorteile. Wenn aber die Letztentscheidung, wie von der israelischen Armee betont wird, immer bei einem Menschen liegt, gibt es zwei mögliche Szenarien: Entweder passt sich der Mensch der Maschine an – was die Frage aufwirft, wie zuverlässig eine solche Kontrolle überhaupt sein kann. Oder aber: Die von der KI vorgelegten Daten werden tatsächlich akribisch verifiziert. Dann verlangsamt man aber den Prozess – und macht den entscheidenden Vorteil der KI zunichte.

Kritiker bemängeln, dass KI bloß Pseudo-Objektivität vortäusche: Jeder Algorithmus sei so voreingenommen wie die Menschen, die ihn programmiert haben. Zudem gebe es kaum Regeln dafür, was KI darf und was nicht, da diese immer erst mit einiger Verzögerung an die technischen Möglichkeiten angepasst werden. Gaza ist also eine Art Testlabor: nicht nur für die Rüstungsentwicklung, sondern auch für das internationale Kriegsrecht. Darüber wird auch bei einer am Montag in Wien beginnenden internationalen Konferenz zu autonomen Waffensystemen diskutiert werden. (Maria Sterkl aus Jerusalem, 29.4.2024)