Lavendel“Die KI-Maschine, die Israels Bombenangriffe in Gaza steuert

https://www.palaestinaspricht.de/artikel/lavendel-die-ki-maschine-die-israels-bombenangriffe-in-gaza-steuert

Im Jahr 2021 wurde ein Buch mit dem Titel „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ auf Englisch unter dem Pseudonym „Brigadier General Y.S.“ veröffentlicht. Darin plädiert der Autor – ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt – für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten könnte, um Tausende potenzieller „Ziele“ für militärische Angriffe in der Hitze des Gefechts zu ermitteln. Eine solche Technologie, so schreibt er, würde den „menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele“ beseitigen, wie er es nennt.

Wie sich herausstellt, gibt es eine solche Maschine tatsächlich. Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen „Lavender“ entwickelt hat, das hier zum ersten Mal vorgestellt wird. Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges im Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von künstlicher Intelligenz zur Generierung von Tötungszielen zu tun hatten, hat Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavender auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, „als wären sie eine menschliche Entscheidung“.

Offiziell ist das Lavender-System dazu gedacht, alle mutmaßlichen Akteur:innen in den militärischen Flügeln der Hamas und des Palästinensischen Islamischen Dschihad (PIJ), auch solche mit niedrigem Rang, als potenzielle Bombenziele zu markieren. Die Quellen erklärten gegenüber +972 und Local Call, dass sich die Armee in den ersten Wochen des Krieges fast vollständig auf Lavender verließ, das bis zu 37.000 Palästinenser:innen als mutmaßliche Kämpfer – und ihre Häuser – für mögliche Luftangriffe registrierte.

In der Anfangsphase des Krieges erteilte die Armee den Offizier:innen pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu prüfen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als “ Stempel “ für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie normalerweise jedem Ziel nur etwa “ 20 Sekunden “ widmeten, bevor sie einen Bombenangriff genehmigten – nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle „Fehler“ macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder gar keine Verbindung haben.

 

Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten – in der Regel nachts, wenn ihre ganze Familie anwesend war – und nicht während einer militärischen Operation. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System mit dem Namen „Where’s Daddy?“, das hier zum ersten Mal enthüllt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnhäuser ihrer Familien betreten hatten.

 

Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinenser:innen – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe getötet wurden, insbesondere während der ersten Wochen des Krieges, aufgrund der Entscheidungen des AI-Programms.

„Wir waren nicht daran interessiert, Mitglieder der [Hamas] nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Operation beteiligt waren“, sagte A., ein Nachrichtenoffizier, gegenüber +972 und Local Call. „Im Gegenteil, die IDF haben sie ohne zu zögern als erste Option in ihren Häusern bombardiert. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist so aufgebaut, dass es in solchen Situationen nach ihnen sucht.“

 

Die Lavender-Maschine gesellt sich zu einem anderen KI-System, „The Gospel“, über das in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen bekannt wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während „The Gospel“ Gebäude und Strukturen markiert, von denen aus laut Armee Militante operieren, markiert „Lavender“ Menschen – und setzt sie auf eine Tötungsliste.

 

Den Quellen zufolge zog es die Armee außerdem vor, bei Angriffen auf mutmaßliche militante Jugendliche, die von Lavender markiert wurden, nur ungezielte Raketen einzusetzen, die gemeinhin als „dumme“ Bomben bekannt sind (im Gegensatz zu „intelligenten“ Präzisionsbomben), die ganze Gebäude über den Bewohnern zerstören und erhebliche Verluste verursachen können. „Man will keine teuren Bomben an unwichtige Leute verschwenden – das ist sehr teuer für das Land und es gibt einen Mangel [an diesen Bomben]“, sagte C. einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von „Hunderten“ von Privathäusern mutmaßlicher Junior-Agenten, die von Lavender markiert wurden, genehmigt hätten, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als „Kollateralschaden“ getötet worden seien.

 

In einem beispiellosen Schritt, so zwei der Quellen, beschloss die Armee in den ersten Wochen des Krieges außerdem, dass für jeden von Lavender markierten Hamas-Akteur:in bis zu 15 oder 20 Zivilist:innen getötet werden durften; in der Vergangenheit hatte das Militär bei Attentaten auf niedere Kämpfer:innen keine „Kollateralschäden“ zugelassen. Die Quellen fügten hinzu, dass die Armee für den Fall, dass es sich bei dem Ziel um einen hochrangigen Funktionsträger:in der Hamas mit dem Rang eines Bataillons- oder Brigadekommandeurs handelte, bei mehreren Gelegenheiten die Tötung von mehr als 100 Zivilist:innen bei der Ermordung eines einzigen Kommandeurs genehmigt hat.

 

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielproduktion der israelischen Armee in den ersten Wochen des Gaza-Krieges gegliedert. Zunächst erläutern wir die Lavender-Maschine selbst, die mithilfe von KI Zehntausende von Palästinenser:innen markierte. Zweitens enthüllen wir das „Where’s Daddy?“-System, das diese Zielpersonen aufspürte und der Armee signalisierte, wenn sie die Häuser ihrer Familien betraten. Drittens beschreiben wir, wie die „stummen“ Bomben ausgewählt wurden, um diese Häuser zu treffen.

Viertens erklären wir, wie die Armee die zulässige Anzahl von Zivilist:innen, die bei der Bombardierung eines Ziels getötet werden durften, lockerte. Fünftens stellen wir fest, wie eine automatische Software die Anzahl der Nichtkombattant:innen in den einzelnen Haushalten ungenau berechnet hat. Und sechstens zeigen wir, wie bei mehreren Gelegenheiten, wenn ein Haus angegriffen wurde, in der Regel nachts, das individuelle Ziel manchmal gar nicht im Haus war, weil die Militärs die Informationen nicht in Echtzeit überprüften.

 

SCHRITT 1: ERZEUGUNG VON ZIELEN
Sobald man auf Automatik umschaltet, spielt die Generierung von Zielen verrückt.

 

In der israelischen Armee bezog sich der Begriff „menschliche Zielperson“ in der Vergangenheit auf hochrangige Militärangehörige, die nach den Regeln der Abteilung für internationales Recht des Militärs in ihren Privathäuser getötet werden können, auch wenn Zivilist:innen in der Nähe sind. Nachrichtendienstliche Quellen erklärten gegenüber +972 und Local Call, dass in früheren Kriegen Israels solche menschlichen Ziele sehr sorgfältig gekennzeichnet wurden, da dies eine „besonders brutale“ Art war, jemanden zu töten – oft wurde neben dem Ziel auch eine ganze Familie getötet – nur hochrangige militärische Befehlshaber:innen wurden in ihren Häusern bombardiert, um den Grundsatz der Verhältnismäßigkeit nach internationalem Recht zu wahren.

Doch nach dem 7. Oktober – als von der Hamas angeführte Militante einen tödlichen Angriff auf süd-israelische Gemeinden starteten, bei dem etwa 1.200 Menschen getötet und 240 entführt wurden – verfolgte die Armee den Quellen zufolge einen dramatisch anderen Ansatz. Im Rahmen der Operation “Eiserne Schwerter“ beschloss die Armee, alle Mitglieder des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

 

Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein:e Offizier:in, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplexen und langwierigen „Belastungsprozess“ durchlaufen: Er:Sie musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein hochrangiges Mitglied des militärischen Flügels der Hamas handelte, seinen:ihren Wohnort und seine:ihre Kontaktinformationen herausfinden und schließlich wissen, wann er:sie in Echtzeit zu Hause war. Wenn die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agent:innen umfasste, konnten die Geheimdienstmitarbeiter:innen die Arbeit, die mit der Ermittlung und Lokalisierung dieser Personen verbunden war, allein bewältigen.

 

Als die Liste jedoch auf Zehntausende von Mitarbeiter:innen niedrigerer Ränge erweitert wurde, sah sich die israelische Armee gezwungen, sich auf automatisierte Software und künstliche Intelligenz zu verlassen. Das Ergebnis, so die Quellen, war, dass die Rolle des menschlichen Personals bei der Beschuldigung von Palästinenser:innen als Militärangehörige beiseite geschoben wurde und stattdessen die KI den Großteil der Arbeit erledigte. Laut vier der Quellen, die mit +972 und Local Call sprachen, hat Lavender – das entwickelt wurde, um menschliche Ziele im aktuellen Krieg zu schaffen – etwa 37.000 Palästinenser als mutmaßliche „Hamas-Kämpfer:innen“, die meisten von ihnen Jugendliche, zur Ermordung markiert (der IDF-Sprecher bestritt die Existenz einer solchen Tötungsliste in einer Erklärung gegenüber +972 und Local Call).

„Wir wussten nicht, wer die Junior-Agent:innen waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgt hat“, erklärte der ranghohe Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den aktuellen Krieg. „Sie wollten, dass wir [die Nachwuchsagent:innen] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umstellt, wird die Zielerstellung verrückt.“

 

Die Quellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavender, die zuvor nur als Hilfsmittel eingesetzt worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Geheimdienstmitarbeiter:innen die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen „manuell“ überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavender eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den umfassenden Einsatz des Systems. Wenn Lavender eine Person als Hamas-Aktivist einstufte, wurde die Armee aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, warum die Maschine diese Entscheidung traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basiert.

„Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten“, sagte B.. „Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert.“

 

„Es war für mich sehr überraschend, dass wir gebeten wurden, ein Haus zu bombardieren, um einen Boden Soldaten zu töten, dessen Bedeutung in den Kämpfen so gering war“, sagte eine Quelle über den Einsatz von künstlicher Intelligenz zur Markierung mutmaßlich rangniedriger Kämpfer. „Ich nannte diese Ziele ‚Müll-Ziele‘. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ‚Abschreckung‘ bombardierten – Hochhäuser, die evakuiert und umgestürzt werden, nur um Zerstörung zu verursachen.“

Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschließlich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung einer einwöchigen Waffenruhe am 24. November rund 15.000 Palästinenser – fast die Hälfte der bisherigen Todesopfer.

 

Je mehr Informationen und Vielfalt, desto besser

 

Die Lavender-Software analysiert Informationen, die über die meisten der 2,3 Millionen Einwohner:innen des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, und bewertet und stuft dann die Wahrscheinlichkeit ein, dass eine bestimmte Person im militärischen Flügel der Hamas oder des PIJ aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um eine:n Kämpfer:in handelt.

Lavender lernt, Merkmale bekannter Hamas- und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale – auch „Features“ genannt – in der allgemeinen Bevölkerung zu lokalisieren, erklärten die Quellen. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für ein Attentat.

In „The Human-Machine Team“, dem Buch, auf das am Anfang dieses Artikels verwiesen wird, befürwortet der derzeitige Kommandant der Einheit 8200 ein solches System, ohne Lavender namentlich zu erwähnen. (Der Kommandant selbst wird ebenfalls nicht genannt, aber fünf Quellen in der Einheit 8200 haben bestätigt, dass der Kommandant der Autor ist, wie auch Haaretz berichtet). Der Kommandeur beschreibt das menschliche Personal als „Engpass“, der die Kapazität der Armee während einer Militäroperation einschränkt, und beklagt sich: „Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Leute man damit beauftragt, während des Krieges Ziele zu produzieren – man kann immer noch nicht genug Ziele pro Tag produzieren.“

 

Die Lösung für dieses Problem, sagt er, ist künstliche Intelligenz. Das Buch bietet eine kurze Anleitung zum Aufbau einer „Zielmaschine“, ähnlich wie Lavender, die auf KI und Algorithmen des maschinellen Lernens basiert. Dieser Leitfaden enthält mehrere Beispiele für die „Hunderte und Tausende“ von Merkmalen, die die Bewertung einer Person erhöhen können, wie z. B. die Mitgliedschaft in einer Whatsapp-Gruppe mit einem bekannten Militanten, der Wechsel des Mobiltelefons alle paar Monate und der häufige Wechsel der Adresse.

„Je mehr Informationen und je mehr Vielfalt, desto besser“, schreibt der Kommandant. „Visuelle Informationen, Informationen über Handys, Verbindungen zu sozialen Medien, Informationen über das Schlachtfeld, Telefonkontakte, Fotos.“ Während der Mensch diese Merkmale anfangs auswählt, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte „Zehntausende von Zielen“ erstellen, während die eigentliche Entscheidung, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.

Das Buch ist nicht das einzige Mal, dass hochrangige israelische Befehlshaber:innen auf die Existenz von menschlichen Zielmaschinen wie Lavender hinweisen. +972 und Local Call haben Aufnahmen einer privaten Vorlesung des Kommandanten des geheimen Zentrums für Datenwissenschaft und KI der Einheit 8200, „Oberst Yoav“, auf der KI-Woche der Universität Tel Aviv im Jahr 2023 erhalten, über die damals in den israelischen Medien berichtet wurde.

In dem Vortrag spricht der Kommandeur über eine neue, hochentwickelte Zielmaschine, die von der israelischen Armee eingesetzt wird und „gefährliche Personen“ anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, auf denen sie ausgebildet wurde. „Mit Hilfe des Systems ist es uns gelungen, die Kommandeur:innen der Hamas-Raketenkommandos zu identifizieren“, sagte „Col. Yoav“ in dem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 in Gaza, bei der die Maschine zum ersten Mal eingesetzt wurde.

Die Vortragsfolien, die auch von +972 und Local Call zur Verfügung gestellt wurden, zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Mitglieder der Hamas gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser:innen danach, wie ähnlich sie den Kämpfer:innen sind.

„Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [für einen Angriff auf ein Ziel]“, sagte Oberst Yoav in dem Vortrag und betonte, dass „letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen“. Im Verteidigungsbereich legen wir, ethisch gesehen, großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeiter:innen] helfen, ihre Grenzen zu überwinden“.

In der Praxis, so Quellen, die Lavender in den letzten Monaten eingesetzt haben, wurden jedoch menschliches Handeln und Präzision durch die Schaffung von Massenzielen und Tödlichkeit ersetzt.

 

Es gab keine „Null-Fehler“-Politik

 

B., ein ranghoher Offizier, der Lavender einsetzt, erklärte gegenüber +972 und Local Call, dass die Offizier:innen im derzeitigen Krieg die Einschätzungen des KI-Systems nicht unabhängig überprüfen müssen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.

„Alles war statistisch, alles war sauber – es war sehr trocken“, sagte B.. Er merkte an, dass dieser Mangel an Überwachung zugelassen wurde, obwohl interne Überprüfungen zeigten, dass Lavenders Berechnungen nur in 90 Prozent der Fälle zutrafen; mit anderen Worten, es war im Voraus bekannt, dass 10 Prozent der menschlichen Ziele, die zur Ermordung vorgesehen waren, gar keine Mitglieder des militärischen Flügels der Hamas waren.

So erklärten Quellen, dass die Lavender-Maschine manchmal fälschlicherweise Personen markierte, die ähnliche Kommunikationsmuster wie bekannte Hamas- oder PIJ-Mitglieder aufwiesen – darunter Mitarbeiter:innen der Polizei und des Zivilschutzes, Verwandte von Militanten, Bewohner:innen, die zufällig einen Namen und einen Spitznamen hatten, der mit dem eines Mitglieds der Hamas identisch war, und Menschen aus dem Gazastreifen, die ein Gerät benutzten, das einst einem Hamas-Mitglied gehörte.

 

„Wie nahe muss eine Person der Hamas stehen, um [von einer KI-Maschine als] mit der Organisation verbunden zu sein? „Es ist eine vage Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, ihr aber bei allen möglichen Dingen hilft, ein:e Hamas-Agent:in? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr dort ist, ein Hamas-Mitglied? Jedes dieser Merkmale – Eigenschaften, die eine Maschine als verdächtig einstufen würde – ist ungenau.“

 

Ähnliche Probleme gibt es bei der Fähigkeit der Zielgeräte, das von einer für ein Attentat markierten Person benutzte Telefon zu ermitteln. „Im Krieg wechseln die Palästinenser:innen ständig ihre Telefone“, sagte die Quelle. „Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht.  Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört.“

Den Quellen zufolge wusste die Armee, dass die minimale menschliche Überwachung diese Fehler nicht aufdecken würde. „Es gab keine ‚Null-Fehler‘-Politik. Fehler wurden statistisch behandelt“, sagte eine Quelle, die Lavender benutzte. „Aufgrund des Umfangs und der Größenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen in Ordnung ist. Also macht man es.“

„Es hat sich bewährt“, sagte B., die führende Quelle. „Der statistische Ansatz hat etwas an sich, das einen auf eine bestimmte Norm und einen bestimmten Standard festlegt. Es hat eine unlogische Anzahl von [Bombenanschlägen] in dieser Operation gegeben. Das ist meiner Erinnerung nach beispiellos. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als in ein:e Soldat:in, der:die vor zwei Tagen einen Freund verloren hat. Jeder dort, auch ich, hat am 7. Oktober Menschen verloren. Die Maschine hat es eiskalt gemacht und das hat es leichter gemacht.“

 

Eine andere Geheimdienst Quelle, die den Rückgriff auf die von Lavender erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienst Mitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangige:n Hamas-Kommandeur:in handele. „Wenn es sich aber um einen jüngeren Kämpfer:in handelt, will man keine Arbeitskraft und Zeit investieren“, sagte er. „Im Krieg hat man keine Zeit, jedes Ziel zu belasten. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift.“

B. sagte, der Grund für diese Automatisierung sei der ständige Drang, mehr Ziele für Attentate zu schaffen. „An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an und wurden ständig unter Druck gesetzt: ‚Bringt uns mehr Ziele'“. Sie schrien uns regelrecht an. Wir waren sehr schnell mit unseren Zielen fertig [und töteten sie].

 

Er erläuterte, dass Lavender bei einer Herabsetzung der Schwelle der Einstufung mehr Menschen als Ziele für Angriffe markieren würde. „In der Spitze schaffte es das System, 37.000 Personen als potenzielle menschliche Ziele zu identifizieren“, sagte B. „Aber die Zahlen änderten sich ständig, weil es davon abhängt, wo man die Messlatte für die Definition eines:einer Hamas-Aktivisten:in ansetzt. Es gab Zeiten, in denen ein:e Hamas-Aktivist:in breiter definiert wurde, und dann begann die Maschine, uns alle Arten von Mitarbeiter:innen des Zivilschutzes und Polizeibeamt:innen zu liefern, für die es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich.“

 

Eine Quelle, die mit dem militärischen Data-Science-Team zusammengearbeitet hat, das Lavender ausgebildet hat, sagte, dass auch Daten von Mitarbeiter:innen des von der Hamas geleiteten Ministeriums für innere Sicherheit, die er nicht als Kämpfer:innen betrachtet, in die Maschine eingespeist wurden. „Mich hat die Tatsache gestört, dass bei der Ausbildung von Lavender der Begriff „Hamas-Mitglied“ sehr locker verwendet wurde und dass auch Mitarbeiter:innen des Zivilschutzes in den Trainingsdatensatz aufgenommen wurden“, sagte er.

Die Quelle fügte hinzu, dass selbst wenn man der Meinung ist, dass diese Menschen es verdienen, getötet zu werden, das Training des Systems auf der Grundlage ihrer Kommunikationsprofile die Wahrscheinlichkeit erhöht, dass Lavender versehentlich Zivilist:innen auswählt, wenn seine Algorithmen auf die allgemeine Bevölkerung angewendet werden. „Da es sich um ein automatisches System handelt, das nicht manuell von Menschen bedient wird, ist die Bedeutung dieser Entscheidung dramatisch: Es bedeutet, dass man viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele einbezieht.“

Wir haben nur überprüft, ob die Zielperson ein Mann war.

 

Das israelische Militär weist diese Behauptungen rundweg zurück. In einer Erklärung gegenüber +972 und Local Call bestritt der IDF-Sprecher, dass künstliche Intelligenz eingesetzt wird, um Ziele zu belasten, und sagte, es handele sich dabei lediglich um „Hilfsmittel, die den Beamt:innen bei der Beschuldigung helfen“. Die Erklärung fuhr fort: „In jedem Fall ist eine unabhängige Prüfung durch ein:en [nachrichtendienstlichen] Analysten:in erforderlich, der:die verifiziert, dass die identifizierten Ziele legitime Angriffsziele sind, in Übereinstimmung mit den Bedingungen, die in den IDF-Direktiven und im internationalen Recht festgelegt sind.“

Quellen sagten jedoch, dass das einzige menschliche Überwachungsprotokoll vor der Bombardierung der von Lavender markierten Häuser mutmaßlicher „Junior“-Kämpfer:innen darin bestand, eine einzige Überprüfung durchzuführen: sicherzustellen, dass das von der KI ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass, wenn das Ziel eine Frau war, die Maschine wahrscheinlich einen Fehler gemacht hatte, weil es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt.

„Ein Mensch musste [die Zielperson] nur ein paar Sekunden lang verifizieren“, sagte B. und erklärte, dass dies zum Protokoll wurde, nachdem man festgestellt hatte, dass das Lavender-System die meiste Zeit „richtig lag“. „Anfangs haben wir Kontrollen durchgeführt, um sicherzustellen, dass die Maschine nicht verwirrt wird aber irgendwann verließen wir uns auf das automatische System und überprüften nur noch, ob es sich bei der Zielperson um einen Mann handelte – das reichte. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat.

 

Zur Durchführung der Männer-/Frauenüberprüfung gab B. an, dass ich im gegenwärtigen Krieg „in dieser Phase 20 Sekunden für jedes Ziel investieren und jeden Tag Dutzende davon durchführen würde. Ich hatte als Mensch keinen Mehrwert, außer dass ich ein Gütesiegel war. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich prüfte, ob es sich um einen Menschen handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden.“

 

In der Praxis bedeutete dies, dass es für Zivilist:innen, die von Lavender irrtümlich markiert wurden, keinen Überwachungsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, „wenn die [Hamas]-Zielperson [ihr Telefon] ihrem Sohn, ihrem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor und das waren die meisten Fehler, die durch Lavender verursacht wurden“, sagte B..

 

 

 

SCHRITT 2: VERKNÜPFUNG DER ZIELE MIT DEN FAMILIENHÄUSERN
Die meisten, der von Ihnen getöteten Menschen waren Frauen und Kinder“.

 

Der nächste Schritt im Attentats Verfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavender generiert, angegriffen werden sollen.

In einer Erklärung gegenüber +972 und Local Call erklärte der IDF-Sprecher als Reaktion auf diesen Artikel, dass „die Hamas ihre Agent:innen und militärischen Einrichtungen im Herzen der Zivilbevölkerung platziert, die Zivilbevölkerung systematisch als menschliche Schutzschilde benutzt und die Kämpfe von zivilen Strukturen aus führt, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die IDF sind an das Völkerrecht gebunden und handeln danach, indem sie ihre Angriffe nur auf militärische Ziele und Militärangehörige richten.”

Die sechs Quellen, mit denen wir sprachen, bestätigten dies bis zu einem gewissen Grad und erklärten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurch führt, dass Hamas-Kämpfer:innen Krankenwagen benutzen, um sich fortzubewegen, und dass unzählige militärische Einrichtungen in der Nähe von zivilen Gebäuden liegen. Die Quellen argumentieren, dass viele israelische Angriffe aufgrund dieser Taktiken der Hamas Zivilist:innen töten – eine Charakterisierung, die Menschenrechtsgruppen davor warnen, dass Israel die Verantwortung für die Opfer nicht trägt.

 

Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl der Todesopfer bei den derzeitigen israelischen Bombardierungen die Tatsache ist, dass die Armee systematisch Ziele in ihren Privathäusern zusammen mit ihren Familien angegriffen hat – zum Teil, weil es aus nachrichtendienstlicher Sicht einfacher war, Familienhäuser mit Hilfe automatischer Systeme zu markieren.

Mehrere Quellen betonten, dass die Armee im Gegensatz zu den zahlreichen Fällen, in denen Hamas-Mitglieder von zivilen Gebieten aus militärisch aktiv waren, bei den systematischen Attentaten routinemäßig die aktive Entscheidung traf, mutmaßliche Kämpfer:innen in zivilen Haushalten zu bombardieren, in denen keine militärischen Aktivitäten stattfanden.

 

Die Quellen erklärten gegenüber +972 und Local Call, dass die Überwachungssysteme der Armee Personen leicht und automatisch mit Familienhäusern „verknüpfen“ können, da jeder in Gaza ein Privathaus hat, dem er:sie zugeordnet werden kann. Um den Moment, in dem die Mitglieder ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Software Programme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den:die Zieloffizier:in, der:die dann das Haus für die Bombardierung markiert. Eine von mehreren dieser Ortungsprogramme, die hier zum ersten Mal vorgestellt wird, heißt „Where’s Daddy?“.

„Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann“, so eine Quelle, die das System kennt. Das nennt man „broad hunting“: Man kopiert die Listen, die das Zielsystem erstellt.

 

Auch die Daten belegen diese Politik: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer – 6.120 Menschen – zu 1.340 Familien, von denen viele nach UN-Angaben in ihren Häusern vollständig ausgelöscht wurden. Der Anteil ganzer Familien, die im aktuellen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation im Gazastreifen im Jahr 2014 (dem bisher tödlichsten Krieg Israels im Gazastreifen), was ein weiterer Hinweis auf die Bedeutung dieser Vorgehensweise ist.

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Attentate nachließ, weitere Ziele in Systeme wie „Where’s Daddy?“ eingegeben wurden, um Personen zu lokalisieren, die ihre Häuser betraten und daher bombardiert werden konnten.Er sagte, dass die Entscheidung, wer in die Verfolgungssysteme aufgenommen werden sollte, von relativ rangniedrigeren Offizier:innen in der Militärhierarchie getroffen werden konnte.

„Eines Tages habe ich aus eigenem Antrieb etwa 1.200 neue Ziele in das System aufgenommen, weil die Zahl der Angriffe abnahm“, so die Quelle. „Das ergab für mich einen Sinn.“ Im Nachhinein scheint es eine schwerwiegende Entscheidung gewesen zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hoher Ebene getroffen.“

 

Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst „mehrere tausend“ Ziele in Ortungsprogramme wie „Where’s Daddy?“ eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit „Nukhba“, alle Panzerabwehr-Spezialist:innen der Hamas und alle Personen, die am 7. Oktober nach Israel einreisten. Doch schon bald wurde die Tötungsliste drastisch erweitert.

„Am Ende waren es alle [von Lavender markierten] Personen“, erklärte eine Quelle. „Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [d. h. Zivilist:innen] in den nördlichen Gebieten gab.“ Laut dieser Quelle wurden sogar einige Minderjährige von Lavender als Ziele für Bombenangriffe markiert. „Normalerweise sind die Einsatzkräfte über 17 Jahre alt, aber das war keine Voraussetzung.“

 

Lavender und Systeme wie Where’s Daddy? wurden auf diese Weise mit tödlicher Wirkung kombiniert und töteten ganze Familien, so die Quellen. Durch das Hinzufügen eines Namens aus den von Lavender erstellten Listen zum Where’s Daddy? Home Tracking System, erklärte A., würde die markierte Person unter ständige Überwachung gestellt und könnte angegriffen werden, sobald sie ihr Haus betritt, wodurch das Haus auf alle Bewohner:innen zusammenbricht.

„Nehmen wir an, Sie rechnen mit einem Hamas[-Mitglied] plus 10 [Zivilist:innen im Haus]“, sagte A.. „Normalerweise sind diese 10 Frauen und Kinder, so stellt sich also absurderweise heraus, dass die meisten der getöteten Personen Frauen und Kinder waren.“

 

SCHRITT 3: AUSWAHL EINER WAFFE
Wir führten die Anschläge in der Regel mit “ dummen Bomben“ durch.

 

Sobald Lavender eine Zielperson für die Ermordung markiert hat, das Armeepersonal überprüft hat, dass es sich um einen Mann handelt, und die Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, ist der nächste Schritt die Auswahl der Munition, mit der sie bombardiert wird.

 

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition “ dumme “ Bomben waren, die bekanntermaßen mehr Kollateralschäden verursachen als gelenkte Bomben. Als Reaktion auf den CNN-Bericht sagte ein Armeesprecher, der in dem Artikel zitiert wird: „Als Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, setzen wir enorme Ressourcen ein, um den Schaden für die Zivilist:innen zu minimieren, die von der Hamas in die Rolle menschlicher Schutzschilde gezwungen wurden. Unser Krieg richtet sich gegen die Hamas, nicht gegen die Menschen in Gaza.“

Drei Geheimdienstquellen erklärten jedoch gegenüber +972 und Local Call, dass die von Lavender markierten jüngeren Mitglieder der Armee im Interesse der Einsparung teurerer Waffen nur mit tödlichen Bomben ermordet wurden. Eine Quelle erklärte, dass die Armee ein Junior-Ziel nicht angreifen würde, wenn es in einem Hochhaus wohnt, weil sie keine präzisere und teurere „Etagenbombe“ (mit begrenzteren Kollateralschäden) ausgeben wollte, um es zu töten. Wohnte die Zielperson jedoch in einem Gebäude mit nur wenigen Stockwerken, war die Armee befugt, sie und alle anderen Bewohner:innen des Gebäudes mit einer tödlichen Bombe zu töten.

 

„So war es auch bei allen Junior-Zielen“, sagte C., der im aktuellen Krieg verschiedene automatisierte Programme verwendet. „Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit tödlichen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohner:innen zerstörten. Aber selbst wenn ein Angriff abgewehrt wird, kümmert man sich nicht darum – man geht sofort zum nächsten Ziel über. Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36.000.“

 

SCHRITT 4: GENEHMIGUNG VON OPFERN UNTER DER ZIVILBEVÖLKERUNG

Wir haben fast ohne Rücksicht auf Kollateralschäden angegriffen“.

Einer Quelle zufolge war die Zahl der Zivilist:innen, die bei Angriffen auf Nachwuchs Agenten, einschließlich der von KI-Systemen wie Lavender markierten, neben jedem Ziel getötet werden durften, in den ersten Wochen des Krieges auf bis zu 20 festgelegt. Eine andere Quelle behauptete, die festgelegte Zahl betrug bis zu 15. Diese „Kollateralschäden“, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen Nachwuchsmitglieder angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.

 

Laut A., der im aktuellen Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so „pauschale Genehmigung“ für ein so hohes Maß an Kollateralschäden erteilt. „Es geht nicht nur darum, dass man jede Person töten kann, die ein Hamas-Soldat:in ist, was nach internationalem Recht eindeutig erlaubt und legitim ist“, sagte A.. „Aber sie sagen dir direkt: “Ihr dürft sie zusammen mit vielen Zivilist:innen töten.'“

 

„Jede Person, die in den letzten ein oder zwei Jahren eine Hamas-Uniform trug, konnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet wurden, auch ohne Sondergenehmigung“, so A. weiter. „In der Praxis gab es den Grundsatz der Verhältnismäßigkeit nicht.“

 

Laut A. war dies die meiste Zeit seiner Dienstzeit die Politik. Erst später habe das Militär den Grad der Kollateralschäden gesenkt. „Bei dieser Berechnung konnten es auch 20 Kinder für einen Nachwuchsoffizier sein … Das war früher wirklich nicht so“, erklärte A. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: „Tödlichkeit.“

 

Der vorgegebene und festgelegte Grad an Kollateralschäden trug dazu bei, die massenhafte Erstellung von Zielen mit der Lavender-Maschine zu beschleunigen, so die Quellen, da diese Zeit sparte. B. behauptete, dass die Zahl der Zivilist:innen, die sie in der ersten Woche des Krieges pro mutmaßlichem, von der KI markiertem Nachwuchskämpfer töten durften, fünfzehn betrug, dass diese Zahl aber im Laufe der Zeit „auf und ab ging“.

 

„Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen“, sagte B. über die erste Woche nach dem 7. Oktober. „In der Praxis wurden die Menschen [in den bombardierten Häusern] nicht wirklich gezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Beschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es für uns wirklich schwierig machte, anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann haben sie die Zahl wieder erhöht.“

Wir wussten, dass wir über 100 Zivilisten töten würden“.

 

Quellen erklärten gegenüber +972 und Local Call, dass die israelische Armee nun, auch aufgrund des amerikanischen Drucks, nicht mehr massenhaft menschliche Nachwuchs Ziele für Bombardierungen in zivilen Häusern generiert. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt waren und fast die gesamte Bevölkerung vertrieben wurde, beeinträchtigte auch die Fähigkeit der Armee, sich auf Geheimdienst Datenbanken und automatische Programme zur Lokalisierung von Häusern zu verlassen.

 

E. behauptete, dass die massive Bombardierung der jüngeren Ziele nur in den ersten ein oder zwei Wochen des Krieges stattfand und dann hauptsächlich eingestellt wurde, um keine Bomben zu verschwenden. „Es gibt eine Munitionswirtschaft“, sagte E.. „Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [jüngeren] Leuten überhaupt nicht mehr an“.

Die Luftangriffe gegen hochrangige Hamas-Kommandeur:innen dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von „Hunderten“ von Zivilist:innen pro Ziel – eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei jüngsten Militäroperationen der USA gibt.

„Bei der Bombardierung des Kommandanten des Shuja’iya-Bataillons wussten wir, dass wir über 100 Zivilist:innen töten würden“, erinnerte sich B. an einen Bombenanschlag vom 2. Dezember, der nach Angaben des IDF-Sprechers auf die Ermordung von Wisam Farhat abzielte. „Für mich war das psychologisch gesehen ungewöhnlich. Über 100 Zivilist:innen – das überschreitet eine rote Linie.“

Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenangriff getötet wurden. Er wohnte in Shuja’iya, östlich von Gaza-Stadt, und war an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Fensterscheiben zertrümmerten.

 

„Ich rannte zum Haus meiner Familie, aber es gab dort keine Gebäude mehr“, sagte Al-Sheikh gegenüber +972 und Local Call. „Die Straße war mit Schreien und Rauch gefüllt. Ganze Wohnblocks verwandelten sich in Berge von Schutt und tiefen Gruben. Die Menschen fingen an, mit ihren Händen im Zement zu suchen, und das tat ich auch, um nach Spuren des Hauses meiner Familie zu suchen.“

 

Al-Sheikhs Frau und seine kleine Tochter überlebten – sie wurden durch einen Schrank, der auf sie fiel, vor den Trümmern geschützt -, aber er fand 11 weitere Familienmitglieder, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsorganisation B’Tselem zerstörte die Bombardierung an diesem Tag Dutzende von Gebäuden, tötete Dutzende von Menschen und begrub Hunderte unter den Trümmern ihrer Häuser.

Ganze Familien wurden ausgelöscht

 

Geheimdienstquellen berichteten +972 und Local Call, dass sie an noch tödlicheren Angriffen beteiligt waren. Um Ayman Nofal, den Kommandeur der Zentralen Gaza-Brigade der Hamas, zu ermorden, habe die Armee die Tötung von etwa 300 Zivilisten und die Zerstörung mehrerer Gebäude bei Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober auf der Grundlage einer ungenauen Lokalisierung von Nofal genehmigt, so eine Quelle. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer großer mehrstöckiger Wohngebäude.

„Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht“, sagte Amro Al-Khatib, ein Bewohner des Lagers, gegenüber +972 und Local Call. „Wir konnten keine Wohnung von der anderen unterscheiden – sie lagen alle durcheinander in den Trümmern, und wir fanden überall menschliche Körperteile.“

Al-Khatib erinnerte sich an etwa 50 Leichen, die aus den Trümmern gezogen wurden, und an etwa 200 Verletzte, viele von ihnen schwer. Aber das war nur der erste Tag. Die Bewohner:innen des Lagers verbrachten fünf Tage damit, die Toten und Verletzten aus den Trümmern zu bergen, sagte er.

Nael Al-Bahisi, ein Rettungssanitäter, war einer der ersten vor Ort. Er zählte an diesem ersten Tag von zwischen 50 und 70 Verletzten. „Zu einem bestimmten Zeitpunkt verstanden wir, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war“, sagte er gegenüber +972 und Local Call. „Sie töteten ihn und auch viele Menschen, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet.“

Eine weitere Geheimdienstquelle berichtete +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte habe und dabei „Dutzende von Zivilist:innen“ tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff getötet wurde oder nicht). Oft, so die Quelle, verstecken sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden hindurchführen, so dass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilist:innen tötet.

„Die meisten der Verletzten waren Kinder“, sagte Wael Al-Sir, 55, der Zeuge des groß angelegten Angriffs war, den einige Bewohner:innen des Gazastreifens für ein Attentat hielten. Er sagte gegenüber +972 und Local Call, dass die Bombardierung am 20. Dezember einen „ganzen Wohnblock“ zerstört und mindestens 10 Kinder getötet habe.

„Es gab eine völlig freizügige Politik in Bezug auf die Opfer von [Bombenangriffen] – so freizügig, dass sie meiner Meinung nach ein Element der Rache hatte“, behauptete D., eine Geheimdienstquelle. „Der Kern dieser Politik war die Ermordung hochrangiger [Hamas- und PIJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilist:innen zu töten. Wir hatten eine Berechnung: wie viele für einen Brigadekommandeur:in, wie viele für einen Bataillonskommandeur:in und so weiter.“

 

„Es gab Vorschriften, aber sie waren einfach sehr nachsichtig“, sagte E., eine weitere Geheimdienstquelle. „Wir haben Menschen mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. Das sind Dinge, die es vorher nicht gegeben hat.“

Eine derart hohe Rate an „Kollateralschäden“ ist nicht nur im Vergleich zu dem, was die israelische Armee früher für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die die Vereinigten Staaten im Irak, in Syrien und in Afghanistan führen, außergewöhnlich.

General Peter Gersten, stellvertretender Befehlshaber für Operationen und Nachrichtendienste im Kampf gegen ISIS im Irak und in Syrien, erklärte 2021 gegenüber einer US-Verteidigungszeitschrift, dass ein Angriff, bei dem 15 Zivilist:innen zu Schaden kamen, von der üblichen Vorgehensweise abweicht; um ihn durchzuführen, musste er eine Sondergenehmigung vom Leiter des US-Zentralkommandos, General Lloyd Austin, einholen, der heute Verteidigungsminister ist.

„Bei Osama Bin Laden hatte man einen NCV [Non-combatant Casualty Value] von 30, aber wenn es sich um eine:n Kommandeur:in auf niedriger Ebene handelte, lag sein NCV normalerweise bei Null“, so Gersten. „Wir hatten die längste Zeit einen Wert von Null“.

Uns wurde gesagt: „Bombardiert alles, was ihr könnt“.

Alle für diese Untersuchung befragten Quellen gaben an, dass die Massaker der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark beeinflusst haben. „Am Anfang war die Atmosphäre schmerzhaft und rachsüchtig“, sagte B., der unmittelbar nach dem 7. Oktober zur Armee eingezogen wurde und in einem Ziel-Operationsraum diente. „Die Regeln waren sehr milde. Sie zerstörten vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war verrückt.

 

„Es gab eine Dissonanz: Einerseits waren die Leute hier frustriert, dass wir nicht genug angriffen“, so B. weiter. „Andererseits sieht man am Ende des Tages, dass weitere tausend Menschen im Gazastreifen gestorben sind, die meisten von ihnen Zivilist:innen.“

 

„In den Reihen der Profis herrschte Hysterie“, sagte D., der ebenfalls unmittelbar nach dem 7. Oktober eingezogen wurde. „Sie wussten überhaupt nicht, wie sie reagieren sollten. Das Einzige, was sie zu tun wussten, war, wie die Verrückten zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu zerstören.“

 

D. betonte, dass ihnen nicht ausdrücklich gesagt wurde, dass das Ziel der Armee „Rache“ sei, aber er brachte zum Ausdruck, dass „sobald jedes Ziel, das mit der Hamas in Verbindung gebracht wird, legitim ist und fast jeder Kollateralschaden gebilligt wird, es Ihnen klar ist, dass Tausende von Menschen getötet werden würden. Selbst wenn offiziell jedes Ziel mit der Hamas in Verbindung gebracht wird, verliert es jede Bedeutung, wenn die Politik so freizügig ist.“

 

A. benutzte auch das Wort „Rache“, um die Atmosphäre innerhalb der Armee nach dem 7. Oktober zu beschreiben. „Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird“, sagte A.. „Uns wurde gesagt: Jetzt müssen wir die Hamas fertig machen, egal was es kostet. “Bombardiert alles was ihr könnt.”“

 

B., der ranghöchste Geheimdienstmitarbeiter, sagte, dass er im Nachhinein glaube, dass diese „unverhältnismäßige“ Politik der Tötung von Palästinense:innen in Gaza auch Israelis gefährde, und dass dies einer der Gründe sei, warum er sich zu einem Interview bereit erklärt habe.

 

„Kurzfristig sind wir sicherer, weil wir der Hamas schaden. Aber ich denke, langfristig sind wir weniger sicher. Ich sehe, wie all die trauernden Familien im Gazastreifen – und das sind fast alle – in zehn Jahren die Motivation erhöhen werden, sich der Hamas anzuschließen. Und es wird für [die Hamas] viel einfacher sein, sie zu rekrutieren.“

 

In einer Erklärung an +972 und Local Call dementierte die israelische Armee vieles von dem, was uns die Quellen berichtet haben, und behauptete, dass „jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und des Kollateralschadens, der durch den Angriff zu erwarten ist, vorgenommen wird … Die IDF führt keine Angriffe durch, wenn der Kollateralschaden, der durch den Angriff zu erwarten ist, im Verhältnis zum militärischen Vorteil zu hoch ist.“

 

SCHRITT 5: BERECHNUNG DER KOLLATERALSCHÄDEN

Das Modell war im Einklang mit der Realität

Den Geheimdienstquellen zufolge hat die israelische Armee die Anzahl der Zivilist:innen, die in jedem Haus neben einem Ziel getötet werden sollten – ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde – mit Hilfe automatischer und ungenauer Instrumente berechnet. In früheren Kriegen verbrachten die Geheimdienstmitarbeiter:innen viel Zeit damit, zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilist:innen, die getötet werden könnten, in einer „Zieldatei“ aufgeführt wurde. Nach dem 7. Oktober wurde diese gründliche Überprüfung jedoch weitgehend zugunsten der Automatisierung aufgegeben.

Im Oktober berichtete die New York Times über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Live-Schätzung der Zahl der Palästinenser:innen liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Times: „Es ist kein 100-prozentig perfektes System – aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen.“ Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind. Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilist:innen errechnete, die vor dem Krieg in jedem Haus wohnten – indem sie die Größe des Gebäudes bewertete und die Liste der Bewohner:innen überprüfte – und dann diese Zahlen um den Anteil der Bewohner:innen reduzierte, die das Viertel angeblich evakuiert hatten.

Wenn die Armee beispielsweise davon ausging, dass die Hälfte der Bewohner:innen eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise 10 Personen wohnten, als ein Haus mit fünf Bewohner:innen. Um Zeit zu sparen, so die Quellen, überprüfte die Armee die Häuser nicht wie bei früheren Operationen, um herauszufinden, ob die Schätzung des Programms tatsächlich zutreffend war, sondern um festzustellen, wie viele Menschen tatsächlich dort lebten.

„Dieses Modell hat nichts mit der Realität zu tun“, behauptete eine Quelle. „Es gab keine Verbindung zwischen den Personen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. Einmal haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien versteckt hielten.”

Die Quelle sagte, dass die Armee zwar wusste, dass solche Fehler auftreten können, aber dennoch dieses ungenaue Modell angewandt wurde, weil es schneller war. Die Quelle sagte, dass „die Berechnung der Kollateralschäden völlig automatisch und statistisch erfolgte“ und sogar Zahlen lieferte, die keine ganzen Zahlen waren.

SCHRITT 6: BOMBARDIERUNG EINES FAMILIENHAUSES

Sie haben eine Familie grundlos getötet

Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie „Where’s Daddy?“ einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klafft – was dazu führt, dass ganze Familien getötet werden, ohne dass das Ziel der Armee getroffen wird. „Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war“, sagte eine Quelle. „Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.“

 

Drei Geheimdienstquellen erklärten gegenüber +972 und Local Call, dass sie Zeug:in eines Vorfalls waren, bei dem die israelische Armee das Privathaus einer Familie bombardierte und sich später herausstellte, dass das Ziel des Attentats gar nicht im Haus war, da keine weitere Überprüfung in Echtzeit durchgeführt wurde.

 

„Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, z. B. in der U-Bahn, und Sie wussten nichts davon“, sagte eine der Quellen. „Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: ‚Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.'“

Ein anderer Informant beschrieb einen ähnlichen Vorfall, der ihn so betroffen machte, dass er für diese Untersuchung befragt werden wollte. „Wir gingen davon aus, dass die Zielperson um 20.00 Uhr zu Hause war.  Schließlich bombardierte die Luftwaffe das Haus um 3.00 Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern.

In früheren Kriegen im Gazastreifen hat der israelische Geheimdienst nach der Ermordung menschlicher Zielpersonen eine Bombenschadensanalyse (BDA) durchgeführt – eine routinemäßige Überprüfung nach dem Angriff, um festzustellen, ob der:die ranghohe Kommandeur:in getötet wurde und wie viele Zivilisten:innen mit ihm zusammen ums Leben gekommen sind. Wie in einerfrüheren Untersuchung von +972 und Local Call aufgedeckt wurde, beinhaltete dies das Abhören von Telefongesprächen von Angehörigen, die ihre Lieben verloren hatten. Im gegenwärtigen Krieg wurde dieses Verfahren jedoch zumindest in Bezug auf die mit Hilfe der künstlichen Intelligenz markierten jüngeren Kämpfer:innen abgeschafft, um Zeit zu sparen. Die Quellen sagten, sie wüssten nicht, wie viele Zivilist:innen bei den einzelnen Angriffen tatsächlich getötet wurden, und bei den verdächtigen Hamas- und PIJ-Kämpfer:innen mit niedrigem Rang, die durch AI markiert wurden, wüssten sie nicht einmal, ob das Ziel selbst getötet wurde. Weiter