Seine Erkenntnisse: Die israelische Armee hat Zehntausende von Einwohnern des Gazastreifens als Verdächtige für die Ermordung markiert und dabei ein KI-Zielsystem mit wenig menschlicher Aufsicht und einer freizügigen Politik für Opfer eingesetzt.
Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen "Lavendel" entwickelt hat. Nach Angaben von sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges im Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von künstlicher Intelligenz zur Generierung von Tötungszielen zu tun hatten, hat Lavendel eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavendel auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, "als wären sie eine menschliche Entscheidung".
Die Lavendel-Maschine gesellt sich zu einem anderen KI-System, "The Gospel", über das in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen veröffentlicht wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während "The Gospel" Gebäude und Strukturen markiert, von denen aus die Armee behauptet, dass Militante dort operieren, markiert "Lavendel" Menschen - und setzt sie auf eine Tötungsliste.