So wie Daniel Hale, unser erster Preisträger des Ellsberg Whistleblower Award, voraussagte, hat aufgrund von Fortschritten in der Entwicklung und Anwendung Künstlicher Intelligenz der Einsatz von (halb-)automatisierten und autonomen Waffensystemen seit seinem Whistleblowing im Jahr 2014 dramatisch zugenommen. Im April 2024 veröffentlichten der bekannte israelische Journalist Yuval Abraham und The Guardian Abrahams Recherche über den Einsatz einer künstlichen Intelligenz namens „Lavender“ durch Israel, um potenzielle Hamas-Terroristen als Ziele für Bombenangriffe zu identifizieren. Die Aussagen von sechs Whistleblowern der israelischen Streitkräfte (IDF) deuten darauf hin, dass die von Lavender generierte Auswahl kaum einer menschlichen Kontrolle unterlag und somit nicht verifiziert wurde. Eine hohe Zahl von zivilen „Kollateralopfern“ wurde wissentlich in Kauf genommen.
Lesen Sie den Kommentar von Ninon Colneric, ehemalige Richterin am Europäischen Gerichtshof (EuGH).
Annegret Falter
Vorsitzende von Whistleblower-Netzwerk
Kommentar von Ninon Colneric über ‘Lavender’ und die Nutzung von KI im Gazakrieg
17. Oktober 2024
Die Ländervorwahl für Israel lautet +972. In dem nach dieser Vorwahl benannten englischsprachigen +972 Magazine erschien am 3.4.2024 ein Artikel von Yuval Abraham, der sich wie ein Lauffeuer um die Welt verbreitete. Er wurde innerhalb von 48 Stunden beispielsweise von The Guardian, The Washington Post, Le Monde, Haaretz, CNN, Business Insider und The Independent aufgegriffen. BBC, CNN, Channel 4 und Democracy Now interviewten den Autor.[1] Mit einer gewissen Verzögerung widmete sogar das Hamburger Abendblatt dem Bericht von Yuval Abraham einen großen Artikel.[2]
Worum ging es? Yuval Abraham fasste seine Reportage selbst folgendermaßen zusammen[3]:
„Unsere neue Untersuchung zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm namens ‚Lavender‘ entwickelt hat, mit dem Zehntausende von Palästinensern als mutmaßliche Kämpfer markiert wurden, die während des aktuellen Gaza-Kriegs umgebracht werden könnten.
Nach Angaben von sechs Whistleblowern, die für den Artikel interviewt wurden, hat Lavender eine zentrale Rolle bei den beispiellosen Bombenangriffen der israelischen Armee auf Palästinenser seit dem 7. Oktober gespielt, insbesondere in den ersten Wochen des Krieges. Den Quellen zufolge hat die Armee den Soldaten die umfassende Erlaubnis erteilt, die Tötungslisten von Lavender mit nur geringfügiger Kontrolle zu übernehmen und die Ergebnisse der KI-Maschine so zu behandeln, ‚als ob es sich um eine menschliche Entscheidung handelte‘. Die Maschine war für die Markierung von Militärangehörigen auf ‚niedriger Ebene‘ konzipiert, aber es war bekannt, dass sie in etwa 10 Prozent der Fälle so genannte ‚Identifizierungsfehler‘ machte. Dies ging einher mit einer systematischen Präferenz, durch Lavender markierte Zielpersonen anzugreifen, wenn sie sich in den Häusern ihrer Familien aufhielten, sowie mit einer extrem permissiven Politik in Bezug auf Opfer, die zur Tötung ganzer palästinensischer Familien führte.“[4]
Der Artikel erschien unter der Überschrift „‚Lavender‘: The AI machine directing Israel’s bombing spree in Gaza“[5]. Parallel zu der englischsprachigen Publikation gab es eine Veröffentlichung in hebräischer Sprache auf der News-Website Local Call. Am 30.11.2023 hatte Yuval Abraham bereits eine Reportage zu dem KI-System Habsora („Gospel“) publiziert, das in hoher Geschwindigkeit Gebäude und Anlagen als Ziele markiert und in Gaza für nicht-militärische Ziele eingesetzt wurde.[6]
In ihrer Stellungnahme zu den Aussagen, die die sechs Whistleblower zu Lavender[7] gemacht hatten, erklärten die israelischen Streitkräfte[8]: „Bei dem ‚System‘, auf das sich Ihre Fragen beziehen, handelt es sich nicht um ein System, sondern lediglich um eine Datenbank, deren Zweck es ist, nachrichtendienstliche Quellen miteinander zu vergleichen, um aktuelle Informationen über die militärischen Akteure der terroristischen Organisationen zu erhalten. Es handelt sich nicht um eine Liste bestätigter Militärangehöriger, die für einen Angriff in Frage kommen.“[9]
Dazu ist Folgendes zu sagen:
2021 erschien ein Buch mit dem Titel „The Human-Machine Team – How to Create Synergy Between Human & Artificial Intelligence That Will Revolutionize Our World“. Als Autor wird „Brigadier General Y.S.“ angegeben. Es handelt sich um den Kommandanten Yoav des Zentrums für künstliche Intelligenz der Einheit 8200, also der Elite-Einheit des Geheimdienstes der israelischen Streitkräfte.[10] In seinem Buch beklagt der Kommandant, dass „humans are the bottleneck that prevent the creation of tens of thousands of targets in context. […] It does not matter how many people you have tasked to produce targets during the war – you still cannot produce enough targets per day.“[11] Die Lösung sieht er in einer „targets machine“, die auf künstlicher Intelligenz und Algorithmen für maschinelles Lernen beruht.[12] Er beschreibt im Detail ein System, das Lavender entspricht. Yoav verfasste das Buch während eines einjährigen Studienaufenthalts an der National Defense University in Washington.[13] Die USA hatten schon im Irak und in Afghanistan ein Datenbanksystem eingesetzt, das Nummern von erbeuteten Mobiltelefonen benutzte, um Listen von Zielen für nächtliche Attacken und Luftangriffe zu generieren. Der Einsatz menschlicher Intelligenz zur Bestätigung von Identitäten wurde dabei ausdrücklich ausgeschlossen.[14] Aus einer Publikation des israelischen Militärs geht hervor, dass künstliche Intelligenz in Israel bereits 2021 im Rahmen der Operation „Guardian of the Walls“ zur massenhaften Definition von Zielpersonen eingesetzt wurde.[15]
Der Autor des Lavender-Artikels Yuval Abraham ist in Berlin kein Unbekannter. Er erhielt auf der Berlinale 2024 gemeinsam mit dem Palästinenser Basel Adra für den Film „No other Land“ den Preis für den besten Dokumentarfilm. In seiner Dankesrede bezeichnete er die rechtliche Ungleichbehandlung der israelischen Staatsbürger und der Palästinenser in den von Israel besetzen Gebieten als „Apartheid“. Ihm wurde deshalb von deutschen Politikern und Medien Antisemitismus vorgeworfen. Auf X berichte Abraham Yuval, dass seine Familie daraufhin von einem rechten israelischen Mob, der nach ihm suchte, heimgesucht wurde und mitten in der Nacht fliehen musste. Er selbst habe Morddrohungen erhalten. Zu den Antisemitismusvorwürfen schrieb Yuval Abraham: „The appalling misuse of this word by Germans, not only to silence Palestinian critics of Israel, but also to silence Israelis like me who support a ceasefire that will end the killing in Gaza and allow the release of the Israeli hostages – empties the word antisemitism of meaning and thus endangers Jews all over the world.“[16] Vermutlich sind diese Ereignisse der Grund dafür, weshalb es Whistleblower-Netzwerk nicht gelungen ist, Kontakt mit Yuval Abraham aufzunehmen, um ihn für eine Veranstaltung in Berlin zu gewinnen.
Die sechs Whistleblower, auf deren Aussagen der Lavender-Artikel beruht, sind mit gutem Grund anonym geblieben. Wie gefährlich es sein kann, israelische Militärgeheimnisse öffentlich zu machen, zeigt der Fall Mordechai Vanunu. Vanunu enthüllte 1986 das Ausmaß des israelischen Atomwaffen-Programms. Er wurde, als er sich in London aufhielt, von einer Geheimagentin nach Rom gelockt, dort betäubt, an Bord eines israelischen Frachters nach Israel gebracht und unter Ausschluss der Öffentlichkeit zu 18 Jahren Haft verurteilt. 10 Jahre verbrachte er in Einzelhaft in einer Zelle von 3 mal 2 Metern.[17] Aus israelischer Sicht ein Verräter, wurde Vanunu 1987 mit dem Right Livelihood Award, also dem sog. Alternativen Nobelpreis, ausgezeichnet.[18]
Was wissen wir über die sechs Whistleblower, die Abrahams Quellen waren? Abraham zufolge handelt es sich um israelische Geheimdienstoffiziere, die alle während des derzeitigen Krieges in Gaza in der Armee gedient hatten und unmittelbar an der Verwendung von KI zur Generierung von Zielen beteiligt waren. Einer von ihnen, der einen hohen Rang einnahm, gab an, rückblickend glaube er, dass die unverhältnismäßige Politik, Palästinenser in Gaza zu töten, auch Israelis gefährde. Dies sei einer der Gründe dafür gewesen, weshalb er beschlossen habe, sich interviewen zu lassen. Ein anderer hatte Gewissensbisse bekommen, als sich herausstellte, dass die Zielperson, die mit der Bombardierung eines Hauses getötet werden sollte, zum Zeitpunkt des Bombardements schon mit ihrer Familie anderswo untergekommen war und sich in dem Haus zwei andere Familien mit ihren Kindern aufhielten. In einem Interview mit Democracy Now[19] erklärte Abraham, dass seine Informanten, als sie eingezogen wurden, unter dem Eindruck der Schreckenstaten des 7. Oktober gestanden hätten. Aber es sei ihnen, wenngleich nicht allen, nach und nach bewusst geworden, dass auch von ihnen erwartet wurde, Schreckenstaten zu begehen.
Nach der Darstellung der israelischen Armee erfordern ihre Verfahrensbestimmungen, dass für jedes Ziel verifiziert werden muss, ob es die einschlägigen Definitionen des internationalen Rechts und zusätzliche, in den Direktiven der Armee enthaltene Restriktionen erfüllt. Auch müsse eine individuelle Beurteilung des prognostizierten Vorteils und des erwarteten Kollateralschadens vorgenommen werden. Nach den detailreichen Aussagen der Whistleblower sah die Praxis nach dem 7. Oktober vor allem in den ersten Wochen aber so aus:
Anders als bei früheren Angriffen auf Gaza hatte die Armee beschlossen, alle Angehörigen des militärischen Zweigs der Hamas unabhängig von ihrem Rank oder ihrer militärischen Bedeutung als Zielpersonen einzustufen. Vier Quellen gaben an, dass ca. 37.000 Palästinenser als mutmaßliche Hamas-Kämpfer für die Tötung gekennzeichnet worden seien, und zwar größtenteils rangniedrige Personen. Geheimdienstler prüften ungefähr zwei Wochen lang die Zielgenauigkeit von Lavender und kamen zu der Einschätzung, dass die Identifikation durch das System in 90 % der Fälle zutreffend war. Daraufhin gestattete die Armee, die Kennzeichnung von Personen durch Lavender im Wesentlichen wie einen Befehl zu behandeln. Eine Quelle erklärte, dass vor der Autorisierung der Bombardierung nur etwa 20 Sekunden pro Zielperson aufgewandt wurden, um sicherzustellen, dass es sich um einen Mann handelte.
Die Zielpersonen wurden systematisch angegriffen, wenn sie zu Hause bei ihren Familien waren. Um diesen Zeitpunkt zu ermitteln, wurden spezielle Software-Programme verwandt. Eines dieser Programme hieß „Where’s Daddy?“. Meistens wurden sog. dumme Bomben, die billiger als Präzisionsbomben sind, eingesetzt. Dies führte dazu, dass das gesamte Haus über den Bewohnern einstürzte. Es gab Vorgaben für die Zahl der erlaubten zivilen Opfer pro Kämpfer. Bei rangniedrigen Kämpfern waren es zunächst bis zu 20 bzw. – nach einer anderen Quelle – bis zu 15 Personen. Die Zahl wurde später herab- und dann wieder heraufgesetzt. Ging es um hochrangige Kämpfer, wurden über 100 zivile Opfer als statthaft angesehen. Während in früheren Gaza-Kriegen nach einem Angriff überprüft wurde, ob die Zielperson getötet worden war und wie viele Zivilisten mit ihr starben, gab man diese Routineuntersuchung im derzeitigen Krieg jedenfalls bei rangniedrigen Kämpfern auf.
Wenn ich die Aussagen der sechs Whistleblower so betrachte, als müsste ich eine richterliche Beweiswürdigung vornehmen, sehe ich eine Reihe von Indizien, die für ihre Glaubwürdigkeit sprechen, z.B.: quantitativen Detailreichtum, Schilderung eigenpsychischer Vorgänge, die Ausgefallenheit des Programm-Namens „Where’s Daddy?“ und die vielfältige Verflechtung des Aussageinhalts mit veränderlichen äußerlichen Umständen. Für die Glaubwürdigkeit der Aussagen spricht auch das Ergebnis der Angriffe auf Gaza in den ersten Wochen nach dem 7. Oktober: beispiellose Zerstörung und extrem hohe Opferzahlen innerhalb sehr kurzer Zeit.
Nicht zuletzt passt die fast völlig entgrenzte Kriegsführung, die die Whistleblower schildern, zum sozialen Kontext dieses Krieges. Die israelische Armee war durch die Ereignisse vom 7. Oktober gedemütigt worden und wird bestrebt gewesen sein, sehr schnell durch Bilder eines Sieges ihre Reputation wiederherzustellen. Die Sprache, die führende Vertreter der israelischen Regierung in Bezug auf die Palästinenser benutzen, war dehumanisierend. Der israelische Verteidigungsminister erklärte beispielsweise am 10. Oktober an der Grenze zu Gaza in einer Ansprache vor israelischen Streitkräften: „I have released all restraints. […] We are fighting human animals.“[20] Durch unwahre Gräuelgeschichten wie die von den 40 geköpften Babys[21] wurde die aufgewühlte Stimmung, die die Schrecken des 7. Oktobers hervorgerufen hatten, weiter angeheizt. Die Aussagen der sechs Whistleblower erscheinen vor diesem Hintergrund plausibel.[22]
Yuval Abraham verband mit seiner Reportage über Lavender die Hoffnung, dass das, was darin so klar dargelegt worden sei, Menschen auf der ganzen Welt helfen würde, einen Waffenstillstand, die Freilassung der Geiseln, ein Ende der Besatzung und eine politische Lösung zu fordern. Sein Blick ging jedoch über Gaza hinaus. Wie er in seinem Interview mit Democracy Now[23] erläuterte, sieht er im Einsatz künstlicher Intelligenz bei der Kriegsführung eine Gefahr für die Menschheit. Diese Art der Kriegsführung erlaube es, sich der Rechenschaftspflicht zu entziehen. Das Völkerrecht sei in einer Krise. Durch den Einsatz künstlicher Intelligenz im Krieg werde diese Krise noch vertieft.
So ist es.
[1] https://www.972mag.com/edition/yuval-lavender-newsletter/.
[2] Hamburger Abendblatt, 26.4.2024, S. 4.
[3] Originaltext:
Our new investigation reveals that the Israeli army has developed an artificial intelligence-based program called “Lavender,” which has been used to mark tens of thousands of Palestinians as suspected militants for potential assassination during the current Gaza war.
According to six whistleblowers interviewed for the article, Lavender has played a central role in the Israeli army’s unprecedented bombing of Palestinians since October 7, especially during the first weeks of the war. In fact, according to the sources, the army gave sweeping approval for soldiers to adopt Lavender’s kill lists with little oversight, and to treat the outputs of the AI machine “as if it were a human decision.” While the machine was designed to mark “low level” military operatives, it was known to make what were considered identification “errors” in roughly 10 percent of cases. This was accompanied by a systematic preference to strike Lavender-marked targets while they were in their family homes, along with an extremely permissive policy toward casualties, which led to the killings of entire Palestinian families.
https://www.972mag.com/edition/yuval-lavender-newsletter
[4] [Fußnote gelöscht]
[5] https://www.972mag.com/lavender-ai-israeli-army-gaza/
[6] https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
[7] https://www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza
[8] Originaltext:
The “system” your questions refer to is not a system, but simply a database whose purpose is to cross-reference intelligence sources, in order to produce up-to-date layers of information on the military operatives of terrorist organizations. This is not a list of confirmed military operatives eligible to attack.
[9] [Fußnote gelöscht]
[10] https://www.972mag.com/lavender-ai-israeli-army-gaza/ m.w.Nachw.
[11] The Human-Machine Team, S. 51 f.
[12] A.a.O., S. 70 ff.
[13] The Human-Machine Team, S. 22 f.
[14] Medea Benjamin und Nicolas J.S. Davies: A Brief History of Kill Lists, From Langley to Lavender, https://www.codepink.org/aiisrael .
[15] https://www.israeldefense.co.il/en/node/57246
[16]https://x.com/yuval_abraham/status/1762558886207209838?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1762558886207209838%7Ctwgr%5Ea121f8d7ddf04c9dcd55bdd560a036cd32e8b1fc%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.spiegel.de%2Fkultur%2Fkino%2Fyuval-abraham-berichtet-nach-berlinale-gala-von-morddrohungen-und-wehrt-sich-gegen-antisemitismus-vorwuerfe-a-f32f90d6-afa3-4c8b-a66b-10b012887224 , Post vom 27.2.2024
[17] https://rightlivelihood.org/the-change-makers/find-a-laureate/mordechai-vanunu/, , https://www.faz.net/aktuell/feuilleton/israel-die-angst-vor-vanunu-1161556.html .
[18] https://rightlivelihood.org/the-change-makers/find-a-laureate/mordechai-vanunu/ .
[19] https://www.youtube.com/watch?v=4RmNJH4UN3s&list=PLHz5QS2YdKXKD5Q0gEGvnFYSlv98-bpwy&index=66
[20] Beschluss des Internationalen Gerichtshof vom 26.1.2024 in dem Verfahren Südafrika gegen Israel, Rn. 52.
[21] https://www.lemonde.fr/en/les-decodeurs/article/2024/04/03/40-beheaded-babies-the-itinerary-of-a-rumor-at-the-heart-of-the-information-battle-between-israel-and-hamas_6667274_8.html
[22]Siehe auch die Einschätzung des Militärexperten Andres Krieg, https://www.youtube.com/watch?v=ydiWRyDys0U , ab Min. 7:20.
[23]https://www.youtube.com/watch?v=4RmNJH4UN3s&list=PLHz5QS2YdKXKD5Q0gEGvnFYSlv98-bpwy&index=66