Het Israëlische leger gebruikt een systeem voor kunstmatige intelligentie om doelen voor bombardementen in Gaza te selecteren. Daarover berichten +972 Magazine en Local Call, twee nieuwssites uit de regio.
Zes leden van de Israëlische inlichtingendiensten, die niet bij naam genoemd willen worden, vertellen de nieuwssites over het programma genaamd Lavender, waarvan ze zelf deel uitmaakten. Het AI-systeem speelde zeker in het begin van de oorlog een belangrijke rol, stellen ze. De output van de AI zou zelfs opgepakt worden alsof het een menselijke beslissing was. Gedurende deze periode werden zo'n 37.000 Palestijnse mannen door Lavender aangemerkt als mogelijke militanten, waarmee ze een doelwit werden voor mogelijke luchtaanvallen.
Volgens de betrokken personen was het in deze periode niet verplicht om te controleren waarom het AI-systeem bepaalde keuzes maakte of om de data waarop keuzes gebaseerd zijn, te bekijken. Menselijk personeel zat er volgens één bron vooral voor de vorm, om in zo'n twintig seconden te controleren of een doelwit een man is. Verder werden beslissingen vrijwel ongezien goedgekeurd, aldus de nieuwssites, terwijl bekend was dat het systeem in tien procent van de gevallen een fout maakt. Ook bestempelde het systeem af en toe mensen als doelwit terwijl ze nauwelijks of geen connectie hebben met militante groepen.
De bronnen stellen verder dat doelwitten met name aangevallen werden als ze thuis waren, bij voorkeur midden in de nacht, als de hele familie er was. Het zou namelijk gemakkelijker zijn om de doelwitten te vinden in hun eigen huizen. Dergelijke individuen werden gevolgd met aanvullende, geautomatiseerde systemen, waaronder één genaamd 'Where's Daddy?'. Dat systeem zorgde ervoor dat een bombardement werd uitgevoerd als het doelwit zijn huis was ingegaan. Volgens de bronnen zijn daardoor duizenden Palestijnen omgekomen die niet betrokken waren bij de gevechten.
De Israel Defence Forces ontkennen het bestaan van de tool tegenover CNN niet, maar volgens de organisatie wordt de tool niet gebruikt om mogelijke terroristen te identificeren. De systemen zouden slechts 'tools voor analisten' zijn, die gebruikt worden in het proces om doelwitten te identificeren. Concreet zou het een database zijn waarmee bronnen van inlichtingendiensten met elkaar vergeleken worden. Vervolgens zijn mensen verantwoordelijk om te verifiëren dat doelwitten voldoen aan de relevante definities volgens de internationale wetgeving en 'extra beperkingen beschreven in de IDF-richtlijnen', aldus de organisatie. Ook zeggen de IDF dat Israël zoveel mogelijk probeert te voorkomen dat burgers gewond raken bij luchtaanvallen.