Hur Israel använder AI för att generera mål i krig
Israel har utvecklat ett av världens mest avancerade AI-drivna system där identifiering, målgenerering och operativ verkan är tätt integrerade i en sammanhängande kedja. De primära systemen heter Lavender, Where's Daddy och The Gospel. Allt baseras på datadominans och elitenheten Unit 8200.

Israels förmåga att samla in, bearbeta och omsätta underrättelser i operativ effekt är känd och beryktad. Israel har i praktiken utvecklat ett operativt AI-ekosystem där flera system tillsammans fyller ungefär samma område som USAs Project Maven och Ukrainska Delta, men med en tydligare tyngdpunkt på automatiserad målgenerering och hög operativ takt.
Kortfattat: Vad gör dessa system?
- Vem (individer) - Lavender
- Vad (objekt) - The Gospel
- När (tid & plats) - Where's Daddy
Generellt arbetar AI-verktyg inom området enligt en process liknande nedan: Sensor → AI (identifiera objekt) → analys → beslut (människa) → verkan.
Israels process framstår snarare som: Sensor → AI (identifiering) → AI (generering) → AI (prioritering) → beslut → verkan
Det är tre stora skillnader:
- Mängden måldata som ges till AI är betydligt bredare och fokus på individnivå
- AI i hela kedjan
- Rapportering indikerar att den mänskliga granskningen i vissa fall kan vara mycket begränsad i tid, i vissa uppgifter endast sekunder per beslut
Personlig moralisk reflektion
Vill lägga in en liten brasklapp tidigt. Hur imponerande kraftfulla systemen än är kan jag inte gå vidare utan att vara tydlig med att det hos mig triggar starka moraliska tveksamheter i Israels agerande.
Det som framträder är en modell där att döda människor i stor skala framstår som lösningen för att uppnå strategiska mål, snarare än att hitta vägar som minimerar mänskligt lidande för att nå målen. Det för onekligen tankarna till andra tillfällen i historien där denna typ av agerande har skett.
Även tolkningen av krigets lagar och speciellt proportionalitet känns inte på något sätt balanserat eller korrekt. Om fler länder kommer att tillämpa AI på samma eller mer aggressivt, finns starka själ att vara orolig.
Bakgrund
Israels modell vilar på fyra tydliga principer:
- Datadominans Massiv signalspaning, metadata och sensordata utgör grunden.
- AI i kärnan av processen AI används inte som stöd, utan som aktiv del i målgenerering.
- Industrialiserad targeting Fokus på volym och tempo, inte enbart precision.
- Modulär arkitektur Flera system som tillsammans bildar en operativ helhet.
Den första pelaren är datadominans. Israel har under lång tid byggt mycket starka förmågor inom signalspaning och datadriven underrättelsetjänst, inte minst genom Unit 8200. Detta ger tillgång till en mycket bred databas av kommunikationsmönster, metadata, telefontrafik, elektronisk kommunikation, sociala medier och andra indikatorer som kan användas för att identifiera mönster, relationer och misstänkta aktiviteter.
Den andra pelaren är underrättelseintegration. I många militära system finns en organisatorisk och teknisk tröghet mellan insamling, analys och verkan. Israels modell verkar i hög grad vara utformad för att minska denna tröghet. Målet är inte bara att förstå slagfältet, utan att snabbare än motståndaren omsätta information till handling. Här märks en tydlig skillnad mot mer traditionella militära organisationer där varje steg i processen är mer avgränsat.
Den tredje pelaren är hög operativ takt. Flera källor beskriver hur Israel under de senaste åren utvecklat förmågan att producera mål i mycket större skala än tidigare. Det centrala värdet i systemen är inte bara att hitta rätt mål, utan att göra det i större volym, snabbare och under högre tempo än vad en traditionell underrättelseprocess medger. Det innebär att systemens verkliga styrka ligger lika mycket i kapacitet och genomströmning som i ren precision.
Den fjärde pelaren är teknisk modularitet. Israel tycks inte ha valt en modell där hela denna förmåga paketeras i ett enda, tydligt system. I stället är förmågan uppbyggd av flera system som var och en har en specifik funktion. Denna modularitet ger större flexibilitet. Ett system kan arbeta med individklassificering, ett annat med objektmål, ett tredje med spårning, och ytterligare system med ledning, sensorer eller vapenkoppling. Resultatet blir ett system av system snarare än en enda stor plattform.
Israels AI-system
Sammanfattar först i en enkel tabell.
| Funktion | System | Roll |
|---|---|---|
| Individidentifiering | Lavender | Klassificerar människor som mål |
| Målgenerering (objekt) | The Gospel | Genererar mål (objekt, byggnader) |
| Spårning & timing | Where's Daddy | Avgör när/var mål går att angripa |
I ena änden finns system som arbetar med att identifiera individer, nätverk och misstänkta operatörer utifrån signalspaning, metadata, relationer och mönster i stora datamängder. Där är Lavender det tydligaste exemplet. Det beskrivs som ett system som hjälper till att klassificera individer och generera stora mängder personbaserad data.
I nästa led finns system som kopplar identifierade mål till en konkret tid och plats. Where's Daddy fyller denna funktion. Den funktionen är i första hand inte att avgöra vem som är mål, utan att följa ett redan identifierat mål och avgöra när personen befinner sig på en plats där personen kan slås ut.
Samtidigt finns system för målgenerering på objektsnivå. Det mest omtalade är The Gospel, eller Habsora. Det är i praktiken ett system för att generera mål på basis av stora mängder underrättelser, särskilt byggnader, infrastruktur och andra objekt. Där Lavender handlar om individer och Where's Daddy om timing, handlar Gospel om att skala upp själva produktionen av mål.
Ovanpå detta finns Israels bredare system för sensorer, signalspaning, drönare, flygvapenledning, luftförsvar, stridsledning och operativ ledning.
Lavender
Lavender är det mest omtalade systemet på individnivå. Det beskrivs som ett AI eller maskininlärningsbaserat system som används för att identifiera, klassificera och prioritera individer som misstänks ha koppling till Hamas eller Hizbollah etc. Om dessa beskrivningar stämmer i huvudsak fungerar Lavender som en algoritmisk motor för personbaserad målgenerering, där stora mängder data används för att tilldela individer en sannolikhetsbaserad status som potentiellt legitimt mål.
Lavender kärnfunktion verkar vara att göra det möjligt att på mycket kort tid gå igenom enorma datamängder och producera stora volymer av personrelaterade målunderlag.
Funktioner och logik
Det centrala med Lavender är att systemet verkar arbeta med mönster och sannolikheter snarare än säker identifiering i varje enskilt fall. Det ska, enligt rapporteringen, väga samman en rad olika indikatorer, exempelvis kommunikationsmönster, grupptillhörighet, metadata, relationer till andra misstänkta individer och andra digitala eller signalbaserade spår. På så sätt skapas en klassificering där personer får en viss sannolikhetsbedömning som sedan kan ligga till grund för vidare operativ behandling.
Det som gör systemet militärt betydelsefullt är att det verkar kunna arbeta i mycket stor skala. Där en mänsklig analyskedja skulle ta lång tid att bygga upp samma mängd personunderlag kan Lavender generera stora mängder kandidater under kort tid.
Det är också just här systemets logik skiljer sig från mer traditionell underrättelsetjänst. En traditionell process försöker ofta nå så hög grad av individuell säkerhet som möjligt innan en person klassas som legitimt mål. Ett system som Lavender verkar i stället flytta tyngdpunkten mot statistisk sannolikhet och mönsterigenkänning. Det behöver inte innebära att mänsklig kontroll försvinner, men det förändrar karaktären. Människan går från att själv bygga målet till att i högre grad granska eller godkänna ett systemgenererat förslag.
Hur det används i verkligheten
I praktiken är det just denna förmåga till massklassificering som gör Lavender så kontroversiellt och samtidigt så militärt betydelsefullt. Uppgifter från undersökande journalistik pekar på att systemet användes för att ta fram mycket stora mängder personbaserade mål i Gaza och att dessa mål i flera fall kunde gå vidare med begränsad mänsklig kontroll per individ. Om denna bild är korrekt innebär det att Lavender fungerade som en kraftmultiplikator, inte genom att förbättra precisionen i varje enskild bedömning, utan genom att kraftigt öka antalet behandlade mål. Sannolikt med lägre kvalitet i bedömning om det är ett kvalificerat mål eller ej.
Lavender verkar fungera som det första avgörande filtret i en större operativ kedja. Det identifierar vem som ska uppmärksammas. Därefter kan andra system användas för att spåra, lokalisera och välja rätt tidpunkt för verkan.
Det är avgörande att skilja mellan målidentifiering och målgenerering. Identifiering handlar om att upptäcka och klassificera objekt i data, medan målgenerering innebär att systemet själv föreslår vad som bör betraktas som ett legitimt mål. Lavender framstår som ett system som genererar mål där dessa mål är människor.
Where's Daddy
Where's Daddy är det system som i rapporteringen kopplats till spårning av redan identifierade individer. Om Lavender besvarar frågan vem som ska bekämpas, så besvarar Where's Daddy frågan när och var denna person befinner sig i ett läge där bekämpning kan ske.
Detta gör Where's Daddy till ett system för timing, lokalisering och operativ exploatering av måldata. I en modern killchain är detta avgörande. Att veta vem målet är räcker inte. För att verkan ska kunna genomföras krävs också kunskap om var målet befinner sig och när det är möjligt att slå ut målet.
Funktioner och logik
Where's Daddy verkar, enligt tillgängliga uppgifter, använda spår från telefoner, signaldata, sociala medier och andra former av positions- eller närvarodata för att följa målpersoner i realtid eller nära realtid.
Ett mål kan vara känt sedan tidigare, men om det inte går att lokalisera och tidssätta blir bekämpningen svår eller ineffektiv. Det gör att en identifierad person kan följas tills denne befinner sig på en plats där angrepp bedöms möjligt, lämpligt eller prioriterat.
Hur det används i verkligheten
Det som främst gjort Where's Daddy känt är uppgifter om att systemet använts för att identifiera när mål befunnit sig i sina hem. Om det stämmer innebär det att systemet inte bara används för klassisk militär lokalisering i fält, utan för att knyta targeting till vardagliga rörelsemönster och bostadsmiljöer. Detta är operativt effektivt eftersom det kan vara lättare att lokalisera en individ i bostaden. Samtidigt för det med sig mycket stora risker för civila skadeverkningar, eftersom hemmet sällan är en isolerad militär miljö.
The Gospel (Habsora)
The Gospel, eller Habsora, är det system som tydligast representerar Israels förmåga till storskalig målgenerering på objektsnivå. Där Lavender fokuserar på individer verkar Gospel vara inriktat på byggnader, infrastruktur, militärt materiel, uppskjutningsplatser, ledningsfunktioner och andra objekt som kan definieras som militära mål eller som påstås ha militär relevans.
Gospel är därmed i praktiken en målfabrik. Dess betydelse ligger i att öka hastigheten och volymen i målgenereringen. Detta gör systemet särskilt viktigt för att förstå hur Israel kunnat upprätthålla ett så pass högt tempo i Gaza, Iran och Libanon.
Funktioner och logik
The Gospel beskrivs som ett system som använder stora mängder underrättelser för att identifiera och prioritera mål. Det kan handla om signalspaning, historiska mönster, tidigare kända samband, geografiska indikatorer, övervakningsdata och annan information som tillsammans pekar ut byggnader, fordon eller platser.
Det centrala är att systemet inte bara visualiserar data. Det verkar producera konkreta målrekommendationer.
Hur det används i verkligheten
Flera uppgifter pekar på att systemet användes för att stödja en mycket hög målgenerering i Gaza, där antalet identifierade och angripna mål steg kraftigt jämfört med tidigare konflikter.
Israel använder inte bara AI för att förbättra precisionen i en befintlig process. De använder AI för att förändra frekvens och skala. Gospel är därför ett exempel på hur AI i militär verksamhet inte främst handlar om smartare algoritmer i abstrakt mening, utan om att göra jobbet snabbare.
Unit 8200
Unit 8200 motsvarar i grova drag signalspanings- och cyberfunktioner som återfinns hos flera andra länder, exempelvis NSA (USA), GCHQ (Storbritannien) och vårt eget FRA.
Det som särskiljer Unit 8200 är dock inte själva uppdraget, utan hur tätt den är integrerad i operativ militär verksamhet. Enheten ansvarar inte bara för insamling av signalspaning och metadata, utan fungerar också som en utvecklingsmiljö för analysmetoder, algoritmer och operativa verktyg.
Kärnbidraget är datadominans. Genom omfattande insamling av kommunikation, nätverk och digitala spår byggs en detaljerad bild av individer och relationer. Detta utgör grunden för system som Lavender, Where's Daddy och The Gospel.
Unit 8200 har pekats ut att ligga bakom (tillsammans med USA) Stuxnet som slog centrifugerna i Irans kärnanläggning i Natanz 2007-2009 (upptäcktes 2010 då Stuxnet spred ut i det publika och blev lite rörigt). De var även inblandade när personer inom Hizbollah slogs ut med sprängmedel i personsökare.
Moraliska utmaningar
Utan att överdriva är de moraliska aspekterna med Israels AI-system stora på en helt annan skala än t.ex Project Maven. Den centrala frågan är inte enbart om systemen gör rätt eller fel i enskilda fall, utan hur beslut om dödligt våld kan skalas upp när de i allt större utsträckning struktureras och accelereras av AI.
Tre centrala risker:
- Skalning av fel AI kan multiplicera misstag i stor skala
- Ansvarsglapp Svårt att avgöra vem som bär ansvar
- Människan som datapunkt Individer reduceras till sannolikhetsmodeller
När AI används för att generera, identifiera, klassificera och prioritera mål uppstår inte bara frågor om teknisk träffsäkerhet, utan om ansvar, proportionalitet och mänsklig kontroll. Detta gäller särskilt när systemen arbetar med sannolikheter, stora datamängder och hög operativ takt.
Det finns även uppgifter om att befäl inom IDF sänkt kraven för målgenerering för att öka antalet mål, vilket självklart ökar risken för målbekämpning av oskyldiga. Det finns även uppgifter om att operatörer lägger så kort tid som 20s på beslut om att gödkänna ett bekämpa mål som AI har genererat.
Det finns också en djupare moralisk fråga i att människor allt mer behandlas som datapunkter i ett statistiskt system. Där en traditionell process, åtminstone i teorin, bygger på individuell analys och relativt tydligt ansvar, riskerar ett AI-drivet system att göra själva urvalet mer abstrakt och mer opersonligt. Det är inte nödvändigtvis samma sak som att människan försvinner ur loopen, men det kan innebära att människans roll förändras från moraliskt omdöme till administrativ godkännandefunktion.
Det förekommer även uppgifter att beroende på hur viktigt ett mål är så finns angivet hur många civila som anses proportionerligt att döda för just det målet. Detta blir ytterst problematiskt när Israel kontinuerligt slår ut mål i bostadsområden. TV-sändingarna vi sett ger en tydlig indikation på att acceptansen för mängden döda civila är klart oproportionlig och knappast förenligt med krigets lagar eller internationell rätt.
Det är därför Israels system är så viktiga att analysera, inte bara som militära innovationer utan som ett testfall för framtidens krigföring. De visar både den militära effektiviteten i AI-drivna system och den stora risk som uppstår när tekniken gör det lättare att skala upp våld snabbare än den mänskliga prövningen hinner med.
Slutligen vill jag lyfta problematiken att när informationsbasen inför beslut om människoliv till så stor del tas fram av AI och människans roll i vissa fall reduceras till att godkänna eller avslå ett AI-genererat beslutsunderlag så kan man fundera över den emotionella kopplingen för operatören, finns det en förståelse för att "Approve" betyder att ett eller flera människoliv avslutas, även oskyldiga som collateral damage? Jämför detta med att fysiskt vara på fältet och ha en person i siktet och avgöra om man skall trycka av eller inte. Den emotionella förståelsen är sannolikt svår att jämföra för dessa två soldater.
Slutsatser
Israel har byggt en killchain där AI driver många steg fram till beslut, vilket förenklar beslutsprocessen och möjliggör en kraftig uppskalning av antalet mål. Detta är sannolikt en modell för framtida krigföring, men också en av de mest komplexa och kontroversiella utvecklingarna inom modern militär verksamhet.
Styrkor:
- tempo
- skala
- integration
Det tyder på att Israel har en mycket hög kapacitet att generera mål, när andra länders system främst fokuserar på att identifiera dem. Just detta möjliggör det tempo och den skala som också driver de moraliska utmaningarna.
Källor
För den som vill läsa vidare följer här ett urval av centrala källor. Beakta dock att det finns ytterst lite information som är bekräftad, mycket är baserat på undersökande journalistik.
Israeliska AI-system och targeting
- The Gospel: how Israel uses AI to select bombing targets in Gaza (The Guardian)
- Lavender: The AI machine directing Israel’s bombing campaign in Gaza (+972 Magazine)
- Israeli Military’s Use of Digital Tools in Gaza
- The machine did it coldly: Israel used AI to identify 37,000 Hamas targets (The Guardian)
- Why human agency is still central to Israel’s AI-powered targeting system in Gaza (+972 Magazine)
- ‘A mass assassination factory’: Inside Israel’s calculated bombing campaign in Gaza (+972 Magazine)
Unit 8200
- What is Israel’s secretive cyber warfare unit 8200? (Reuters)
- Hezbollah pager attack puts spotlight on Israel’s cyber warfare Unit 8200 (Reuters)
- Unit 8200 and Stuxnet: A cyber weapon that changed warfare (Columbia SIPA, K1 Project)
- The Stuxnet worm (Britannica)
Fördjupning om etik och tillämpning