Apr 21, 2026

Hur Israel använder AI för att generera mål i krig

Israel har utvecklat ett av världens mest avancerade AI-drivna system där identifiering, målgenerering och operativ verkan är tätt integrerade i en sammanhängande kedja. De primära systemen heter Lavender, Where's Daddy och The Gospel. Allt baseras på datadominans och elitenheten Unit 8200.

israels pipeline för killchain med Lavender, Who's Daddy och Gospel

Israels förmåga att samla in, bearbeta och omsätta underrättelser i operativ effekt är känd och beryktad. Israel har i praktiken utvecklat ett operativt AI-ekosystem där flera system tillsammans fyller ungefär samma område som USAs Project Maven och Ukrainska Delta, men med en tydligare tyngdpunkt på automatiserad målgenerering och hög operativ takt.

Kortfattat: Vad gör dessa system?

  • Vem (individer) - Lavender
  • Vad (objekt) - The Gospel
  • När (tid & plats) - Where's Daddy

Generellt arbetar AI-verktyg inom området enligt en process liknande nedan: Sensor → AI (identifiera objekt) → analys → beslut (människa) → verkan.

Israels process framstår snarare som: Sensor → AI (identifiering) → AI (generering) → AI (prioritering) → beslut → verkan

Det är tre stora skillnader:

  1. Mängden måldata som ges till AI är betydligt bredare och fokus på individnivå
  2. AI i hela kedjan
  3. Rapportering indikerar att den mänskliga granskningen i vissa fall kan vara mycket begränsad i tid, i vissa uppgifter endast sekunder per beslut

Personlig moralisk reflektion

Vill lägga in en liten brasklapp tidigt. Hur imponerande kraftfulla systemen än är kan jag inte gå vidare utan att vara tydlig med att det hos mig triggar starka moraliska tveksamheter i Israels agerande.

Det som framträder är en modell där att döda människor i stor skala framstår som lösningen för att uppnå strategiska mål, snarare än att hitta vägar som minimerar mänskligt lidande för att nå målen. Det för onekligen tankarna till andra tillfällen i historien där denna typ av agerande har skett.

Även tolkningen av krigets lagar och speciellt proportionalitet känns inte på något sätt balanserat eller korrekt.

Bakgrund

Israels modell vilar på fyra tydliga principer:

  • Datadominans Massiv signalspaning, metadata och sensordata utgör grunden.
  • AI i kärnan av processen AI används inte som stöd, utan som aktiv del i målgenerering.
  • Industrialiserad targeting Fokus på volym och tempo, inte enbart precision.
  • Modulär arkitektur Flera system som tillsammans bildar en operativ helhet.

Den första pelaren är datadominans. Israel har under lång tid byggt mycket starka förmågor inom signalspaning och datadriven underrättelsetjänst, inte minst genom enheter som Unit 8200. Detta ger tillgång till en mycket bred databas av kommunikationsmönster, metadata, nätverk, telefontrafik, elektroniska signaturer och andra indikatorer som kan användas för att identifiera mönster, relationer och misstänkta aktiviteter. Utan denna databas hade de mer avancerade AI-systemen inte haft samma operativa värde.

Den andra pelaren är underrättelseintegration. I många militära system finns en organisatorisk och teknisk tröghet mellan insamling, analys och verkan. Israels modell verkar i hög grad vara utformad för att minska denna tröghet. Målet är inte bara att förstå slagfältet, utan att snabbare än motståndaren omsätta information till handling. Här märks en tydlig skillnad mot mer traditionella militära organisationer där varje steg i processen är mer avgränsat och där mänskliga stabssystem ofta är den huvudsakliga flaskhalsen.

Den tredje pelaren är hög operativ takt. Flera källor beskriver hur Israel under de senaste åren utvecklat förmågan att producera mål i mycket större skala än tidigare. Detta gäller både i tidigare operationer och särskilt i Gaza. Det centrala värdet i systemen är inte bara att hitta rätt mål, utan att göra det i större volym, snabbare och under högre tempo än vad en traditionell underrättelseprocess medger. Det innebär att systemens verkliga styrka ligger lika mycket i kapacitet och genomströmning som i ren precision.

Den fjärde pelaren är teknisk modularitet. Israel tycks inte ha valt en modell där hela denna förmåga paketeras i ett enda, tydligt och offentligt system. I stället är förmågan uppbyggd av flera system som var och en har en specifik funktion. Denna modularitet ger sannolikt både större robusthet och större flexibilitet. Ett system kan arbeta med individklassificering, ett annat med objektmål, ett tredje med spårning, och ytterligare system med ledning, sensorfusion eller vapenkoppling. Resultatet blir ett system av system snarare än en monolitisk plattform.

Det gör också att Israels modell i praktiken ligger närmare ett operativt AI-ekosystem än en renodlad programvara. Den bör därför förstås som en arkitektur för modern krigföring snarare än som en applikation i traditionell mening.

Israels AI-system

Sammanfattar först i en enkel tabell.

FunktionSystemRoll
IndivididentifieringLavenderKlassificerar människor som mål
Målgenerering (objekt)The GospelGenererar mål (objekt, byggnader)
Spårning & timingWhere's DaddyAvgör när/var mål går att angripa

I ena änden finns system som arbetar med att identifiera individer, nätverk och misstänkta operatörer utifrån signalspaning, metadata, relationer och mönster i stora datamängder. Där är Lavender det tydligaste exemplet. Det beskrivs som ett system som hjälper till att klassificera individer och generera stora mängder personbaserad data.

I nästa led finns system som kopplar identifierade mål till en konkret tid och plats. Where's Daddy fyller denna funktion. Den funktion som tillskrivs systemet är inte i första hand att avgöra vem som är mål, utan att följa ett redan identifierat mål och avgöra när personen befinner sig på en plats där personen kan slås ut.

Samtidigt finns system för målgenerering på objektsnivå. Det mest omtalade är The Gospel, eller Habsora. Det är i praktiken ett system för att generera mål på basis av stora mängder underrättelser, särskilt byggnader, infrastruktur och andra objekt som bedöms ha operativ relevans. Där Lavender handlar om individer och Where's Daddy om timing, handlar Gospel om att skala upp själva produktionen av mål.

Ovanpå detta finns Israels bredare system för sensorer, signalspaning, drönare, flygvapenledning, luftförsvar, stridsledning och operativ ledning. Dessa system utgör inte nödvändigtvis samma typ av offentlig, namngiven digital plattform som Ukrainas Delta, men funktionellt fyller de en liknande roll genom att sammanföra lägesbild, måldata, prioritering och verkan.

Det är integration som gör deras förmåga så betydande. De bildar en killchain där data från sensorer och signalspaning kan omvandlas till analys, där analysen identifierar och genererar mål, som därefter förses med tid och plats för att sedan på den platsen omsättas i verkan genom flyg, drönare eller andra plattformar.

Lavender

Lavender är det mest omtalade systemet på individnivå. Det beskrivs som ett AI- eller maskininlärningsbaserat system som används för att identifiera, klassificera och prioritera individer som misstänks ha koppling till Hamas eller Palestinska Islamiska Jihad. Om dessa beskrivningar stämmer i huvudsak fungerar Lavender som en algoritmisk motor för personbaserad targeting, där stora mängder data används för att tilldela individer en sannolikhetsbaserad status som potentiellt legitimt mål.

Lavender är därmed inte främst ett system för att skapa en generell lägesbild, och inte heller primärt ett system för att styra själva verkan. Dess kärnfunktion verkar vara att göra det möjligt att på mycket kort tid gå igenom enorma datamängder och producera stora volymer av personrelaterade målunderlag.

Funktioner och logik

Det centrala med Lavender är att systemet verkar arbeta med mönster och sannolikheter snarare än säker identifiering i varje enskilt fall. Det ska, enligt rapporteringen, väga samman en rad olika indikatorer, exempelvis kommunikationsmönster, grupptillhörighet, metadata, relationer till andra misstänkta individer och andra digitala eller signalbaserade spår. På så sätt skapas en klassificering där personer får en viss sannolikhetsbedömning som sedan kan ligga till grund för vidare operativ behandling.

Detta innebär att Lavender inte i första hand är en klassisk databas där människor manuellt listas efter säker identifikation. Det som gör systemet militärt betydelsefullt är att det verkar kunna arbeta i mycket stor skala. Där en mänsklig analyskedja skulle ta lång tid att bygga upp samma mängd personunderlag kan Lavender, om uppgifterna stämmer, generera stora mängder kandidater under kort tid.

Det är också just här systemets logik skiljer sig från mer traditionell underrättelsetjänst. En traditionell process försöker ofta nå så hög grad av individuell säkerhet som möjligt innan en person klassas som legitimt mål. Ett system som Lavender verkar i stället flytta tyngdpunkten mot statistisk sannolikhet och mönsterigenkänning. Det behöver inte innebära att mänsklig kontroll försvinner, men det förändrar karaktären på mänsklig kontroll. Människan går från att själv bygga målet till att i högre grad granska eller godkänna ett systemgenererat förslag.

Hur det används i verkligheten

I praktiken är det just denna förmåga till massklassificering som gör Lavender så kontroversiellt och samtidigt så militärt betydelsefullt. Uppgifter från undersökande journalistik pekar på att systemet användes för att ta fram mycket stora mängder personbaserade mål i Gaza, och att dessa mål i flera fall kunde gå vidare med begränsad mänsklig kontroll per individ. Om denna bild är korrekt innebär det att Lavender fungerade som en kraftmultiplikator för israelisk targeting, inte genom att förbättra precisionen i varje enskild bedömning, utan genom att kraftigt öka antalet behandlade mål.

Lavender verkar fungera som det första avgörande filtret i en större operativ kedja. Det identifierar vem som ska uppmärksammas. Därefter kan andra system användas för att spåra, lokalisera och välja rätt tidpunkt för verkan.

Det är avgörande att skilja mellan målidentifiering och målgenerering. Identifiering handlar om att upptäcka och klassificera objekt i data, medan målgenerering innebär att systemet själv föreslår vad som bör betraktas som ett legitimt mål. Lavender framstår som ett system som genererar mål där dessa mål är människor.

Where's Daddy

Where's Daddy är det system som i rapporteringen kopplats till spårning av redan identifierade individer. Om Lavender besvarar frågan vem som ska granskas eller bekämpas, så verkar Where's Daddy besvara frågan när och var denna person befinner sig i ett läge där verkan kan genomföras. Systemets roll är därmed inte att i första hand definiera hotet, utan att operationalisera ett redan definierat mål.

Detta gör Where's Daddy till ett system för timing, lokalisering och operativ exploatering av måldata. I en modern killchain är detta avgörande. Att veta vem målet är räcker inte. För att verkan ska kunna genomföras krävs också kunskap om var målet befinner sig och när det är möjligt att slå ut målet.

Funktioner och logik

Where's Daddy verkar, enligt tillgängliga uppgifter, använda spår från telefoner, signaldata och andra former av positions- eller närvarodata för att följa målpersoner i realtid eller nära realtid. Det handlar inte nödvändigtvis om kontinuerlig GPS-spårning i civil mening, utan om att systematiskt koppla olika typer av digitala spår till fysisk plats och tid.

Den militära poängen med detta är mycket stor. Ett mål kan vara känt sedan tidigare, men om det inte går att lokalisera och tidssätta blir bekämpningen svår eller ineffektiv. Ett system som Where's Daddy omvandlar ett statiskt målunderlag till ett handlingsbart operativt mål. Det gör att en identifierad person kan följas tills denne befinner sig på en plats där angrepp bedöms möjligt, lämpligt eller prioriterat.

Detta innebär också att Where's Daddy i praktiken är ett bryggsystem mellan underrättelse och verkan. Det förbinder datamodellen om individen med den konkreta verkligheten på marken. Det är inte bara ett analysverktyg utan ett operativt verktyg.

Hur det används i verkligheten

Det som främst gjort Where's Daddy känt är uppgifter om att systemet använts för att identifiera när mål befunnit sig i sina hem. Om det stämmer innebär det att systemet inte bara används för klassisk militär lokalisering i fält, utan för att knyta targeting till vardagliga rörelsemönster och bostadsmiljöer. Detta är operativt effektivt eftersom det kan vara lättare att lokalisera en individ i bostaden. Samtidigt för det med sig mycket stora risker för civila skadeverkningar, eftersom hemmet sällan är en isolerad militär miljö.

The Gospel (Habsora)

The Gospel, eller Habsora, är det system som tydligast representerar Israels förmåga till storskalig målgenerering på objektsnivå. Där Lavender fokuserar på individer verkar Gospel vara inriktat på byggnader, infrastruktur, militära noder, uppskjutningsplatser, ledningsfunktioner och andra objekt som kan definieras som militära mål eller som påstås ha militär relevans.

Gospel är därmed i praktiken en målfabrik. Dess betydelse ligger inte bara i att det hjälper analytiker att hitta mål, utan i att det enligt rapportering tycks öka hastigheten och volymen i målgenereringen. Detta gör systemet särskilt viktigt för att förstå hur Israel kunnat upprätthålla ett så pass högt tempo i Gaza, Iran och Libanon.

Funktioner och logik

The Gospel beskrivs som ett system som använder stora mängder underrättelser för att identifiera och prioritera mål. Det kan handla om signalspaning, historiska mönster, tidigare kända samband, geografiska indikatorer, övervakningsdata och annan information som tillsammans pekar ut byggnader eller platser med antagen operativ betydelse.

Det centrala är att systemet inte bara visualiserar data. Det verkar producera konkreta målrekommendationer. Därmed flyttar det inte bara analysen framåt, utan också själva målskapandet. Om ett traditionellt underrättelsesystem hjälper analytikern att förstå slagfältet, så hjälper Gospel i högre grad till att fylla listan över vad som kan bekämpas.

Detta är operativt mycket betydelsefullt. Tidigare har ett av de största hindren i luftkrigföring ofta varit att hitta tillräckligt många relevanta mål i tillräckligt hög takt. Om ett system kan öka målgenereringen från tiotals eller ett mindre antal per år till stora mängder per dag förändrar det själva logiken i luftoperationerna. Då blir tillgången på mål mindre av en begränsning, och andra faktorer, tillgång till plattformar, ammunition, politisk vilja eller skadebedömning, blir viktigare.

Hur det används i verkligheten

Det är i verklig användning som Gospel får sin fulla betydelse. Flera uppgifter pekar på att systemet användes för att stödja en mycket hög målgenerering i Gaza, där antalet identifierade och angripna mål steg kraftigt jämfört med tidigare konflikter. Det gör att Gospel inte bör förstås som ett experimentellt analysverktyg. Systemet verkar ha varit en central del av den operativa targeting-arkitekturen.

Detta visar också att Israel inte bara använder AI för att förbättra precisionen i en befintlig process. De använder AI för att förändra processens skala. Gospel är därför ett exempel på hur AI i militär verksamhet inte främst handlar om smartare algoritmer i abstrakt mening, utan om att göra våldsutövning snabbare, mer uthållig och mer industriellt genomförbar.

Unit 8200

För att förstå Israels AI-drivna system är Unit 8200 central. Enheten motsvarar i grova drag signalspanings- och cyberfunktioner som återfinns hos flera andra länder, exempelvis NSA (USA), GCHQ (Storbritannien) och vårt eget FRA.

Det som särskiljer Unit 8200 är dock inte själva uppdraget, utan hur tätt den är integrerad i operativ militär verksamhet. Enheten ansvarar inte bara för insamling av signalspaning och metadata, utan fungerar också som en utvecklingsmiljö för analysmetoder, algoritmer och operativa verktyg.

Kärnbidraget är datadominans. Genom omfattande insamling av kommunikation, nätverk och digitala spår byggs en detaljerad bild av individer och relationer. Detta utgör grunden för system som Lavender, Where's Daddy och The Gospel, och möjliggör den målgenerering i hög skala och takt som beskrivs i texten.

Den avgörande skillnaden mot många andra länder ligger i integrationsgraden. Där underrättelsetjänst och operativ verksamhet ofta är separerade, verkar Israels modell minimera denna friktion. Teknik, analys och verkan utvecklas tillsammans, vilket möjliggör snabb implementering och kontinuerlig återkoppling.

Resultatet är en sluten kedja där data samlas in, analyseras, används operativt och sedan förbättrar nästa iteration. Det är denna cykel som gör att Israels targeting-system kan fungera i hög skala och takt.

Unit 8200 har pekats ut att ligga bakom (tillsammans med USA) Stuxnet som slog centrifugerna i Irans kärnanläggning i Natanz 2007-2009 (upptäcktes 2010 då Stuxnet spred ut i det publika och blev lite rörigt). De var även inblandade när personer inom Hizbollah slogs ut med sprängmedel i personsökare.

Moraliska utmaningar

Utan att överdriva är de moraliska aspekterna med Israels AI-system stora på en helt annan skala än t.ex Project Maven. Den centrala frågan är inte enbart om systemen gör rätt eller fel i enskilda fall, utan hur beslut om dödligt våld kan skalas upp när de i allt större utsträckning struktureras och accelereras av AI.

Tre centrala risker:

  1. Skalning av fel AI kan multiplicera misstag i stor skala
  2. Ansvarsglapp Svårt att avgöra vem som bär ansvar
  3. Människan som datapunkt Individer reduceras till sannolikhetsmodeller

När AI används för att generera, identifiera, klassificera och prioritera mål uppstår inte bara frågor om teknisk träffsäkerhet, utan om ansvar, proportionalitet, distinktion och mänsklig kontroll. Detta gäller särskilt när systemen arbetar med sannolikheter, stora datamängder och hög operativ takt.

Problemet är inte enbart att systemen kan ha fel. Alla militära system kan ha fel. Det verkligt allvarliga är att fel i ett sådant system kan skalas upp mycket snabbt. En mänsklig analytiker som gör ett misstag gör fel i ett målunderlag. Ett system som arbetar i stor skala riskerar att multiplicera samma typ av fel över stora mängder mål.

Det finns även uppgifter om att befäl inom IDF sänkt kraven för målgenerering för att öka antalet mål, vilket självklart ökar risken för målbekämpning av oskyldiga.

Därtill uppstår ett ansvarsglapp. När en individ väljs ut genom ett system som bygger på statistiska samband och när en annan del av kedjan avgör när denna individ är bekämpningsbar, blir frågan om vem som egentligen bar det avgörande ansvaret svårare att besvara. Var det analytikern, operatören, chefen, systemutvecklaren eller den institution som utformade processen? Det blir särskilt problematiskt i väpnade konflikter där folkrättens krav på distinktion och proportionalitet är centrala.

Det finns också en djupare moralisk fråga i att människor allt mer behandlas som datapunkter i ett statistiskt system. Där en traditionell process, åtminstone i teorin, bygger på individuell analys och relativt tydligt ansvar, riskerar ett AI-drivet system att göra själva urvalet mer abstrakt och mer opersonligt. Det är inte nödvändigtvis samma sak som att människan försvinner ur loopen, men det kan innebära att människans roll förändras från moraliskt omdöme till administrativ godkännandefunktion.

Det är därför Israels system är så viktiga att analysera, inte bara som militära innovationer utan som ett testfall för framtidens krigföring. De visar både den militära effektiviteten i AI-drivna system och den stora risk som uppstår när tekniken gör det lättare att skala upp våld snabbare än den mänskliga prövningen hinner med.

Slutligen vill jag lyfta problematiken att när informationsbasen inför beslut om människoliv till så stor del tas fram av AI och människans roll i vissa fall reduceras till att godkänna eller avslå ett systemgenererat beslutsunderlag så kan man fundera över den emotionella kopplingen för operatören, finns det en förståelse för att "Approve" betyder att ett eller flera människoliv avslutas, även oskyldiga som collateral damage? Jämför detta med att fysiskt vara på fältet och ha en person i siktet och avgöra om man skall trycka av eller inte. Den emotionella förståelsen är sannolikt svår att jämföra för dessa två soldater.

Slutsatser

Israel har byggt en killchain där AI driver många steg fram till beslut, vilket förenklar beslutsprocessen och möjliggör en kraftig uppskalning av antalet mål. Detta är sannolikt en modell för framtida krigföring, men också en av de mest komplexa och kontroversiella utvecklingarna inom modern militär verksamhet.

Styrkor:

  • tempo
  • skala
  • integration

Det tyder på att Israel har en mycket hög kapacitet att generera mål, när andra länders system främst fokuserar på att identifiera dem. Just detta möjliggör det tempo och den skala som också driver de moraliska utmaningarna.

Källor

För den som vill läsa vidare följer här ett urval av centrala källor. Beakta dock att det finns ytterst lite information som är bekräftad, mycket är baserat på undersökande journalistik.

Israeliska AI-system och targeting

Unit 8200

Fördjupning om etik och tillämpning


© 2026 Fredrik Stenbeck.