Enorme sivile tap reiser tvil om Israels KI-bruk i Gaza
De israelske angrepene på Gazastripen har ført til enorme sivile tap. Det reiser tvil om bruken av KI i utvelgelse av bombemål.
Over 30.000 mennesker er ifølge palestinske helsemyndigheter drept og 72.000 såret i israelske angrep mot Gaza siden oktober, og det store flertallet av ofrene er kvinner og barn.
Israel hevder på sin side å ha drept minst 13.000 militante palestinere i angrepene.
En talsmann for den israelske hæren bekreftet i november at det ble benyttet kunstig intelligens (KI) i utvelgelse av bombemål.
– Automatiserte verktøy gir oss mulighet til å utpeke mål i rask takt, og det gir oss nøyaktig etterretningsmateriale av høy kvalitet i henhold til de operative behovene, opplyste talsmannen på hærens hjemmeside.
Israels tidligere forsvarssjef Aviv Kochavi har også bekreftet at israelske styrker benyttet KI-systemer som utpeker 100 nye bombemål daglig.
– Tidligere kunne vi bare utpeke 50 bombemål årlig i Gaza, sa han i et intervju med den israelske nettavisen YnetNews i fjor.
Reiser spørsmål
Det store antallet sivile ofre i Gaza gir god grunn til å reise spørsmål ved slik bruk av KI, mener eksperter.
– Enten så er KI så bra som påstått, og den israelske hæren lukker øynene for sivile tap, eller så er KI ikke så bra som det blir hevdet, sier Toby Walsh. Han er sjefforsker ved KI-instituttet ved New South Wales-universitetet i Australia.
Ifølge FNs nødhjelpskontor (OCHA) er 360.000 boliger i Gaza helt eller delvis ødelagt i angrep siden oktober, og mye sivil infrastruktur er bombet.
Israel fastholder at det kun er militære mål som blir angrepet, og den israelske hæren vil overfor AFP ikke kommentere bruken av KI til målutvelgelse.
Fabrikk for massedrap
Den israelske nettavisen +972 publiserte i november en omfattende reportasje om hærens bruk av KI i Gaza, blant annet basert på intervjuer med en rekke nåværende og tidligere etterretningsfolk.
Ifølge avisens kilder benytter Israel et system som kalles Habsora, som i stor grad er basert på KI og som utpeker nye mål langt raskere enn det som tidligere lot seg gjøre.
Habsora-systemet plukker lynraskt ut boliger der det angivelig bor Hamas-medlemmer, men øyenvitner i Gaza forteller at Israel også ofte bomber hus der det verken bor Hamas-folk eller har vært tegn til militær aktivitet.
En tidligere israelsk etterretningsoffiser beskriver overfor +972 systemet som «en fabrikk for massedrap».
Tvilsomme data
Flere eksperter forteller til AFP at den israelske hæren trolig forer Habsora-systemet med opptak fra droner, innlegg i sosiale medier, opplysninger fra spioner på bakken, posisjonen til mobiltelefoner og annen informasjon.
Straks systemet har identifisert et mål, kan det analysere befolkningsdata fra området for å vurdere omfanget av sivile tap ved et eventuelt angrep.
Teorien om at mengden av data resulterer i mer nøyaktig målutvelgelse, stemmer ikke, mener professor Lucy Suchman ved Lancaster-universitetet.
Algoritmer er opplært til å finne mønstre i data som samsvarer med forhåndsvalgte parametere, og ett slikt parameter i Gaza er mulig tilknytning til Hamas, sier hun.
Ethvert mønster som samsvarer med et tidligere identifisert mål, vil resultere i nye mål. Det innebærer imidlertid at det trekkes tvilsomme konklusjoner og at feil kan bli mangedoblet, forklarer Suchman.
– Tvilsomme data resulterer med andre ord i et tvilsomt system, sier hun.
Lenge benyttet
Første gang Israel tok i bruk KI for å velge bombemål, var under den elleve dager lange krigen på Gazastripen i 2021. Den krigen ble av israelske offiserer i ettertid døpt til «verdens første KI-krig».
Israel var imidlertid ikke de første til å ta i bruk automatiserte systemer for å plukke bombemål, noe USA eksperimenterte med alt under den første Golfkrigen i 1990–91.
Under Natos krig mot serbiske styrker i Kosovo i 1999 ble det også benyttet algoritmer for å kalkulere faren for sivile tap ved bombing, og Pentagon hyret dataselskapet Palantir som bidro med tilsvarende ekspertise i Afghanistan.
Ikke god nok
Tilhengere av slik KI-bruk hevder at teknologien vil bidra til å redusere sivile tap, men enkelte militæranalytikere er skeptiske og mener at den ennå ikke er god nok.
Noah Sylvia påpekte nylig i et innlegg på bloggen til den britiske tankesmia Royal United Services Institute at informasjon som genereres ved hjelp av KI, fortsatt må dobbeltsjekkes.
– Det israelske forsvaret er en av de mest teknologisk avanserte og integrerte militærstyrker i verden, skriver Sylvia.
– Men selv ikke de greier å bruke KI på en tilstrekkelig sofistikert og autonom måte, konkluderer han.