Israel bruker kunstig intelligens (KI) til å automatisere drapslister og finne og massakrere Hamas-krigere og deres familier.
Det avslører det israelsk-palestinske gravenettstedet +972, basert på intervjuer med seks kilder i den israelske etterretningstjenesten.
Først finner og identifiserer KI-programmet «Lavender» det programmet mener er Hamas-krigere.
Annonse
Deretter bruker Israels militære (IDF) programmet «Where’s Daddy?» til å identifisere når Hamas-krigere entrer sine familiehjem, før bygningen angripes.
Angrepet skjer oftest om natta, mens den mistenkte Hamas-krigeren og familien sover, ifølge +972.
«IDF bombet dem i hjemmene sine uten å nøle, som et førstevalg. Det er mye lettere å bombe en families hjem. Systemet leter etter dem i slike situasjoner», sier en av kildene til nettstedet.
Ifølge de israelske kildene er resultatet av KI-programmets avgjørelser at «tusenvis av palestinere – de fleste kvinner og barn eller menn som ikke deltok i kamper – ble utslettet av israelske luftangrep, særlig i løpet av krigens første uker».
Antallet mål eksploderte
En framtid der roboter velger hvem som skal leve og hvem som skal dø, har lenge blitt løftet fram som et skremselsscenario med tanke på utviklingen av kunstig intelligens.
Avsløringen til +972 viser at en slik framtid allerede er her, i Gaza.
Før Hamas-angrepet 7. oktober tillot IDFs egne regler kun at høytstående Hamas-kommandanter kunne angripes i sine hjem. En slik identifiseringsprosess ble dessuten gjort av mennesker.
Men etter 7. oktober fjernet IDF disse begrensningene. Nå kunne alle Hamas-militante angripes i sine hjem, også de laverestående.
Dermed eksploderte lista over mulige mål. Og derfor ble det omfattende identifiseringsarbeidet flyttet fra mennesker til kunstig intelligens.
Automatiserer drapslister
Lavender baserer seg på masseovervåking av Gazas befolkning og benytter seg av enorme mengder digitale data – fra telefoner og nettrafikk – til å identifisere og lokalisere Hamas-krigere.
KI-programmet rangerer deretter innbyggerne etter hvor stor sannsynligheten er for at den enkelte er aktiv i Hamas eller Islamsk jihad, på en skala fra 1 til 100.
Ifølge fire av +972s kilder har Lavender-programmet på denne måten plassert rundt 37.000 palestinere på en drapsliste, som mistenkte for å være Hamas-krigere.
Annonse
IDF benekter at en slik liste eksisterer.
Tillater drap på 100 sivile
Ifølge avsløringen endret IDF reglene for «utilsiktet skade» etter 7. oktober. I løpet av krigens første uker bestemte IDF at nå kunne 15 til 20 sivile drepes for hver eneste lavtstående Hamas-kriger Lavender finner.
For høytstående Hamas-kommandanter er tallet 100 sivile.
Ifølge +972, som også tidligere har kommet med avsløringer om hvordan Israel bruker kunstig intelligens i sin krigføring, ble Lavender-programmet før 7. oktober «kun brukt som et hjelpeverktøy», som ble ledsaget av menneskelig, manuell dobbeltsjekking.
«IDF bombet dem i hjemmene sine uten å nøle, som et førstevalg.»
— Israelsk etterretningskilde til nettstedet +972
Men om lag to uker inn i krigen, etter at en kartlegging viste at Lavender hadde «90 prosent nøyaktighet når det gjaldt å identifisere en persons tilknytning til Hamas», rullet IDF ut en automatisk og omfattende bruk av programmet.
Annonse
Dette på tross av å vite at programmet gjør feil i rundt ti prosent av tilfellene.
«Søppelmål»
En av gravenettstedets kilder sier at menneskelig personell etter utrullingen av Lavender-programmet kun fungerer som et «godkjentstempel» – og i snitt bare bruker 20 sekunder på å vurdere et mål før bombingen autoriseres.
Disse sekundene går ifølge kilden bare med til å «forsikre seg om at målet er en mann».
Gravenettstedet har også intervjuet en kilde som kalles «B». Kilden forteller hvordan bruken av KI-teknologien fungerte i praksis.
«Klokka fem om morgenen ville luftforsvaret komme og bombe alle husene vi hadde merket», forklarer «B».
«Vi tok ut tusenvis av mennesker. Vi gikk ikke gjennom dem én etter én – vi satte alt inn i automatiserte systemer, og så snart en av [de merkede personene] var hjemme, ble han umiddelbart et mål. Vi bombet ham og huset hans», forteller kilden til +972.
En annen kilde forteller at vedkommende reagerte på å bli «bedt om å bombe et hus for å drepe en bakkesoldat, hvis betydning i kampene var så lav».
«Jeg kalte disse målene for ‘søppelmål’», sier kilden om bruken av KI for å markere angivelige lavtstående Hamas-militante.
Bak avsløringen står journalisten Yuval Abraham, som også er filmskaperen bak den mye omtalte og prisbelønte dokumentaren «No Other Land».
Da avsløringen i +972 ble publisert i går, skrev Abraham på X at kildene i saken, som han kaller varslere, «avslører en rekke maskiner og retningslinjer som har drept tusenvis av sivile siden oktober».