Ken Jackson har delt denne artikkelen med deg.

Ken Jackson har delt denne artikkelen

Bli abonnent

Ny, omfattende avsløring viser at Israel bruker kunstig intelligens til å drepe hele familier på Gaza.

Familier drepes med KI

RESTER ETTER ET HJEM: Palestinske barn følger med når en mann leter i ruinene til et hus som ble bombet i Rafah sør på Gazastripa 3. mars. Kort tid etter 7. oktober startet Israel å «outsource» identifiseringen av Hamas-krigere og godkjenningen av å bombe dem – hjemme med sine familier – har gravenettstedet +972 avslørt. Foto: Said Khatibd, AFP/NTB

Israel bruker kunstig intelligens (KI) til å automatisere drapslister og finne og massakrere Hamas-krigere og deres familier.

Det avslører det israelsk-palestinske gravenettstedet +972, basert på intervjuer med seks kilder i den israelske etterretningstjenesten.

Først finner og identifiserer KI-programmet «Lavender» det programmet mener er Hamas-krigere.

Deretter bruker Israels militære (IDF) programmet «Where’s Daddy?» til å identifisere når Hamas-krigere entrer sine familiehjem, før bygningen angripes.

Angrepet skjer oftest om natta, mens den mistenkte Hamas-krigeren og familien sover, ifølge +972.

«IDF bombet dem i hjemmene sine uten å nøle, som et førstevalg. Det er mye lettere å bombe en families hjem. Systemet leter etter dem i slike situasjoner», sier en av kildene til nettstedet.

Ifølge de israelske kildene er resultatet av KI-programmets avgjørelser at «tusenvis av palestinere – de fleste kvinner og barn eller menn som ikke deltok i kamper – ble utslettet av israelske luftangrep, særlig i løpet av krigens første uker».

Antallet mål eksploderte

En framtid der roboter velger hvem som skal leve og hvem som skal dø, har lenge blitt løftet fram som et skremselsscenario med tanke på utviklingen av kunstig intelligens.

Avsløringen til +972 viser at en slik framtid allerede er her, i Gaza.

Før Hamas-angrepet 7. oktober tillot IDFs egne regler kun at høytstående Hamas-kommandanter kunne angripes i sine hjem. En slik identifiseringsprosess ble dessuten gjort av mennesker.

Men etter 7. oktober fjernet IDF disse begrensningene. Nå kunne alle Hamas-militante angripes i sine hjem, også de laverestående.

Dermed eksploderte lista over mulige mål. Og derfor ble det omfattende identifiseringsarbeidet flyttet fra mennesker til kunstig intelligens.

Automatiserer drapslister

Lavender baserer seg på masseovervåking av Gazas befolkning og benytter seg av enorme mengder digitale data – fra telefoner og nettrafikk – til å identifisere og lokalisere Hamas-krigere.

KI-programmet rangerer deretter innbyggerne etter hvor stor sannsynligheten er for at den enkelte er aktiv i Hamas eller Islamsk jihad, på en skala fra 1 til 100.

Ifølge fire av +972s kilder har Lavender-programmet på denne måten plassert rundt 37.000 palestinere på en drapsliste, som mistenkte for å være Hamas-krigere.

IDF benekter at en slik liste eksisterer.

Tillater drap på 100 sivile

Ifølge avsløringen endret IDF reglene for «utilsiktet skade» etter 7. oktober. I løpet av krigens første uker bestemte IDF at nå kunne 15 til 20 sivile drepes for hver eneste lavtstående Hamas-kriger Lavender finner.

For høytstående Hamas-kommandanter er tallet 100 sivile.

Ifølge +972, som også tidligere har kommet med avsløringer om hvordan Israel bruker kunstig intelligens i sin krigføring, ble Lavender-programmet før 7. oktober «kun brukt som et hjelpeverktøy», som ble ledsaget av menneskelig, manuell dobbeltsjekking.

Men om lag to uker inn i krigen, etter at en kartlegging viste at Lavender hadde «90 prosent nøyaktighet når det gjaldt å identifisere en persons tilknytning til Hamas», rullet IDF ut en automatisk og omfattende bruk av programmet.

Dette på tross av å vite at programmet gjør feil i rundt ti prosent av tilfellene.

«Søppelmål»

En av gravenettstedets kilder sier at menneskelig personell etter utrullingen av Lavender-programmet kun fungerer som et «godkjentstempel» – og i snitt bare bruker 20 sekunder på å vurdere et mål før bombingen autoriseres.

Disse sekundene går ifølge kilden bare med til å «forsikre seg om at målet er en mann».

Gravenettstedet har også intervjuet en kilde som kalles «B». Kilden forteller hvordan bruken av KI-teknologien fungerte i praksis.

«Klokka fem om morgenen ville luftforsvaret komme og bombe alle husene vi hadde merket», forklarer «B».

«Vi tok ut tusenvis av mennesker. Vi gikk ikke gjennom dem én etter én – vi satte alt inn i automatiserte systemer, og så snart en av [de merkede personene] var hjemme, ble han umiddelbart et mål. Vi bombet ham og huset hans», forteller kilden til +972.

En annen kilde forteller at vedkommende reagerte på å bli «bedt om å bombe et hus for å drepe en bakkesoldat, hvis betydning i kampene var så lav».

«Jeg kalte disse målene for ‘søppelmål’», sier kilden om bruken av KI for å markere angivelige lavtstående Hamas-militante.

Bak avsløringen står journalisten Yuval Abraham, som også er filmskaperen bak den mye omtalte og prisbelønte dokumentaren «No Other Land».

Da avsløringen i +972 ble publisert i går, skrev Abraham på X at kildene i saken, som han kaller varslere, «avslører en rekke maskiner og retningslinjer som har drept tusenvis av sivile siden oktober».

Dette får du

  • Nye perspektiver

    Journalistene våre gir deg analyser og vinklinger du ikke finner andre steder.

  • Klassekampen.no

    På klassekampen.no får du servert de beste sakene fra avisa. Du kan også lese dagens og tidligere utgaver, søke i arkivet og dele artikler med venner og kjente.

  • Nett eller papir?

    Du kan ha papiravisa hver dag, bare i helga eller ikke i det hele tatt. Digital tilgang har du uansett!