In het Midden-Oosten leidt oorlog op afstand tot duizenden burgerdoden en honderdduizenden vluchtelingen. Volgens Lauren Gould, universitair hoofddocent conflictstudies, breiden Israël, de Verenigde Staten en nu ook de NAVO het gebruik van deze systemen, gebaseerd op kunstmatige intelligentie, ofwel AI, verder uit.
Wie wil weten hoe groot de rol van kunstmatige intelligentie is in moderne oorlogvoering, kijkt naar de Verenigde Staten in Iran. Met behulp van een AI-doelwitsysteem, het Maven-systeem, schakelden zij in de eerste 24 uur duizend doelwitten uit: een van de meest intensieve luchtcampagnes ooit.
Het Maven-systeem selecteert doelwitten op basis van patronen. Het analyseert verschillende databronnen, zoals drone- en satellietbeelden, telefoon- en WhatsApp-gesprekken en internet-zoekgedrag. Met algoritmes en machine learning ontdekt het patronen in deze gegevens. Op basis daarvan voorspelt het systeem of een persoon of een gebouw een doelwit vormt.
Hoewel er nog altijd een mens deel uitmaakt van het besluitvormingsproces, komt automatisch beslissen over leven en dood in de praktijk steeds dichterbij. Dat zegt Lauren Gould, universitair hoofddocent conflictstudies aan de Universiteit Utrecht en projectleider van meerdere onderzoeksprogramma’s naar AI (kunstmatige intelligentie) en oorlog op afstand.
Uitkomst systeem als bevel
Zij wijst op Israël, dat al ongeveer twee jaar vergelijkbare systemen gebruikt in Gaza, zoals Lavender, Gospel en Where’s Daddy. Soldaten kregen te horen dat zij de uitkomsten van deze systemen als bevelen moesten behandelen.
De ervaringen van dertien van deze soldaten kwamen in 2024 via de linkse Israëlische nieuws- en opiniesite +972 Magazine naar buiten. Het artikel baseert zich op hun ervaringen in de eerste weken van de escalatie in 2023.
Volgens de soldaten kregen zij ongeveer twintig seconden om te beoordelen of een door AI geselecteerd doelwit legitiem was. In totaal zou het zijn gegaan om 37.000 door AI geselecteerde doelwitten, waarbij de soldaat weinig meer was dan een stempelmachine voor goedkeuring.
IDF kill list
Zij verklaarden dat voor elke uitgeschakelde Hamas-strijder tot twintig burgerdoden werden geaccepteerd. Ook keurden zij, om doelquota te halen, bewust extra veel doelwitten goed en bombardeerden zij doelwitten terwijl mensen thuis waren, ongeacht de aanwezigheid van burgers.
De IDF, Israel Defense Forces, ontkent dat zij AI gebruikt om doelwitten te identificeren en stelt dat het AI alleen inzet ter ondersteuning van doelwitselectie. Ook ontkent het leger het bestaan van een kill list van 37.000 doelwitten.
Volgens het +972-artikel verhoogde AI het aantal doelwitten in Iran van vijftig per jaar naar honderd per dag. Inmiddels ligt dat aantal rond de 300 per dag, terwijl het Pentagon volgens The Economist lijkt te streven naar 3.000.
Iran volgende stap in AI-targeting
Volgens Gould vormt Iran geen keerpunt, maar de volgende stap in een proces dat al rond 2014 in Afghanistan begon.
‘Het Pentagon wilde voorkomen dat het troepen op de grond moest inzetten en zocht naar manieren om op afstand doelwitten te identificeren en uit te schakelen. Daarom experimenteerde het in Afghanistan met het identificeren van doelwitten op basis van data en gedragspatronen.’
Lees ook | NAVO, China: hele wereld wordt Straat van Hormuz ingetrokken
Die aanpak bleek geen succes. In Afghanistan steeg het aantal burgerdoden in 2014 met 22 procent. In 2019 bereikte dat aantal een toppunt, met meer dan 10.000 burgerdoden. Volgens Gould had dit een gunstig effect voor de Taliban. Ondanks aanhoudende luchtaanvallen heroverden de Taliban na het vertrek van de Amerikaanse troepen in 2021 alsnog de macht.
Toch ging het Pentagon door op de ingezette koers. In 2017 startte Project Maven waarin werd geëxperimenteerd met het gebruik van AI analyses. Met steun van bedrijven als Google, Palantir en Amazon groeide dat uit tot het AI targeting systeem Maven smart system dat nu in Iran wordt gebruikt.
Angst voor autonome wapens
Ondanks kritiek van werknemers en het vertrek van Google uit het project blijven de Verenigde Staten samenwerken met grote technologiebedrijven. Die leveren resultaten die moeilijk te evenaren zijn, mits ze geen morele bezwaren hebben.
Soms zijn die er wel, zoals bij Anthropic, het bedrijf dat weigerde om mee te werken uit angst voor autonome wapens. In dat geval worden de bedrijven door het Pentagon als onbetrouwbaar bestempeld.
Met hulp van de overgebleven bereidwillige bedrijven optimaliseerde het Pentagon het gebruik van AI bij het selecteren van doelwitten. Volgens Gould is het uitschakelen van zoveel mogelijk doelwitten daarbij een doel op zich geworden, ongeacht de burgerslachtoffers of politieke doelstellingen.
Schending internationaal recht
‘Dit is anders dan de situaties waarin deze technologie is ingezet om bijvoorbeeld het handelen van Maduro in Venezuela in kaart te brengen. Dan is het gebruik van het systeem gericht op één persoon. Hoewel dat nog steeds een schending van het internationaal recht is, is het gebruik van dat middel in die situatie enigszins logisch.’ zegt Gould.
Lees ook | Amerika en Israël vooralsnog succesvol in Iran – defaitisme is veel te voorbarig
In het Midden-Oosten leidt deze vorm van oorlog op afstand tot duizenden burgerdoden en honderdduizenden vluchtelingen. Volgens Gould breiden Israël, de Verenigde Staten en nu ook de NAVO, het gebruik van deze systemen verder uit, voornamelijk om het aantal uitgeschakelde doelwitten te vergroten.
De mens uit het besluitvormingsproces?
Het Pentagon ziet de tijd die mensen nodig hebben om data te doorzoeken en beslissingen te nemen als verspilling, ze willen dit proces zoveel mogelijk uitbesteden aan AI. Gould zegt dat de volgende innovatie waar aan gewerkt lijkt te worden is dat drones deze computer-gegenereerde doelen zonder menselijke tussenkomst kunnen uitschakelen.
Het Pentagon ziet de tijd die mensen nodig hebben om data te doorzoeken en beslissingen te nemen als verspilling
De Amerikaanse onderminister van Defensie, Emil Michael, de hoogste technologiefunctionaris van het Pentagon, zei na de breuk met Anthropic tegen AP News: ‘Ik heb een betrouwbare, stabiele partner nodig die mij iets kan bieden en met mij wil samenwerken op het gebied van autonomie. Op een dag wordt dit werkelijkheid, en we zien nu al de eerste versies.’
Het is de vraag of die volgende stap daadwerkelijk verschil maakt omdat het onduidelijk blijft wat het uiteindelijke Amerikaanse doel is in Iran. Is dat te bereiken door een oorlog op afstand te voeren? Volgens Gould toont de situatie in Iran aan dat deze vorm van oorlogsvoering onmogelijk politieke verandering af kan dwingen.
Lees ook | Gezien hun geschiedenis in Iran nemen de Verenigde Staten een groot risico
Categorie chemische en nucleaire wapens
Volgens Gould hoort het gebruik van AI met de intentie om zoveel mogelijk doelwitten uit te schakelen, thuis in dezelfde categorie als chemische en nucleaire wapens: middelen die internationale beperkingen vereisen.
Maar in de huidige wereldorde lijkt het instellen van dergelijke beperkingen onwaarschijnlijk. Gould: ‘Waarschijnlijk moet het eerst verschrikkelijks misgaan voor mensen beseffen wat de inzet van AI op deze manier kan veroorzaken.’
