In de Oekraïne worden drones steeds minder vaak op afstand bestuurd met radiogolven, en steeds vaker door AI. Dat komt mede doordat de tegenstander radiogolven nu kan verstoren met ‘jammers’. Het brengt echter wel risico’s met zich mee.
Want, net als bij alle systemen, is de vraag: heeft AI altijd gelijk? Het antwoord is natuurlijk ‘nee’. Met als zeer aansprekend en vaak aangehaald voorbeeld de MIT-studenten van LabSix die er in 2017 in slaagden om een AI te laten geloven dat hun schildpad een geweer was, hun kat een portie guacamole, en hun baseball een kop koffie.
Wapen of uniform?
“Het systeem moet burgers van militairen kunnen onderscheiden. Draagt iemand een wapen of uniform? Als zo’n systeem een fout maakt, zijn de gevolgen groot,” zegt Jonathan Kwik van het Asser Instituut, die vorige week het boek Lawfully Using Autonomous Weapon Technologies publiceerde over de inzet van autonome wapensystemen (AWS) in de context van snel voortschrijdende kunstmatige intelligentie (AI).
“Op militair gebied is de rol van AI steeds prominenter geworden”, zegt Kwik. “Staten benadrukken AI vanwege strategische en tactische voordelen en investeren zwaar in de ontwikkeling ervan. Recente conflicten, zoals de oorlog in Oekraïne en het conflict tussen Israël en Gaza, laten zien hoe AI kan worden gebruikt bij data-analyse, autonome targeting en raketonderschepping.”
Stroomdiagrammen voor commandanten
Maar hoe weet een commandant of hij beter wel of niet op AI kan vertrouwen? Wanneer heeft AWS de voorkeur boven andere alternatieven? Hoe moet een een frontliniecommandant die wordt geconfronteerd met de dringende beslissing om een autonoom wapen in te zetten met beperkte tijd en onvolledige kennis te werk gaan en wat zorgt voor verantwoord gebruik?
In zijn boek combineert Kwik recht, technische expertise en operationele gevechtskunst in iets wat bijna een praktische gids is voor degenen die in realtime beslissingen over leven en dood nemen. Handig? Misschien wel noodzakelijk, voor wie actief is in drones of AI.