Criminele robots voor de rechter?

Als een mens wordt gedood door een autonome machine – wie is er dan schuldig? De mensenrechtenorganisatie Human Rights Watch zegt dat het dan bijna onmogelijk is om een schuldige aan te wijzen. En dat leidt tot geheel nieuwe problemen bij het berechten van criminelen.

Human Rights Watch heeft een rapport uitgebracht waarin wordt aangegeven hoe moeilijk het wordt om onder de huidige wetgeving commandanten, operators, programmeurs of fabrikanten wettelijk verantwoordelijk te houden voor misdaden die worden begaan door autonome machines. Het rapport is uitgebracht in het kader van een internationale campagne om Killer Robots te bestijden. Human Rights Watch strijdt sinds 2012 tegen de productie en het gebruik van volledig autonome wapens. Hoewel dergelijke wapens nog niet bestaan, definieert Human Rights Watch ze als machines die in staat zijn om "zonder menselijke tussenkomst doelen te selecteren en uit te schakelen".

"Als een volledig autonoom wapen een misdaad begaat, moet iemand daarvoor verantwoordelijk kunnen worden gehouden. En als dat niet kan, moeten zulke wapens worden uitgebannen", zegt Bonnie Docherty, hoofdauteur van het rapport en senior-onderzoeker binnen de wapendivisie van Human Rights Watch.

Mind te gap

Het rapport, getiteld ‘Mind the Gap: The Lack of Accountability for Killer Robots‘ werd uitgebracht ter gelegenheid van de onlangs gehouden Convention on Conventional Weapons (CCW) van de Verenigde Naties in Genève. Daar werd ook gesproken over ‘dodelijke autonome wapensystemen’. Het rapport stelt dat de wapens niet verantwoordelijk kunnen worden gehouden en gestraft voor hun acties omdat het simpelweg geen mensen zijn.

Zo’n robot kan volgens het rapport  juridisch niet worden aangemerkt als een ‘natuurlijk persoon’. En zelfs als de jurisdictie zou worden aangepast, zou een berechting nog niet voldoen aan het maatschappelijke doel van bestraffing – want hoe bestraf je een machine? Ook de producenten van de machine zullen onder de huidige wetgeving waarschijnlijk niet kunnen worden vervolgd.

"In de meeste gevallen zou het onredelijk zijn om de programmeur of producent juridisch te veroordelen – zij zouden kunnen aanvoeren dat het niet specifiek hun bedoeling was of dat zij hadden kunnen voorzien dat de robot misdaden zou begaan", stelt het rapport.

Niet onmogelijk

Michael Horowitz, adjunct senior fellow bij het Center for a New American Security (CNAS) die ook bijdragen heeft geleverd aan  diverse publicaties over de ethiek van autonome wapens, is het hiermee oneens. Volgens hem is het vaststellen van verantwoordelijkheid gecompliceerd, maar niet onmogelijk. "De essentiële vraag gaat over het niveau waarop je spreekt over verantwoordelijkheid", zegt hij. "Als we spreken over verantwoordelijkheid voor de specifieke daad van het overhalen van de trekker is het ingewikkeld. Maar als we kijken naar de verantwoordelijkheid van de officier die in eerste instantie opdracht gaf voor de missie, is het niet heel anders dan de huidige situatie. Op een bepaalde manier zou bij de introductie van dodelijke autonome wapens de aansprakelijkheid hoger in de bevelketen moeten worden gezocht."

Horowitz vindt dat we de technologie moeten begrijpen, voordat we hem uitannen. "Het is prematuur om nu al over wetgeving te praten", zegt hij. "Er zijn nog te veel punten van discussie, zelfs over de definitie van autonome dodelijke wapensystemen."

 "Het gevaar van een te vroegtijdig verbod is dat je de categorie zo breed zou definiëren dat er ook wapens onder komen te vallen die zijn bedoeld om burgerslachtoffers te voorkomn, of om schepen en militaire bases te beveiligen."

Te gevaarlijk

Maar volgens Docherty is het met deze technologie te gevaarlijk om af te wachten en te zien wat er gebeurt. "Wij zien dit als een revolutionaire  verandering in de manier waarop wordt gevochten en de vraag wie verantwoordelijk is", zegt ze. "Het scheidt de oorlogvoering van de mens en machines maken op het slagveld beslissingen over leven en dood. Dat moeten we voorkomen, voor het te laat is."

Het volldige rapport van Human Rights Watch kan hier worden gelezen.

bron: Motherboard