Artificial Intelligence en ethisch engineeren

Geplaatst op 26 maart 2020 om 17:38 uur U als engineer zal er al volop mee te maken hebben of te maken krijgen: AI die deel uitmaakt van het ontwerp. AI die in sommige gevallen keuzes kan maken waarvan we bij een mens zouden zeggen: ‘dat kan je niet maken’. Welke keuzes maakt u dan als engineer?

Als voorbeeld nemen we een Tesla: boordevol AI, en iedere engineer ongeacht zijn exacte ‘bloedgroep' snapt wat ik bedoel. Wie weet wat een Tesla nú doet als een botsing onvermijdelijk is maar er nog wel een keuzemogelijkheid is waar de Tesla tegenaan botst: een muur (bestuurder dood) of die fietser (fietser dood)? En wat als het ineens vijf fietsers zijn? Wie het weet mag het zeggen. Wat gaat de trend worden? Met het aansprakelijkheidsrecht en recent EU-ethiekbeleid in gedachten zal ik een educated guess doen naar wat Tesla gáát doen: tegen de muur aan botsen, maar voorlopig blijft het stuur met mogelijkheid tot bijsturen. Ik noem steeds Tesla, maar bedoel daarmee alle fabrikanten van zelfrijdende auto's. Dat scheelt leesmoeheid.


• Straks geen stuur of pedalen?
• Regering laat het aan Tesla over
• Onderzoek: keuze minste kwaad tenzij het mijn Tesla is
• Heeft Tesla wel een reële keuze?

 

Straks geen stuur of pedalen?

Tot dusver hebben (op een contained experimentje na) alle zelfrijdende auto's nog een stuur en pedalen, en wordt de bestuurder geacht zelf in te grijpen. Dat is een handige manier om de vraag te ontwijken waar dit stuk mee begon. De mogelijkheid bestaat echter dat op enig moment de techniek zodanig vergevorderd is, dat stuur en pedalen niet meer aanwezig hoeven te zijn. Niet van de wetgever, en ook niet van Tesla, al is het maar omdat die afwezigheid marketingtechnisch beter is. Een auto die beter rijdt dan een mens heeft immers geen stuur nodig. Dus is ook Tesla bezig met die vraag. Elon Musk zei in april 2019 nog: binnen twee jaar geen stuur meer.

 

Regering laat het aan Tesla over

In 2018 waren er nog vragen vanuit de Tweede Kamer hoe de regering met dit programmeervraagstuk om dacht te gaan. Het briljante en nietszeggende antwoord: "De techniek zal verantwoord getraind moeten worden" (http://bit.ly/techniektrainen ). Ik neem aan dat dit betekent: ‘Dat laten we aan Tesla over'. Dus daar sta je dan, als Tesla. Uiteraard kun je een keuzemogelijkheid inprogrammeren: altijd de bestuurder beschermen/anderen beschermen als het er meer zijn, enzovoort. Als de autorijder ervoor kiest altijd zichzelf te beschermen, is nog maar de vraag of er dan een verzekeraar is die dekking wil bieden. En strafrechtelijk zal die keuze waarschijnlijk ook wel iets betekenen (voorwaardelijk opzet om iemand van het leven te beroven of zo). Bovendien beantwoordt het laten van keuze aan de gebruiker niet aan het adagium van onze minister dat de techniek ‘verantwoord getraind' zal moeten worden.

 

Daarnaast zou het ook strijdig zijn met een Europese resolutie uit 2017 (http://bit.ly/resolutie2017) die onder andere aanbeveelt aan de Europese Commissie dat er een ‘gebruikerslicentie' komt voor AI. Die licentie zou dan moeten inhouden dat een AI-gebruiker (zoals een Tesla-rijder) rekening houdt met juridische en ethische normen. Dus die keuze zal er niet komen.

 

Onderzoek: keuze minste kwaad tenzij het mijn Tesla is

Uit onderzoek blijkt dat mensen heel erg voorstander zijn van utilitair handelende auto's. Oftewel: het minste van twee kwaden. Dus beter tegen een muur en de enige inzittende dood dan twee fietsers dood. Tenzij ze zelf in die auto zitten (http://bit.ly/utilitair). Ahum! Oftewel: als Tesla haar auto utilitair programmeert en dat bekend maakt, wil niemand meer een Tesla. Zoekt Tesla standaard de twee fietsers op in plaats van de muur, dan zal dat vroeg of laat bekend worden en tot claims leiden.

 

Heeft Tesla wel een reële keuze?

Meest voor de hand liggende keuze is dan: auto utilitair programmeren. Die keuze is echter slechts deels in in lijn met de eerder genoemde Europese resolutie. Die beveelt een ‘ontwerperslicentie' aan. Die ontwerperslicentie zou onder meer moeten inhouden dat de robot zich moet houden aan juridische en ethische normen (dus dat wordt neem ik aan utilitair programmeren). Daarnaast zou die licentie moeten inhouden: reconstructiemogelijkheid van de besluitvormingsstappen van robot, transparantie van de programmering en van de voorspelbaarheid van het gedrag van de robot. Dus stilte bewaren over het utilitair programmeren kan Tesla straks vergeten als het aan de EU ligt. Die auto zonder stuur en pedalen zal dus - zelfs als wettelijk op enig moment toegestaan - uit marketingoogpunt op zich laten wachten, tot de kans op een ongeval astronomisch klein is geworden. Voor ontwikkelaars is dat een impuls om zelfrijdende auto's nóg veiliger te maken.

 

Mr. Hub Dohmen
Dohmen advocaten
twitter

LinkedIn

 
© Engineersonline.nl