Zelfrijdende auto’s foppen? Niet moeilijk!

Je kunt je voorstellen dat zelfrijdende auto’s gevoelig zijn voor aanvallen door hackers, maar het grootste gevaar komt van iemand dichtbij, met een handvol goedkope elektronica. Beveiligingsexpert Jonathan Petit heeft vastgesteld dat Lidar – het laser-afstandsmeetsysteem dat in veel autonome voertuigen wordt gebruikt – is te misleiden door met laserpulsen ‘echo’ s’ uit te zenden van gefakete auto’s of objecten.

"Ik kan echo’s namaken van een imaginaire auto en die overal neerzetten waar ik wil", zegt Jonathan Petit, wetenschapper bij Security Innovation, een softwarebeveiligingsbedrijf . "En dat kan ik ook doen met een voetganger of een muur".

Alles wat daarvoor nodig is: een vermogenslaser, een eenvoudige computer (een Arduino of een Raspberry Pi is al genoeg) en de juiste timing. "Het is eigenlijk gewoon een soort laserpointer", zegt Petit. Je hoeft niet eens goed te mikken. Het lukte hem om in een proof-of-concept aanval op een afstand van 100 meter schijnbaar objecten te laten opdoemen. En hij zegt dat het mogelijk is om veel kopieën van die imaginaire objecten te creëren, of om ze te laten bewegen. Met andere woorden, elke grappenmaker kan een zelfsturende auto laten uitwijken of stoppen om een niet bestaand object te vermijden.

Het is nog maar de vraag of dit een groot probleem wordt als zelfrijdende auto’s algemeen ingeburgerd raken. De techniek van Petit werkt alleen als de pulsen van het Lidar-systeem niet versleuteld zijn of op een andere manier ontoegankelijk worden gemaakt. Dat is nu nog niet gebeurd in veel momenteel commercieel beschikbare systemen, maar het is mogelijk dat in productie-klare voertuigen een en ander wordt beveiligd. Desalniettemin is dit een niet zo vriendelijk advies aan autofabrikanten om hen duidelijk te maken dat er een hoop werk moet worden verricht als ze de autonome ritjes veilig willen maken.