Mieren tellen hun stappen en maken snapshots van hun omgeving om veilig thuis te komen van een lange tocht. Dankzij drone-onderzoekers van de TU Delft kunnen kleine, lichtgewicht robots dit nu ook – en dat met zeer weinig rekenkracht en geheugen (1,16 kilobyte per 100 m).
De bevindingen zijn gepubliceerd in Science Robotics.
Kleine robots, met een gewicht van tientallen tot een paar honderd gram, hebben talloze interessante praktische toepassingen. Door hun lichte gewicht zijn ze extreem veilig, zelfs als ze per ongeluk tegen iemand opbotsen. En dankzij hun geringe grootte, schuwen ze ook de kleine ruimte niet. Goedkoop geproduceerde robots zouden massaal kunnen worden ingezet om snel een groot gebied te bestrijken, bijvoorbeeld om vroegtijdig ongedierte of ziekten op te sporen in kassen. Autonomie is bij dit soort kleine robots echter geen sinecure, omdat ze in vergelijking met grotere robots over beperkte middelen beschikken.
Het grootste obstakel is dan ook dat dit soort robots zelf moeten kunnen navigeren om hun taken uit te voeren. Om dit probleem op te lossen, kunnen de robots hulp krijgen van externe infrastructuur. Zo kunnen ze buiten gebruik maken van GPS-satellieten of binnen van draadloze communicatiebakens. Het is echter vaak niet wenselijk om afhankelijk te zijn van dergelijke infrastructuur: binnen heb je geen GPS, en in volgebouwde omgevingen zoals moderne steden tussen hoge gebouwen is het dikwijls nogal onnauwkeurig. Het alternatief van het installeren en onderhouden van bakens is daarentegen vrij duur of simpelweg niet mogelijk, bijvoorbeeld bij reddingsoperaties.
De AI die doorgaans wordt gebruikt voor autonome navigatiemet de sensoren en rekenkracht op de robot zelf is in principe ontworpen voor grote robots, zoals zelfrijdende auto’s. Deze aanpakken zijn gebaseerd op zware, energieslurpende sensoren zoals LiDAR-afstandsmeters, die niet eens gedragen kunnen worden door kleine robots. Een andere optie is het gebruiken van een zeer energiezuinige zichtsensor die rijke informatie over de omgeving levert als basis voor zeer gedetailleerde 3D-kaarten. Hiervoor is echter veel rekenkracht en geheugen nodig, en de bijbehorende computerapparatuur is te groot en verbruikt te veel energie voor zulke kleine robots.
Stappen tellen en visuele broodkruimels
Om deze uitdaging het hoofd te bieden, besloten onderzoekers van de TU Delft zich tot de natuur te wenden. Insecten zijn vooral interessant omdat ze zich met zeer beperkte sensor- en rekenkracht over afstanden verplaatsen die relevant zouden kunnen zijn voor veel praktische toepassingen. Biologen krijgen steeds meer inzicht in de strategieën van insecten. Zo leerden ze dat insecten hun eigen bewegingen bijhouden, ook wel odometrie genoemd, en dit combineren met visueel gestuurd gedrag op basis van herkenning van de omgeving.
Hoewel odometrie steeds beter wordt begrepen, zelfs tot op neuronaal niveau, zijn de exacte mechanismen die ten grondslag liggen aan het visueel gestuurd gedrag nog niet helemaal boven water. Wel bestaan er meerdere concurrerende theorieën over hoe insecten zicht gebruiken om te navigeren. Een van de eerste theorieën gaat uit van een model gebaseerd op snapshots, ofwel visuele momentopnames. Volgens dit model maakt een mier regelmatig momentopnames van zijn omgeving. Later, wanneer de mier weer ’dezelfde plek nadert, vergelijkt hij zijn huidige omgeving met de momentopname en beweegt hij totdat de verschillen minimaal zijn. Hierdoor vindt de mier zijn weg terug naar een momentopname, ook wel homing genoemd, en wordt tegelijkertijd de onvermijdelijke positie-afwijking die gepaard gaat met odometrie tegengegaan.
Hoofdauteur Tom van Dijk: “Een momentopname werkt pas als de robot dichtbij genoeg is. Als de visuele omgeving te veel verschilt van de momentopname, kan de robot de verkeerde richting inslaan en mogelijk voor altijd verdwalen. Het is daarom zaak om voldoende momentopnames te maken. Als het er teveel zijn, leggen ze een te groot beslag op het al schaarse interne geheugen. Bij eerdere onderzoeken zaten de momentopnames doorgaans heel dicht bij elkaar, zodat de robot eerst visueel naar de ene momentopname navigeerde en daarna meteen naar het volgende – wat dus veel geheugen verbruikte.”
“Het belangrijkste inzicht dat ten grondslag ligt aan onze strategie is dat je momentopnames veel verder uit elkaar kunt plaatsen, als de robot daartussen gebruik maakt van odometrie”, zegt Guido de Croon, hoogleraar bio-geïnspireerde drones en mede-auteur van het artikel. “Homing werkt zolang de robot dicht genoeg bij de locatie van de momentopname uitkomt, dat wil zeggen zolang de odometrische afwijking van de robot binnen van de momentopname valt. Hierdoor kan de robot veel minder momentopnames maken. Daarnaast kan hij ook veel verder vliegen, omdat robots bij homing veel langzamer vliegen dan wanneer ze odometrie gebruiken om opeenvolgende momentopnames af te gaan.”
De voorgestelde op insecten geïnspireerde navigatiestrategie stelde een 56 gram wegende CrazyFlie-drone, uitgerust met een omnidirectionele camera, in staat om afstanden tot 100 meter af te leggen met een microcontroller met 1,16 kB aan geheugen.
“De op insecten geïnspireerde navigatiestrategie is een belangrijke stap richting het toepassen van kleine autonome robots in de praktijk”, zegt Guido de Croon. “Hoewel de strategie wel beperkter is dan de strategie van de allerlaatste navigatiemethoden. Zo wordt er geen kaart gegenereerd en kan de robot alleen terugkeren naar een bepaald startpunt. Toch kan dit voor veel toepassingen meer dan genoeg zijn, Om voorraden bij te houden in een magazijn of gewassen te monitoren in een kas, kunnen drones bijvoorbeeld wegvliegen, gegevens verzamelen en terugkeren naar het basisstation. Ze kunnen toepassingsgerichte beelden opslaan op een kleine SD-kaart, die daarna worden verwerkt door een server maar niet nodig zijn voor het navigeren zelf.”