Robot zonder vision kleedt mensen aan

Robots hebben moeite met taken die situationeel bewustzijn vereisen, vooral als bijna onmiddellijke aanpassingen aan veranderende omstandigheden in de omgeving nodig zijn. Aan MIT CSail is nu een algoritme ontwikkeld dat een robot helpt in een dergelijke situatie: het aankleden van een mens.

"Het is vooral ingewikkeld wanneer een robot moet communiceren met een mens en moet samenwerken om een ​​taak veilig en succesvol te voltooien", zegt Shen Li, een PhD-kandidaat luchtvaart en ruimtevaart.

Li en bezoekend wetenschapper Theodoros Stouraitis van CSail rondden vorig jaar al een project af met robotgeassisteerd aankleden zonder mouwen. In een nieuw werk, beschreven in IEEE Robotics and Automation, legt de groep uit welke vooruitgang ze hebben geboekt bij aankleden met mouwen.

Het grote verschil is te wijten aan ‘visuele occlusie’. Li: "Tijdens het hele aankleedproces kan de robot de menselijke arm niet zien." In het bijzonder kan het niet altijd de elleboog zien of de precieze positie of peiling bepalen. Dat heeft weer invloed op de hoeveelheid kracht die de robot moet uitoefenen om het kledingstuk – zoals een shirt met lange mouwen – van de hand naar de schouder te trekken.

Om het probleem van een belemmerd zicht aan te pakken, heeft het team een ​​’staatsschattingsalgoritme’ ontwikkeld waarmee ze redelijk nauwkeurige gissingen kunnen maken over waar, op een bepaald moment, de elleboog is en hoe de arm helt – of het nu recht naar buiten uitgestrekt of gebogen bij de elleboog, naar boven, beneden of opzij wijzend – zelfs als het volledig wordt verduisterd door kleding. De robot meet de kracht die op het doek wordt uitgeoefend. Het algoritme neemt als uitgangspunt en schat vervolgens de positie van de elleboog – niet precies, maar door deze in een doos of volume te plaatsen dat alle mogelijke posities omvat. Die kennis vertelt de robot op zijn beurt hoe hij moet bewegen.

Het algoritme bevat een dynamisch model dat voorspelt hoe de arm in de toekomst zal bewegen, en elke voorspelling wordt gecorrigeerd door een meting van de kracht die op het doek wordt uitgeoefend. Onderscheidend hierbij is dat de onderzoekerseen duidelijke bovengrens kunnen stellen aan de onzekerheid en kunnen garanderen dat de elleboog zich ergens binnen een voorgeschreven kader zal bevinden.

Het model voor het voorspellen van armbewegingen en elleboogpositie en het model voor het meten van de kracht die door de robot wordt uitgeoefend, maken beide gebruik van machine learning-technieken. De gegevens die werden gebruikt om de machine learning-systemen te trainen, werden verkregen van mensen die ‘Xsens’-pakken droegen met ingebouwde sensoren die lichaamsbewegingen nauwkeurig volgen en registreren. Nadat de robot was getraind, was hij in staat om de ellebooghouding af te leiden wanneer hij een jas op een mens aantrok, een man die zijn arm op verschillende manieren bewoog tijdens de procedure – soms als reactie op het trekken van de robot aan de jas en soms in willekeurige bewegingen uit eigen beweging.

Dit werk was strikt gericht op schatting – het zo nauwkeurig mogelijk bepalen van de locatie van de elleboog en de armhouding – maar het team is al door naar de volgende fase: het ontwikkelen van een robot die zijn bewegingen voortdurend kan aanpassen als reactie op verschuivingen in de arm- en elleboogoriëntatie.

In de toekomst zijn ze van plan om het probleem van ‘personalisatie’ aan te pakken – het ontwikkelen van een robot die de eigenaardige manieren waarop verschillende mensen bewegen kan verklaren. In dezelfde geest zien ze robots die veelzijdig genoeg zijn om met een breed scala aan stoffen materialen te werken, die elk enigszins anders kunnen reageren op trekken.