Nieuwe methode helpt robots objecten op te pakken in ongestructureerde omgevingen (video)

Het oppakken van een object is voor een mens een koud kunstje, maar voor robots al snel een grote uitdaging. Met name als objecten in een drukke of dynamische omgeving staan kunnen robots moeite hebben objecten correct te identificeren en op te pakken. Een nieuwe aanpak ontwikkeld door de Australische Queensland University of Technology biedt uitkomst.

In de nieuwe aanpak scannen robots hun omgeving en brengen deze pixel voor pixel in kaart. Vervolgens analyseert de computer voor elke pixel hoe groot de kans is dat de robot het object op deze plek kan oppakken. Zo kunnen robots real-time bepalen hoe een onbekend object in een drukke en/of dynamische het best kan worden opgepakt.

Pixel voor pixel beoordelen

De methode is ontwikkeld door Douglas Morrison, Jürgen Leitner, en Peter Corke van de Science and Engineering faculteit van de Queensland University of Technology. Morrison: "Bij de Generative Grasping Convolutional Neural Network aanpak wordt in één keer een dieptebeeld gemaakt van wat zich voor de robot bevindt. Daardoor hoeft de robot niet allerlei verschillende mogelijke oppakmanieren te analyseren, wat lange rekentijden voorkomt."

Het aanpak blijkt  relatief succesvol. "In onze praktijktesten hebben we een succesratio van 83% gerealiseerd met niet eerder getoonde objecten met een conflictueuze geometrie en 88% op een reeks huishoudelijke objecten die gedurende de oppakpoging werden verplaatst. Met het oppakken van objecten in een dynamische omgeving hebben we een nauwkeurigheid van 81% behaald", aldus Morrison.

Beperkingen van huidige technieken

Leitner geeft aan dat de nieuwe aanpak verschillende beperkingen van huidige deep learning-gebaseerde oppaktechnieken voor robots kan overwinnen. "In bijvoorbeeld de Amazon Picking Challenge, die in 2017 door ons team werd gewonnen, keek onze robot CartMan in een bak vol objecten, bepaalde de beste positie om een object op te pakken en probeerde vervolgens blind het object op te pakken. Met behulp van deze nieuwe methode kunnen we beelden van de objecten die een robot kan zien in ongeveer 20 milliseconden verwerken, wat de robot in staat stelt zijn beslissing over de beste methode om een object op te pakken kan updaten en deze handeling doelmatiger uit te voeren. Dit is met name van belang in drukke omgevingen."

Kansen voor industriële automatisering

Leitner verwacht dat de ontwikkeling kansen biedt voor industriële automatisering. "Dit onderzoek stelt ons in staat robotsystemen niet alleen in gestructureerde omgevingen te gebruiken waar de volledig fabriek is gebouwd rond robots. Het geeft ons de mogelijkheid objecten op te pakken in ongestructureerde omgevingen, waarin dingen niet perfect gepland en geordend zijn en robots zich moeten aanpassen aan veranderingen. Dit biedt voordelen voor de industrie – van magazijnen voor webwinkels en sorteren tot het plukken van fruit. Het kan ook worden toegepast in woningen, naarmate intelligentere robots worden ontwikkeld die niet alleen de vloer zuigen of dweilen maar ook objecten kunnen oppakken en opbergen."