Camera in spinnende rugbybal toont uniek beeld van de wedstrijd (video)

Voetbalfans zijn er aan gewend dat de wedstrijden op televisie worden gevolgd vanuit verschillende camerastandpunten. Onderzoekers van de Carnegie Mellon University en de University of Electro-Communications (UEC) in Tokio komen nu met een voorstel voor een nieuwe camerapositie: in de bal.

De onderzoekers hebben aangetoond dat een camera die is opgenomen in de zijkant van een kunststofschuim, met rubber ommantelde (Amerikaanse) voetbal daadwerkelijk video-opnamen kan maken terwijl de bal in de lucht is. Dat biedt dan een uniek ‘ball’s eye view’ op het speelveld. Omdat zo’n rugbybal kan draaien met 600 omwentelingen per minuut is het ruwe videomateriaal een waas waarop niets is te onderscheiden. Maar de onderzoekers ontwikkelden een computeralgoritme die de ruwe video omzet in een stabiel breedbeeld.

Augmented

Kris Kitani, postdoc medewerker van Carnegie Mellon’s Robotics Institute, is zich ervan bewust dat de sportorganisaties een bal met een camera erin niet snel zullen goedkeuren voor gebruik in normale wedstrijden. Maar de BallCam kan wel nuttig zijn voor TV, films of trainingsdoeleinden. Een van de onderzoekers, gaststudent Kodai Horita van UEC, geeft op 8 maart een presentatie over de BallCam op de Augmented Human International Conference in Stuttgart.

Kitani vertelt dat de BallCam is ontwikkeld als onderdeel van een groter onderzoek naar digitale sport. "We willen weten hoe technologie kan worden gebruikt om bestaande sporten te verrijken en om nieuwe sporten te creëren." In bepaalde gevallen kan atletiek worden gecombineerd met kunst of entertainment; een bal met camera zou bijvoorbeeld kunnen worden gebruikt om de gezichtsuitdrukking van spelers te registreren als ze de bal werpen en vangen.

Ook andere onderzoekers hebben ‘gooibare’ camera’s ontwikkeld die statische beelden produceerde. Of ze gebruikten meer camera’s om gestabiliseerde videobeelden te maken. Het BallCam-systeem, dat is ontwikkeld door Kitani en Horita, samen met Hideki Sasaki en professor Hideki Hoike van UEC, werkt daarentegen met een enkele camera met een smalle beeldhoek, om een dynamische breedbeeldvideo te genereren.

Algoritme

Als de bal in een zuivere spiraalvormige baan wordt geworpen, registreert de camera een reeks frames terwijl de bal roteert. Bij het verwerken van deze frames gebruikt het algoritme de lucht om te bepalen welke beelden werden gemaakt terwijl de camera omhoog keek en welke werden gemaakt terwijl hij naar beneden keek. De beelden van de lucht worden verwijderd en de overblijvende frames worden aan elkaar ge’stitched’, met speciale software, die een breed panorama samenstelt. Vergelijkbare stitching software wordt door Nasa gebruikt om beelden van de Mars-rover te combineren tot grote panorama’s. Ook in digitale camera’s is deze software steeds vaker te vinden.

Het algoritme corrigeert ook verstoringen in het beeld die ontstaan door de rotatiesnelheid van de bal en die bijvoorbeeld de lijnen op het veld vervormen. Volgens Kitani wordt er in vervolgonderzoek gewerkt aan het elimineren van alle storingen. Een snellere camerasensor en aanvullende technieken zijn nodig om blur te reduceren. Ook zouden nog extra camera’s in de bal kunnen worden opgenomen om de uiteindelijke beeldkwaliteit te verbeteren.