Enschedees bedrijf Xsens wil met clouddienst motion capturing toegankelijk maken
Het Enschedese bedrijf Xsens heeft een cloudcomputingabonnement geïntroduceerd voor zijn motioncapturepak. De dienst biedt rekenkracht en opslag voor animatiestudio's, gamemakers en data-analysten. Ook komt Xsens met bewegingsanalyses.
Rob Löring
Xsens MotionCloud, zoals de abonnementsdienst heet, is tijdens CES deze week aangekondigd. MotionCloud is een clouddienst voor opslag, verwerking en interpretatie van de data van het fullbody bewegingssensorpak MVN van Xsens "Motioncapturetechnologie wordt steeds toegankelijker. De drempel is het interpreteren van de data. Daar moet deze dienst bij helpen", vertelt Rob Löring, Business Director 3D Body Motion bij Xsens aan Tweakers.
Xsens werd in 2000 opgericht door twee studenten van de universiteit van Twente en bevindt zich nog steeds in Enschede. Casper Peeters en Per Slycke richtten zich op de ontwikkeling van kleine bewegingssensoren voor het meten van de inspanningen van atleten. Na het uitbrengen van wat verschillende sensoren voor bewegingsanalyse en industriële applicaties, bracht het bedrijf in 2007 zijn eerste fullbody motioncapturesysteem uit.
"Xsens levert tegenwoordig fullbody motioncapturesystemen voor animatie, films, biomechanisch onderzoek, ergotherapie en sport", legt Löring uit. Het bekendste systeem is de MVN: een motioncapturepak dat gebruik wordt door grote namen zoals Sony Pictures, Ubisoft en Marvel, maar ook door universiteiten en professionele sporters, zoals het DSM-wielerteam. Voor het internetpubliek is het Xsens-pak ook wel bekend als het motioncapturepak dat Corridor Digital gebruikt voor zijn Boston Dynamics-parodie die viraal ging. In deze video leggen de makers uit hoe ze het pak gebruiken om de bewegingen van de robot op te nemen.
Zanger Ricky Martin neemt motion capture op voor Netflix-film Jingle Jangle in het Xsens-pak | Foto: Netflix
Films, games
Dat het vooral door grote bedrijven wordt gebruikt heeft te maken met het prijskaartje van de MVN: de pakken beginnen bij 7000 euro. Daar komt dan nog de prijs van extra modules bovenop en die van de pc die je nodig hebt om de data te verwerken. "Daar komen vervolgens nog softwarelicenties bij", vertelt Löring. "Vorig jaar zagen we dat een heel aantal studio's vanwege de coronapandemie thuis gingen werken. Dat betekent dat ze voor elke werkplek een softwarelicentie moeten hebben."
De clouddienst moet daar verandering in brengen. In plaats van het kopen van een licentie, betaalt de gebruiker een vast bedrag per maand, waarbij Löring toevoegt dat het abonnement per maand opzegbaar wordt. "Dat moet de MVN toegankelijker en betaalbaarder maken voor bijvoorbeeld onafhankelijke studio's die motion capture willen doen", stelt Löring. "We zagen dat veel van onze gebruikers niet alle features van ons softwarepakket nodig hebben, maar hier wel voor betalen, en dat onafhankelijke makers moesten afhaken vanwege hun budget."
Goedkoop wordt het aanbod nog steeds niet. Met het nieuwe prijsmodel kopen gebruikers nog steeds het motioncapturepak. Hoeveel het abonnement per maand gaat kosten wil Löring nog niet zeggen dus het is de vraag wat de besparingen gaan zijn. Wel hoeven klanten met het abonnement in ieder geval niet te blijven betalen voor de software als ze klaar zijn met motion capture.
Motion capture in de woonkamer
Voor de clouddienst gebruikt Xsens Microsoft Azure als platform en huurt het servercapaciteit in Europa. Het verwerken van de motioncapturedata is vooral cpu-intensief. "Daarom gebruiken we standaard vcpu in batch." Dat wil zeggen dat klanten niet een dedicated cpu op de server toebedeeld krijgen, maar een virtuele processor, waarbij ze capaciteit en rekenkracht delen met anderen. "We merken dat de performance daarvan weinig onderdoet voor een niet-dedicated render-pc." Xsens gebruikt die vcpu's vervolgens in batch, wat betekent dat zij extra rekenkracht toegewezen kunnen krijgen als meer klanten tegelijk data moeten verwerken en ze dus extra rekenkracht nodig hebben.
Volgens Löring zit het grootste voordeel er in dat gebruikers hun eigen pc kunnen blijven gebruiken tijdens het verwerken van de motioncapturedata. "Bij de verwerking van bestanden gebruikt een systeem veel resources van de cpu en het werkgeheugen waardoor het lastiger is om tegelijkertijd een opname te doen." Door dit procedé naar servers te verplaatsen, kan theoretisch gezien een acteur thuis een MVN-pak ontvangen en met een beetje training vanaf de eigen woonkamer, op een laptop, motion capture opnemen voor games en films, terwijl animators via de clouddienst met de motioncapturedata werken, waar ook ter wereld.
Ziekenhuizen en fysiotherapie
Met MotionCloud wil Xsens zich ook richten op een andere markt: de gezondheidszorg. "Onze suits worden al gebruikt door onder andere bewegingswetenschappers van universiteiten voor sportonderzoek. Je krijgt alleen een behoorlijke set biomechanische data dat alleen data-analisten kunnen interpreteren." Met kant-en-klare analyses die abonnees krijgen, kan het pak ook gebruikt worden door sportclubs, fysiotherapeuten en artsen in ziekenhuizen, zegt Löring. "Je trekt het pak makkelijk aan, na vijf tot tien minuten uitleg kun je een meting doen. Daar heb je geen lab voor nodig, dat kan gewoon bij iemand thuis of in een praktijk."
Een voorbeeld is een loopanalyse. "Het pak meet de symmetrie van iemand die loopt, de stapgrootte en de kniehoek. Orthopeden en andere specialisten zien zo of er iets mis is met je loopbeweging. Die data kun je vergelijken met eerdere metingen. Zo kun je zien of een behandeling zin heeft." Xsens richt zich op onder andere revalidatieartsen, fysiotherapeuten, maar ook op sporters die beter willen worden door hun bewegingen te analyseren. Die zouden met de dienst over een uitgebreide kant-en-klare analyses voor bewegingen moeten gaan beschikken.
Althans, dat zou zo zijn als de clouddienst daar ondersteuning voor bood, maar dat soort analyses blijken nog grotendeels toekomstmuziek. In eerste instantie is het aanbod daarvan namelijk beperkt. "We bieden nu een paar rapportages, zoals de loopanalyse," stelt Löring. Ook voor animators is het gebruik van de clouddienst nog beperkt. Zij moeten alsnog software als Blender of Unreal hebben om de bewegingsdata te kunnen gebruiken voor animatie. Dit jaar hoopt het bedrijf meer rapportages toe te voegen, evenals eigen software voor animatie. Op termijn moet ook ondersteuning voor betaalbaarder sensoren volgen. Löring spreekt bij de huidige aankondiging van 'een begin'. MotionCloud start dan ook als gratis bèta, die tot 1 april duurt.
Dit artikel kun je gratis lezen zonder adblocker
Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.
Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.
Als start prima, maar idd kan een volgend artikel enige diepgang geven in welke sensors gebruikt zijn, welke goedkopere sensors gesupport gaan worden etc. Hoe werken die sensors, Hoe kun je mbv 2 sensors (die ik iig geplakt zie worden) een beweging meten? Zoiets.
@bashendriks123 De sensoren die je geplakt ziet worden in de film die bijgevoegd is zijn geen motion capture sensoren maar EMG sensoren (meten spierspanning). De motioncapture sensoren ( IMUs = Inertial measurement units ) zitten er al op met de zwarte banden.
Het Xsens systeem bevat 17 trackers (imu) op het lichaam die allemaal magnetometers, gyroscopen en versnellingsmeters bevatten.
Er komen onbewerkte sensorgegevens van elke individuele tracker. Deze gegevens worden door datafilters gehaald en geprojecteerd op een biomechanisch model in MVN Animate / Analyze ( software), wat resulteert in een bewegende 'avatar' (digitale persoon) volgens alle bewegingen van de persoon die het MVN-systeem draagt.
Deze gegevens kunnen worden vastgelegd en geëxporteerd volgens de industriestandaarden (fbx, bvh, c3d) of gestreamd naar een andere variant van plug-ins (bijv. Unreal engine, Unity, Motionbuilder).
Dit is in een notendop hoe de software en hardware werkt.
[Reactie gewijzigd door eniux op 14 januari 2021 17:47]
Toevoeging: het technologisch lastige van dit alles zit hem in de filtering van de rauwe sensor data.
Gyroscopen hebben drift, noise en een error op de meting en accelerometers hebben ook een willekeurigheid in het signaal. Als je dit ongefilterd zou weergeven zou je zien dat de posities in ledematen naar verloop van tijd (secondes) af gaan wijken van de realiteit.
Op deze manier raak ik ook helemaal niet overtuigd van Premium hoor Tweakers...
Dit is toch ook weer gewoon een advertorial?
Er kan toch VEEL dieper ingegaan worden op de gebruikte technieken, de benodigdheden buiten het pak, de leercurve, vergelijkingen, camera's, gebruikersrecensies... DAT is wat voor mij premium de moeite zou maken. Niet gewoon "dit bestaat", maar liever "dit werkt op deze manier".
Is het bijvoorbeeld live gestreamed? Kan een animator meekijken met de acteur die thuis opneemt?
Is het een batch van x bewegingen/opnames die verwerkt wordt? Is dit realtime verwerkt?
Zoveel vragen op het einde van een artikel waarvan de bedoeling is dat er voor betaald wordt in de toekomst...
De eerste reactie is gelijk een verwijt dat dit een advertorial is. Die was wellicht te verwachten. En daarom wil ik ook mijn keuze om dit verhaal te schrijven toe te lichten. Dat doe ik één keer, omdat ik nieuw ben en dat ga ik niet bij elk premium-verhaal doen.
Allereerst, dat dit een premium-verhaal is. Er is een onderscheid tussen premium-achtergrond en nieuws. Dit is een premium nieuwsbericht. Dat wil zeggen: ik breng het nieuws, net als dat ik dat met alle andere CES-nieuws zou doen, maar steek extra tijd en moeite om dat nieuws toe te lichten, door te bellen met het bedrijf, met experts en door extra tijd te steken om in me in te lezen. In de tijd dat ik dit verhaal schrijf, kan ik ook meer berichten brengen, dus daar moet wat tegenover staan: het premium-label. Het nieuws is niet de techniek achter dat pak, wat al jaren gebruikt wordt. Voor een achtergrondverhaal had die technische insteek heel interessant geweest, maar dan was het een heel ander verhaal geweest.
Dan je verwijt dat dit een advertorial is. Dit nieuws hangt samen met CES. We brengen al de hele week nieuws over uiteenlopende releases op CES. Van elk persbericht dat we overnemen kun je zeggen dat dat een advertorial zou kunnen zijn, omdat we een merk een podium geven. Maar wij krijgen niet betaald voor het overnemen van het nieuws uit al die releases, dus is dat het niet. Dat we een bedrijf uitlichten en een directeur aan het woord laten, wil niet meteen zeggen dat het een advertorial is.
Ik heb gekozen om hier extra tijd en aandacht aan te besteden, na overleg met de nieuwscoördinator, omdat ik dit een interessant nieuwtje vindt. Het is een Nederlands bedrijf dat een niche product maakt dat gebruikt wordt door de grootste gamestudios en filmstudios ter wereld. Op diezelfde manier zouden wij een interview met iemand als Hermen Hulst van Playstation en Guerilla Games kunnen schrijven. Dat is op zichzelf al best wel interessant. Maar dat wil het ook nog eens beschikbaarder maken voor een groter publiek: zorgprofessionals, sporters en onafhankelijke game-makers en animators door flink te snijden in de up-front kosten van hun product. Dus vond ik het de moeite waard om het bedrijf eens uit te horen en meer tijd te maken om uit te leggen wat hun nieuws is. Dat wij een release van CES uitlichten op deze manier, doen we omdat we denken dat de community dit net zo interessant zal vindt als wijzelf. Wij labelen het premium omdat de extra tijd die ik hierin steek niet besteed kan worden aan het tikken van andere nieuwsartikelen.
Ik heb me bij dit bericht, net als bij andere berichten, kritisch opgesteld. Dat vertaalt zich in de uitleg dat hun product duur is en de uitleg dat wat ze verkopen, de dienst met allerlei toepassingen voor sporters en medische professionals, vooral nog een belofte is. Dat staat volgens mij duidelijk in het stuk. We geven Xsens geen vrij spel om lekker hun product te verkopen met flitsende marketingtermen. We linken nergens naar hun dienst en we sporen je niet aan om hun dienst te kopen. Dat moet je zelf weten. Voor mij was het gewoon een interessant nieuwsfeit van een interessant Nederlands bedrijf met een interessant product. Net als elke andere CES-nieuwtje.
Edit: ik wil wel toevoegen, tuurlijk had ik dieper in kunnen gaan op hoe het allemaal werkt, hoe de dienst werkt. En misschien had ik dat ook moeten doen. Maar dat maakt dit nog geen advertorial.
[Reactie gewijzigd door SirRosencrantz op 14 januari 2021 16:53]
Op diezelfde manier zouden wij een interview met iemand als Hermen Hulst van Playstation en Guerilla Games kunnen schrijven. Dat is op zichzelf al best wel interessant.
Prima idee!
En omdat ze bij Guerilla Games gebruik maken van een ander merk voor Motion Capture (https://www.vicon.com/applications/vfx/) voorkom je dat tweakers wordt beticht van het commercieel eenzijdig promoten.
Bedankt voor je hele uitleg en uiteraard welkom. Maar het feit blijft natuurlijk wel een beetje dat dit dus eigenlijk een betaald premium artikel had moeten zijn. Wat reactie hierboven en elders proberen aan te geven is dat het vrij karig overkomt voor een betaald redactioneel stuk. Wat je zelf met deze meningen doet sta je natuurlijk helemaal vrij in. Maar je reactie voegt niet meer waarde toe aan het artikel, enkel alleen een uitleg van waarom hij is zoals hij is. Tweakers probeert een betaald model te verkopen door een preview te geven. Maar ik ben het wel eens met andere dat de previews niet altijd even overtuigend zijn. Dus wellicht kunnen jullie dit ook gewoon mee nemen als Feedback om het betaalde product te verbeteren en men wel te overtuigen van de meerwaarde. Als je de prijs moet gaan uitleggen (dat is wat je feitelijk deed in je reactie) omdat men anders de meerwaarde niet in ziet, gaat er over het algemeen toch iets niet helemaal goed.
[Reactie gewijzigd door ro8in op 14 januari 2021 17:22]
Ik ben niet de persoon om de discussie te voeren over wanneer een artikel diep genoeg gaat voor premium, denk ik. En dit is niet de plek. Daarvoor kun je terecht in het Tweakers Premium-topic. Maar natuurlijk nemen we als redactie alle feedback en kritiek mee in onze volgende stukken. Op Slack ben ik al druk aan evalueren. Voor de hele redactie is het premium-model ook nog zoeken en voor mij als nieuweling helemaal. Bij artikelen, kort of lang, is altijd een kwestie van darlings killen of juist uitbreiden. En je moet altijd op zoek naar de balans tussen tijdsinspanning en inhoud. We hebben het stuk uitgebreid gelezen voor publicatie en het leek ons zo goed. En daar sta ik nog steeds achter. Maar dat betekent niet dat het niet tof genoeg is om nog eens uitgebreider in te gaan op de techniek. Kortom: ik hoor je feedback, ik luister ernaar en ik zal in het vervolg nog scherper zijn op de inhoud van een premiumstuk dat ik schrijf.
Tweakers begint dinsdag met een bètatest voor een Premium-aanbod. In de periode van deze test krijgen gebruikers met een account die ingelogd zijn, toegang tot extra artikelen. Deze artikelen zijn een aanvulling op het bestaande nieuws en de productreviews.
Met Premium-artikelen willen we jullie dagelijks beter op de hoogte brengen, met nieuws dat meer brengt, door dieper in onderwerpen te duiken, experts te spreken en duiding toe te voegen. Premium blijft niet beperkt tot nieuws; we willen jullie ook beter informeren over tech met technische achtergronden, how-to's, columns en interviews.
Netjes geschreven artikel, daar niet van... Maar de diepgang mis ik echt.
Dat is een valide mening. Bij het schrijven van een artikel is het altijd een kwestie van darlings killen. Voor mijn gevoel ging ik diep genoeg in op de materie, maar zal in het vervolg nog scherper zijn hierop.
Dat is ook waar ik op doelde, het is zeker geen slecht geschreven stuk en ik ben niet kritisch naar jou als persoon, maar dit is iets wat rechtstreeks als press release op hun website kan staan, terwijl volgens mij premium juist dieper moet ingaan op de technische kant van alles. Voor mij heeft dit bericht geen "meerwaarde" tegenover een normaal artikel, terwijl hier wel mijn interesses liggen. Mocht er meer info instaan over het hoe en wat is dit onderwerp wel iets waar ik zeker voor zou willen betalen.
Nieuws van de CES kan eigenlijk geen premium zijn want dit is wat tweakers al standaard bracht.
Waar de extra tijd in zit geen idee maar ikmzie het niet terug, dit is een artikel met informatie, kwaliteit en diepgang die we bij tweakers mogen verwachten.
Daar reageren is op het premium wat men wil doorvoeren met premium.
De inhoud van dit artikel leest als een advertorials, dat heeft dus feitelijk niets met premium te maken. Dat het premium label heeft maar eigenlijk als advertorial leest is wel heel apart. Vandaar, zie hieronder nieuw label, paytorial.
Paytorial is de nieuwst bron van maximale inkomsten. Bedrijf betaald om het gepubliceerd te krijgen en ook de lezer betaald om het te mogen lezen. Dubbel kassa en mooi nieuw internet verdienmodel.
Bedrijven betalen de redactie van Tweakers nooit voor een publicatie. Dat is in het verleden nog nooit gebeurd en gaat ook niet gebeuren. Als er betaald wordt voor een artikel staat dat er altijd duidelijk bij zoals je weet.
Ik verwees ook naar advertorial waar bedrijven wel voor betalen. Het artikel leest als advertorial dat schreef ik, dat is iets anders als dat ik zeg dat het betaald is.
Maar lees als sarcasme, paytorial als nieuw label advertorial waar je als premium voor moet betalen. Zo lang het label klopt is er niets aan de hand en is het duidelijk
Mijn eerste indruk was ook dit leest als een advertorial die dan onder premium staat. De omgekeerde advertorial wereld dus waar jij dus moet gaan betalen om een advertorial te kunnen lezen straks.
Misschien kan met i.p.v premium dan de tekst paytorial gebruiken
Is het bijvoorbeeld live gestreamed?
De MVN (analyze/animate pro) software kan via network streaming data streamen naar een andere locatie. Dat is deze dienst niet in principe niet. De data wordt natuurlijk wel gevisualiseerd zodat een animator er iets mee kan.
Kan een animator meekijken met de acteur die thuis opneemt?
Doormiddel van eerder genoemde visualisatie, kan een animator het terugkijken en vervolgens exporteren in het format dat hij/zij wil gebruiken.
Is het een batch van x bewegingen/opnames die verwerkt wordt?
De opnames bevatten de sensordata die voortkomt uit de 17 sensoren en die vervolgens door filters heen gaan en een bestand opleveren. Dit resultaat wordt opgeleverd in een MVN bestand en van deze bestanden kunnen er meerdere verwerkt worden, dit gebeurt inderdaad in batch. In tests ben ik tot 25 bestanden gegaan.
Is dit realtime verwerkt?
Nog niet, het sterke punt hier is juist hoe accuraat de data is als je rekening houdt met de data in het gehele bestand.
Real-time streaming is overigens voor de software zelf geen probleem, het reprocessen van dezelfde data levert echter een resultaat op dat zich kan meten met (optische) systemen die vele malen prijziger zijn. Zoals het optische systeem gebruikt door guerilla games. Met als additioneel voordeel dat je geen studio nodig hebt.
Voel je vrij om een dm te sturen als je nog andere vragen hebt
[Reactie gewijzigd door eniux op 14 januari 2021 22:02]
Leuk & interessant artikel!
Voor mij als leek is het lang genoeg. Het uitdiepen van sommige andere premium artikelen is voor mij soms too much. Dat komt ook door mijn leesgedrag, ik vind het prettig om even kort iets door te lezen 🙂
Het premium principe moet in mijn ogen niet uitsluiten dat er eens extra tijd in een 'normaal' artikel wordt gestoken voor bijvoorbeeld nabellen en onderzoek.
Hele mooie configureerbare sensors, ik werk er ook mee. Levert de data 100x per seconde, maar je kunt ook andere data intervallen configureren, alsmede welke data je wilt.
Het RS422 signaal zet ik voor mijn toepassing om naar TCP/IP, via een STM32H7 MCU.
"Zij moeten alsnog software als Blender of Unreal hebben om de bewegingsdata te kunnen gebruiken voor animatie."
Het komt over als een nadeel, maar waarom? Het zijn beide best volwassen producten en veel gebruikt, dus ik zie niet de noodzaak om eigen animatie software te gaan ontwikkelen. Iemand die hier een motivatie voor weet die niet met geld te maken heeft?
@stefan veggelen: Mijn kennis rondom dit onderwerp is erg beperkt. Daarom vind het interessant. Maar weliicht werkt het om een volgende keer wat meer links toe te voegen die je gebruikt hebt tijdens je eigen research, Geeft wellicht ook meer aan hoeveel tijd je er in hebt gestoken. En kan een leek als ik er wat meer in lezen mocht ik die behoefte hebben.
@enlux : thx voor toelichting.
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details