Door Mark van der Kruit en Luke van Drie

Hoe augmented reality televisie verrijkt - Achter de schermen bij Ziggo Sport

15-11-2020 • 06:00

128

Dat lineaire kabeltelevisie het al tijden moeilijk heeft, zal niemand verbazen. Toch worden ook in deze oldskool uitzendingen nieuwe technieken toegepast. Zo is bijvoorbeeld het gebruik van augmented reality de laatste jaren volwassen geworden. En door alle beperkingen die het coronavirus met zich meebrengt, is er de laatste maanden bovendien een opleving te zien in het gebruik van virtuele studio’s en on-air graphics. In deze video laten we zien hoe AR zoal wordt toegepast en kijken we welke technieken eraan te pas komen. We gaan daarvoor langs bij NEP Graphics in Hilversum, dat verantwoordelijk is voor het AR-deel van de productie van onder andere Ziggo Sport.

Reacties (128)

128
125
83
5
1
29
Wijzig sortering
Mooi gedaan zo. Leuk om naar te kijken en leuk om ook anderen te laten zien!

Voor een Tweakers publiek had ik het gaaf gevonden als er nog wat meer was laten zien van de hele IT infrastructuur die hier achter zit. Bij NEP noemen we dit het 'Centralized production platform'.

Beknopte extra info voor mensen die dat interessant vinden:
De beelden uit de camera's (zoals bijv die in de studio van Ziggo) gaan via een fiber verbinding naar een grote video matrix die staat in het datacenter van NEP. Vanuit hier kunnen beelden gerouteerd worden naar verschillende locaties, zoals bijvoorbeeld de AR render engines, die ook in het datacenter hangen. Of bijvoorbeeld naar 1 van onze cloud regies, video & audio control rooms of regiewagens.

NEP is een bedrijf met meerdere locaties wereldwijd. We hebben daarom ook directe fibers liggen naar locaties in andere landen. Hierdoor beperkt de infrastructuur zich dus niet tot Hilversum. Zo kan er bijvoorbeeld een show live zijn in Londen, terwijl de mensen die de show bedienen op dat moment in Hilversum zitten. Hier daarover meer voor de geinteresseerden: https://youtu.be/0WO65RJL7Yw

Om een AR productie neer te zetten zoals getoond in de video, is zo'n centralized production platform niet perse noodzakelijk. De AR render engines kunnen in principe ook gewoon workstations op de studiovloer zijn. Maar met deze hele infrastructuur kunnen we wel veel flexibeler zijn, veel makkelijker opschalen en de beschikbare rekenkracht veel efficienter inzetten.
Interessant om te lezen. Hoe zit het dan met lag tussen wat er gebeurt bij het filmen en wat dan in de cloud gerenderd wordt? Daar lijkt me toch wel iets vertraging tussen zitten en dat kun je eigenlijk niet hebben?
De vertraging met AR zit momenteel op 7 frames. In een show met AR vertragen we daarom al het beeld en geluid met 7 frames. Dus ook het beeld van camera's zonder AR wordt vertraagd. Het is dan belangrijk dat deze vertraging wel atijd exact gelijk blijft. Zo kunen camera's met en zonder AR beiden geschakeld worden.

Uiteraard zijn we bezig met verdere optimalisaties om de vertraging nog meer terug te kunnen brengen. Zo zijn de verbindingen tussen de video matrix en de AR render engines momenteel SDI (koper). Door dit bijvoorbeeld te vervangen door fiber verbinding, zou je zo maar eens 1 of 2 frames minder vertraging kunnen hebben. Ook softwarematig valt er altijd wat te winnen natuurlijk.
Dat verklaard dan ook de sync tussen beeld en audio bij de eerste uitzendingen met de virtuele studio denk ik zo. De sync was toen niet echte perfect te noemen.

Het blijft wel mooi om te zien wat tegenwoordig allemaal mogelijk is.
Pijn in mijn ogen als presentator. Ik kan geen groen meer zien. ;)
Pijn in mijn ogen als presentator. Ik kan geen groen meer zien. ;)
Dan kijk je echt de verkeerde kant op :)
Interessant hoe deze techniek gebruikt wordt. Er komen spannende tijden aan voor de Unreal Engine.
Epic is op dit moment druk bezig ervoor te zorgen dat er ook echte animatiefilm kwaliteit (zoals bijvoorbeeld van Pixar) uit Unreal kan komen. Door Corona gaat ineens alles over virtual production!

Ik ben benieuwd hoe ver we met realtime graphics kunnen komen.
realtime fotorealisme vereist vooral veel rekenkracht. Hoewel de engine maker, zoals Epic, wel wat kan tweaken blijf je gewoon met de vereiste van die rekencapaciteit zitten. Waar Pixar vroeger 2 jaar nodig had om een hele film te renderen kunnen ze dat vandaag op enkele weken, voornamelijk omdat er veel meer rekenkracht beschikbaar is vandaag de dag voor veel minder geld.
Vroeger moesten animatie en VFX studio's alles in-house renderen. Frames nemen nog steeds makkelijk 20-40 uur in beslag alleen kunnen studio's nu de cloud gebruiken. Dit zorgt er inderdaad voor dat je een finale versie van een shot er theoretisch op het allerlaatste moment nog uit kan persen. Deze vorm van offline renderen stond tot nu toe los van realtime renderen.
Tot de Mandalorian werd Unreal eigenlijk alleen maar gebruikt voor previz. Het is erg interessant om te zien hoeveel Epic op dit moment uitgeeft om door te breken in virtual production en animatie.

https://www.youtube.com/watch?v=03XMTFjZaUY
Het is erg interessant om te zien hoeveel Epic op dit moment uitgeeft om door te breken in virtual production en animatie.

https://www.youtube.com/watch?v=03XMTFjZaUY
En hier nog duidelijk verschillen met gebruik van greenscreen in beeld gebracht:
https://www.youtube.com/watch?v=Ufp8weYYDE8

[Reactie gewijzigd door r132546e op 22 juli 2024 14:43]

Deze technologie is baanbrekend. Het is echter op dit moment nog steeds zo dat veel van de achtergronden naderhand digitaal vervangen worden. De LED schermen zijn op dit moment nog niet goed genoeg voor veel van de uiteindelijke shots. Voor de belichting zijn ze op dit moment al revolutionair.
Vroeger moesten animatie en VFX studio's alles in-house renderen. Frames nemen nog steeds makkelijk 20-40 uur in beslag alleen kunnen studio's nu de cloud gebruiken.
Wat bedoel je met 'vroeger'? In ieder geval sinds 2005 was het al mogelijk om grid computing in te zetten per project, aanbieders van rekenkracht specifiek voor renderen bestaan al veel langer dan je schijnt te denken.
De mogelijkheid bestaat al veel langer. Het is alleen zo dat studio's als bijvoorbeeld Pixar, ILM, DNEG, MPC, Digital Domain en Sony Imageworks nog steeds uit kosten overwegingen heel veel lokaal renderen. Het is pas een paar jaar de norm om bij gebrek aan capaciteit de cloud te gebruiken.
Ik weet dat Unity ook met VR bezig is. Wat denk je, welke engine is daar het beste in op dit moment?
Unreal ook hoor. Veel goeie vr games in unreal
Pixar heeft Renderman wat al ruim 20 jaar bestaat; dat zullen ze niet 1,2,3 opgeven voor andere software. zeker niet aangezien ze daar momenteel al hun modellen en werelden van alle Pixar films in hebben zitten. Leuk detail: alle oude films van pixar worden continue mee geupdate. Dit betekend dat ze de eerder uitgebrachte films opnieuw kunnen renderen in 8k.
Niet 1, 2, 3. Pixar ontwikkelt en gebruikt op dit moment nog steeds Renderman maar de andere Studio's binnen Disney gebruiken niet meer alleen Renderman. Disney Animation gebruikte in het verleden de eigen in-house renderer Hyperion. ILM gebruikt Renderman, Arnold en Mantra. Bijna alle grote VFX en animatie studio's kijken nu naar mogelijkheden voor realtime rendering.

Wat je zegt over Disney films opnieuw renderen in 8k dat klopt niet. Alhoewel het technisch mogelijk zou zijn om bijvoorbeeld Toy Story 1 waarschijnlijk in een half uur of zo te renderen, gebeurt dit niet. De software die Pixar vandaag de dag gebruikt ondersteund geen van de bestanden die in die tijd zijn gecreëerd.
De Renderman van toen is niet de Renderman vandaag. Hetzelfde geldt voor programma's als Maya, Katana, Houdini enzovoorts. Veel van deze applicaties bestonden toen nog niet eens.
I stand corrected; Renderman bestaat 30 jaar. Daarnaast heb ik nooit gesproken over disney of disney renderers. Alleen over Pixar. dat stond ook in de post "zoals bijvoorbeeld van Pixar"
Met andere woorden: ik heb nooit aangegeven dat "disney films" opnieuw gerenderd kunnen worden door Renderman. Alleen de pixar films. Tevens kun je op de site van Pixar nalezen dat de engine en contents al 30 jaar worden onderhouden door het "Renderman Team".
Deze zal vast en zeker geëvolueerd zijn en niet meer 1:1 het zelfde zijn; maar dat is ook precies wat ik zeg. In 1984 bestond 8K niet. sterker nog: 4K ook niet, 1080P ook niet en 720P ook niet. toen was het allemaal nog Pal, SECAM en NTSC met beeldlijnen tot maximaal 576P. Dus nee, dat is niet meer het zelfde. Maar dat heb ik ook nooit beweerd toch?

Wellicht is het handig mijn post wat minder te lezen zoals je hem wil lezen. ;)

Toy Story 1 zul je in 8K nooit in een half uur kunnen renderen; da's natuurlijk onzin. zo'n film duurt ongeveer 90 minuten; en dat op 8K met 60 frames per seconde.. daar ben je wel even zoet mee. Wellicht dat het wel lukt in 240P.

Leuk weetje: Pixar was met Renderman al in 1984 bezig met Ray-tracing.. Daar hebben wij het ruim 30 jaar later pas over.

Nog een leuk weetje over Pixar: een van de eigenaren was Stephen Paul Jobs. lees na op: https://en.wikipedia.org/wiki/Pixar
Als iemand die dagelijks met Katana, Houdini en Renderman werkt kan ik je verzekeren dat de Pixar films van toen niet zo maar opnieuw gerenderd kunnen worden. Daarvoor zou alles opnieuw gedaan moeten worden. Onder andere models, textures, rigging, animation, cfx, fx en comp. De huidige USD pipeline van Pixar is heel iets anders dan de rudimentaire pipeline van toen.

Het klopt dat het Pixar team in Seattle (dat Renderman ontwikkelt en op afstand staat van Pixar Animation in Emeryville) al vanaf het begin met Renderman bezig is. Dit is helemaal waar.

De stelling over 8k of 240p is speculatief. Er zijn geen reflections, sss, refractions, displacement en GI. Caustics, fur en volumes zitten er ook niet in. De textures die er zijn hebben allemaal een ongelofelijk lage resolutie.
Toy Story 1 bestond uit 114240 frames. Stel dat een node van nu (high end xeon) er 20 seconden over doet om zo'n simpel frame van toen te renderen en dat ze er 2000 hebben. 114240*20 sec = 2284800 sec. 2284800/60 = 38080 min. 38080/2000 = 19.04 minuten.

Als je die film op 60fps als een soort spel zou willen renderen doe je er dan 2,5x zo lang over. 24fps --> 60fps

[Reactie gewijzigd door VfxArtist op 22 juli 2024 14:43]

Erg interessant artikel, zeker als trouwe Ziggo Sport kijker leuk om te zien hoe dit allemaal wordt gedaan. :)

Het lijkt me wel echt ontzettend raar om niets fysiek om je heen te hebben. Dit kwam niet echt naar voren in de video, maar hoe weet een persoon waar die wel of niet kan staan/lopen/bewegen?

Om het allemaal zo te zien is het toch wel erg knap wat we nu al allemaal kunnen en dit ook met open source software wordt gedaan van Nederlandse bodem.

[Reactie gewijzigd door HollowGamer op 22 juli 2024 14:43]

Je kan soms ook "spoilers" op de Instagrams van Robert Doornbos & Rob Kamphues (en soms post Rick Winkelman ook wel wat, laatst o.a. hoe hij in zijn commentaarpositie zat met NASCAR Phoenix achter zich) vinden hoe ze dan omgaan met de Green Screen.

Vooral de rondje op de sim die Doornbos doet staat regelmatig op Instagram.
Opvallend hoe weinig licht hij daar heeft trouwens.
Haha, nooit geweten, thx!
Hehe ja dat is deels een kwestie van ervaringen en gewenning voor presentatoren. Maar heel veel staat ook bijvoorbeeld met stickers op de vloer aangegeven. Plus de graphics die bv in beeld verschijnen kunnen tijdens de uitzending live bediend worden. Dus in het ergste geval verplaatst iemand achter de schermen dat element even snel.
Wat een gave video en cool onderwerp.
Complimenten aan @TradeMarkNL en @LukevanDrie voor deze bijdrage!
Meer van dit!
AuteurLukevanDrie Teamlead Mediateam @JoepW15 november 2020 10:09
Leuk Joep, veel plezier met de race in Istanbul :)
Dat gaat wel lukken, met deze natte baan en bizarre quali resultaten.
AuteurTradeMarkNL Videoredacteur @JoepW15 november 2020 10:07
Thnx Joep, leuk om dat van je te horen!
Anoniem: 1344348 15 november 2020 07:09
Mooie uitleg van deze techniek. En grappig dat dat AR-bedrijf zo’n toepasselijke naam heeft...
NEP doet veel meer dan alleen dit. Idd een wat ongelukkige naam, maar zijn wel één van de grootste in Nederland, en de grootste wereldwijd. Amerikaanse eigenaar, en die naam kwam gewoon mee..
Ik geloof dat je United niet echt meer als serieuze competitie kan beschouwen in Nederland, ja ze zijn groot in het kopiëren van ideeën van N.E.P, vraag mij dan toch wel af als N.E.P niet de grootste in NL is, wie dan de grootste is? Ik kan 'm namelijk niet bedenken.

[Reactie gewijzigd door j4ck1nth3b0x op 22 juli 2024 14:43]

Geloof dat koch media in oostenrijk ook een van de grootste is in europa sinds hun overname.
Als ik zo kijk (naar medewerkers) heeft Koch media zo'n 800 medewerker in Europa. NEP the Netherlands heeft al rond de 900 alleen en dan hebben we nog vestigingen in UK, Duitsland, België, Italië, Zweden, Nieuw Zeeland, Amerika, Denemarken, Singapore, Ierland en Australië (teveel om op te noemen) waarmee we dus rond de 4000+ werknemers zitten. En met meer dan 195 outside broadcasting wagens zijn we overal ter wereld inzetbaar.

United daarin tegen maakt deel uit van de euromedia group een samenwerking van 21 bedrijven met bij elkaar zo'n 1500 medewerkers.

[Reactie gewijzigd door Quantum_Cookie op 22 juli 2024 14:43]

Je moet natuurlijk niet het aantal personeelsleden als maatstaf voor grootte nemen maar het aandeel in de markt. Je kunt als bedrijf de operatie heel inefficiënt doen met heel veel mensen, maar je dan de grootste noemen vind ik iets tè kort door de bocht. Het aandeel in de markt is leidend.
De efficiëntie discussie kan je gerust voeren wanneer de verschillen wat kleiner zijn, maar in t geval van 1,5K vs 4K ga je dat toch niet winnen hoor.
Eh nee, i stand corrected. Ik had hier toen ik in oostenrijk zat een nieuwsbericht gelezen.

Ik zal ff zoeken of ik het kan vinden, maar ik geloof dat daarin werd gesteld dat het de grootste was in AR, niet perse in productie.

Maaaar, 1500 vs 4000 is inderdaad geen spannende vergelijk
Ik denk inderdaad dat we de grootste zijn, zeker qua aantal werknemers. Maar om dat meteen te roepen... 🤣
Ik vond het wel toepasselijk gekozen, maar blijkbaar alleen toeval. :)
Hoe doe je dat? Een van de grootste in Nederland en de grootste wereldwijd. Horen wij niet meer bij de wereld?

Wel erg indrukwekkend om te zien hoe dit soort technieken werken. Voegt voor mij echt iets toe aan de beleving van dit programma.
Ik vraag me toch af of dat niet (onderbewust) gevolgen heeft voor het aannemen van personeel.

Wie wil er bij een NEP-bedrijf werken?
Nog nooit gehoord dit soort grapjes |:(

Edit: als medewerker genoeg gehoord, maar het heeft echt 0 invloed op alles wat we doen.

[Reactie gewijzigd door Camiel op 22 juli 2024 14:43]

Relax. Ik heb jaren met de concullega’s van NEP (en de bedrijven die in de afgelopen 10 jaar zijn opgegaan in NEP) gewerkt. Er werken daar veel talentvolle mannen en vrouwen waar ik veel waardering voor heb.

Deze stomme grapjes worden zo vaak gemaakt omdat het stomme grapjes zijn. Iedereen in het veld weet dit. :)
Gewoon negeren. Er zijn talloze Tweakers die al helemaal wild voor de TV zaten van jullie producties, en nu krijgen we als kers op de taart ook nog een kijkje achter de schermen.

Als Tweaker vind je vaak veel te veel interessant, en dit is weer typisch zo een voorbeeld. Ik zou haast gratis een jaar willen komen werken bij jullie om eens te proeven aan deze techniek. Heerlijk interessant!.

Daarnaast moet ik jullie bedanken omdat ik samen met mijn vader F1 kijk, en we helemaal fan zijn van de productie tegenwoordig.

Goed bezig!
Hou de website in de gaten, de druk loopt weer op, er komen waarschijnlijk weer banen bij. :)
Maar leuk om te horen, het is ook leuk om dit soort werk te doen, apart wereldje ☺️

[Reactie gewijzigd door Camiel op 22 juli 2024 14:43]

(y)

Goed plan, ik kom alleen niet veel verder dan wat tekst motion tracken ;)

En dat kost me al 3 toetsenborden aan frustratie. Nu mag ik hopen dat jij niet eindeloos trackers loopt te Tweaken, maar ik was er snel klaar mee :D

[Reactie gewijzigd door World Citizen op 22 juli 2024 14:43]

Volgens mij ben jij aan het werk? Erg gaaf dat die halve Haas binnen een dik half uur al door jullie software heen is en in beeld staat.

Wat een crash was dat zeg!
Haha, nee.. Ik zit nooit bij Ziggo 😁
Aan het einde van het report vraagt Vince Westbroek zich af of dit ooit mainstream gaat worden. “Het is zo lekker om niche te zijn”.
Nou, kijk maar naar Star Trek. Allerlei zaken, die daar zijn bedacht, vinden we nu in ons leven heel gewoon.
Als volgende het ‘holodeck’...? Een volledige onderdompeling in een virtuele wereld met tastbare figuren en objecten, levensechte interactie met virtuele mensen.
AR wordt ‘so totally mainstream’.
Ik zou in de nabije toekomst (over een paar jaar) nog wel eens een reactie van Vince willen zien op wat hij hier laat zien en zegt.

Ik kan trouwens niet wachten tot er weer zo’n mooie bijdrage van het Tweakers team komt over een onderwerp waar veel mensen in geïnteresseerd zijn.

@Appie3 Er zijn, denk ik, meer dan 3 groepen, zoals bv mensen die niets geloven, weten dat bijna alles AR of CGI erin heeft in meerdere of mindere mate en die er desondanks gewoon van genieten.....
Je hebt helemaal gelijk dat de techniek zo snel gaat dat technische innovaties mainstream worden. Maar waarom ik 'niche' zei, heeft vooral te maken met dat wij Augmented Reality gebruiken om aan storytelling te doen, het duiden van een bepaalde situatie. Die elementen moeten altijd gemaakt worden, en dus ook bedacht. Goed voorbeeld zijn de uitzendingen van Universiteit van Nederland, die nu vanuit onze grote groene studio komen. Per programma wordt bedacht welke elementen er nodig zijn. Dat kost tijd/geld en moet je goed over nadenken Wat wil je vertellen en wat is het je waard. Daar is lang niet bij elke productie tijd/geld voor.
Ik heb het natuurlijk niet over geld gehad, maar ik kan me zo indenken, dat de opdrachtgevers de meerwaarde van wat jullie doen steeds meer gaan waarderen. Zowel inhoudelijk als financieel. En dat daarbij de knip wijder opengaat lijkt me een logisch gevolg. Ik ben niet jong genoeg meer om me deze dingen eigen te maken, maar als ik mijn carrière mocht overdoen, zou ik heel graag deze richting hebben gekozen.

En met deze technieken mensen op een veel makkelijker te begrijpen manier duidelijk maken wat er wordt bedoeld.... heerlijk lijkt me dat.

[Reactie gewijzigd door Tantrum op 22 juli 2024 14:43]

Awesome. Maar wat als straks helemaal niet meer zichtbaar is wat echt is, en wat nep...

[Reactie gewijzigd door adjep07 op 22 juli 2024 14:43]

Dat is inderdaad een nieuwe uitdaging waar nog veel vragen over zijn. Als je kijkt hoe ver deep fake technologie al is, in combinatie met fake news als politiek instrument, kleven er ook risico's aan dit soort Tech.
Dubbelzinnige nep :+

Sorry, flauw.
Nee hoor, er stond ook eerst NEP ;-)
Awesome, heel erg tof om te zien!
Wat ik me afvraag hoe bijv. Rob Kamphuus en Robert Doornbos weten waar ze naar moeten kijken of wijzen?
AuteurTradeMarkNL Videoredacteur @Pinin16 november 2020 10:15
Veel gebeurt volgens mij aan de hand van markeringen met stickers bijvoorbeeld, doorspreken vooraf waar een element verschijnt en ik dacht dat er ook monitoren staan waar ze op kunnen zien waar wat verschijnt.
Mooie reportage, maar het viel me inderdaad tegen dat de beleving in de studio niet naar voren kwam. Wat ziet zo'n Doornbos als ie commentaar geeft bij beelden of een rondje in de simulator doet?
Boven de "groenbox" hangen 2 afkijk monitoren voor referentie, buiten de groenbox staan 2 monitoren die beide camera's Augmented Reality weergeeft. Maar beide presentatoren zijn inmiddels erg gewend, en Robert is zelfs als hij naar het groen kijkt nog in staat om een rondje in de sim te doen. We helpen een klein beetje door op het groen een Zwart/Wit signaal te projecteren, net niet zichtbaar voor de chroma key. Kijk zijn socials er maar eens op na. Ik heb het ooit geprobeerd, maar sta in de eerste bocht in de vangrail. Echt heel knap.
Welke domoor heeft bedacht dat dit soort technieken AR moet heten?
We noemen CGI films toch ook niet VR?
Er worden realtime virtuele objecten toegevoegd aan de echte wereld. Als dat geen AR is, wat is dan wel AR volgens jou?
Volgens jouw redenatie kan ik zeggen dat er voor CGI films ook hele virtuele werelden worden geschapen. Moeten we dat dan ook maar VR gaan noemen? :)
Of wat dacht je van games? Dat zijn ook real-time graphics, maar dus zonder de 'echte' beelden ertussen. Dat noemen we toch ook niet VR?

Voor mij is AR in ieder geval een technologie die virtuele objecten in mijn FOV projecteert terwijl ik de echte wereld navigeer. Het moet mijn omgeving tracken en niet de omgeving van de studio. Dan noem ik het AR.

De tech in het artiekel zou ik dan Virtual Film Set noemen ofzo. Maar het kapen van bestaande hypewoordjes is natuurlijk veel makkelijker. :)
Deze techniek word Virtual Production genoemd. Ook op grote schaal toegepast bij het maken van The Mandalorian. Mocht je het interessant vinden: https://youtu.be/gUnxzVOs3rk
Ja, virtual production vind ik ook wel een ok term idd.
Als iemand die hier dagelijks mee werkt bij NEP, kan ik zeggen dat in deze industrie dit gewoon zo genoemd wordt. Onze partners wereldwijd, onze klanten en alle andere betrokken partijen, kennen deze techniek als Augmented Reality.

Je mag natuurlijk vinden dat dit niet klopt. Maar dat is nou eenmaal de naam die aan deze techniek wordt gegeven. Dit is het ook al zolang het bestaat. Dat is niet even snel door NEP bedacht ofzo.

[Reactie gewijzigd door marijnmedia op 22 juli 2024 14:43]

Ik begrijp wat je zegt. Maar dan nog denk ik dat het een relatief recente ontwikkeling is om dit AR te noemen. Gevalletje marketing. Maar de techniek is zoals je zeg al redelijk oud alhoewel niet in real time.
Ik zag trouwens laatst een docu over ik geloof Empire Strikes Back en daar hadden ze voor de FX shots een camera (op een camera) die naar het plafond gericht stond waar dan weer allemaal tracking-patroontjes op zaten. Zo konden ze de 2D positie en rotatie van de main camera meten. Camera-tracking systemen hebben dus een lange geschiedenis (40+ jaar).
Voor mij is AR in ieder geval een technologie die virtuele objecten in mijn FOV projecteert terwijl ik de echte wereld navigeer.
De term AR heeft meerdere ladingen. Wat jij benoemt zou ik POV AR noemen, wat NEP doet zou ik 3rd person AR noemen
Tja, je hebt een punt, ware het niet dat dat NEP spul eigenlijk een beetje nep is.

Er is uiteindelijk niemand wiens werkelijkheid geenhanced wordt.

Je zou denken dat het de presentator is maar die ziet dat hele effect niet voor zich, die ziet zichzelf en het effect terug op een scherm dat ergens achter de camera staat en weet zo ongeveer waarie op moet reageren. Maar niemand heeft een echte AR ervaring. Het is allemaal getruuk met compositing.

Eigenlijk nog steeds een beetje hoe de weerman het doet, beetje ongeveer in de lucht zwaaien voor een groen scherm terwijl je opzij kijkt naar een afkijk van jezelf met de virtuele weerkaart.
Er is uiteindelijk niemand wiens werkelijkheid geenhanced wordt.
Ja hoor, die van de kijker uiteindelijk. Wat "werkelijkheid" is is een breed begrip. Ik zou dit wel AR noemen, aangezien je iets uitbreidt (augment) voor een (grote) groep.
Het is allemaal getruuk met compositing.
En hoe verschilt dat met POV AR, om die term maar aan te houden? Dat is compositing op een bril of een object dicht bij je ogen, dit is compositing op een TV die wat verder weg staat...
Hoe zou jij het dan noemen?
Hoe zou jij het dan noemen?
CGI
Films doen tegenwoordig niet anders, alleen dan meestal niet in real time.
Je zou het dus real time CGI kunnen noemen.
De eerste positie tracking camera's waren al voor de originele Star Wars triologie ontwikkeld. Het idee is dus niet nieuw. AR is nu een soort modewoord.

Bij het woord AR denk ik in ieder geval aan toepassingen waarbij mijn 'reality' ge'augment' wordt en niet die van een presentator op een statisch scherm.

[Reactie gewijzigd door koelpasta op 22 juli 2024 14:43]

Real-time.... dan is het AR.

Niet real-time... geen AR.

Lijkt me niet zo moeilijk?

En AR is geen modewoord... het is nu dankzij de compute en techniek gewoon breed inzetbaar. Over enkele jaren een headset van Apple en het gaat langzaam mainstream.

Daarnaast is AR veel meer geschikt voor massa adoptie dan VR... dus een hype is het niet. Het is al overal, wat mensen soms niet eens in de gaten hebben.
Real-time.... dan is het AR.

Niet real-time... geen AR.
Heu, als ik TV kijk dan is het per definitie niet 'real time' voor mij. Dus geen AR? :)
En AR is geen modewoord.
Ik vindt het wel een modewoord. Dat wil niet zeggen dat het niks wordt of niks waard is ofzo. Het betekent dat veel mensen het er een tijdje over hebben, inderdaad omdat de techniek nieuwe toepassingen toelaat en er veel in de pers over geschreven wordt enzo. En dat het daarna weer een minder populair gespreksonderwerp wordt.
Daarnaast is AR veel meer geschikt voor massa adoptie dan VR... dus een hype is het niet.
Wat er hype aan is is dat het 10 jaar geleden werd aangekondigd als een nieuw tijdperk waarin alles in real-time geannoteerd wordt door het semantische web bladibla. :)
Maar ik ben het met je eens dat AR een breder en algemener nut kan hebben dan VR.
Heu, als ik TV kijk dan is het per definitie niet 'real time' voor mij. Dus geen AR? :)
Wel als je naar live televisie kijkt. Niet als je naar The Mandalorian kijkt.
Ja, was ook mijn gedachte, komt neer op een combinatie van camera tracking en realtime rendering, wat beide ook onderdelen zijn van AR, maar met AR heeft het mijn inziens ook weinig te maken. Is een beetje in lijn met overal HD, 3D en AI opplakken.

Dit is in de brede zin CGI of meer specifiek iets als realtime overlays.

[Reactie gewijzigd door jvo op 22 juli 2024 14:43]

videobeeld (werkelijkheid) verrijken (to augment) met virtuele beelden.
Precies hetzelfde als wat je smartphone met ARKit of ARCore doet.
Vandaar.

[Reactie gewijzigd door Menesis op 22 juli 2024 14:43]

Behalve dat ik met de smartphone de camera in handen heb en dat mijn 'reality' wordt 'geaugment'...
Ik ben het dus niet eens met hoe jij 'reality' vertaalt naar 'videobeelden'.
Het idee is volgens mij dat mijn omgeving ge-augmented moet raken en niet dat er een presentator in een virtuele set wordt gezet en ik er vervolgens statisch naar kijk.
Precies hetzelfde als wat je smartphone met ARKit of ARCore doet.
Helemaal niet! :)
Ik kan mn TV toch niet draaien om te kijken hoe die studio er vanuit een andere hoek uitziet? Hoe wordt mijn werkelijkheid dan opgewaardeert?
Tja voor de eindgebruik blijft het inderdaad gewoon passief TV kijken. Dus daar ben ik het met je eens dat het geen AR zou moeten worden genoemd als ze bijv de show bij TV-kijkers aanprijzen.

Maar voor het perspectief van de producers vind ik het wel een vorm van AR: Die kunnen ineens in realtime de set en een virtuele set samenstellen en op veranderingen inspelen. Op die manier krijg je een heel ander productieproces met meer ruimte voor spontane veranderingen en meer interactie tussen het fysieke en het digitale. Het is echt een enorm verschil met de traditionele green screen producties waarbij je achteraf pas het virtuele toevoegt ("offline rendering").
En bij gebruik van schermen ipv green screen wordt de fysieke set zelfs belicht door de virtuele set, en kunnen niet alleen de producers maar ook de acteurs de virtuele omgeving in realtime zien..
Maar voor het perspectief van de producers vind ik het wel een vorm van AR: Die kunnen ineens in realtime de set en een virtuele set samenstellen en op veranderingen inspelen. Op die manier krijg je een heel ander productieproces met meer ruimte voor spontane veranderingen en meer interactie tussen het fysieke en het digitale. Het is echt een enorm verschil met de traditionele green screen producties waarbij je achteraf pas het virtuele toevoegt ("offline rendering").
Ja, mee eens, maar dit soort technieken worden al heel lang in de filmindustrie gebruikt voor pre-vis. Ik geloof dat het al teruggaat naar de star wars prequels waar ze met tablets rondliepen en het shot (in baggerkwaliteit) van alle kanten konden bekijken. Maar volgens mij noemden ze het toen ook niet AR.
En bij gebruik van schermen ipv green screen wordt de fysieke set zelfs belicht door de virtuele set, en kunnen niet alleen de producers maar ook de acteurs de virtuele omgeving in realtime zien..
Ik neem aan dat je Mandalorian-achtige sets bedoelt. Helaas is het zo dat de achtergrondprojectie vanuit het gezichtspunt van de camera wordt opgebouwt en daardoor hebben de acteurs een vertekend beeld dat varieert tussen redelijk herkenbaar en totaal vervormd. Als de camera beweegt dan schuift de hele achtergrond de tegenovergestelde richting op. :) Daarnaast acteren mensen meestal met de achtergrond in hun rug. Het voordeel van zo'n schermachtergrond voor de acteur is dus beperkt, al zal het mischien wel beter/prettiger zijn dan een green screen vanwege het kloppende omgevingslicht.
Echt een heel leuke video!
Alleen jammer dat je dit nooit vanuit huis kunt doen op een Ziggo lijntje. oOo
Waarom niet?

Alsof je meer dan 10mbps nodig hebt om fhd te streamen..

Of bedoel je het maken van zo'n set?

Ook niet moeilijk vanuit huis.. Gewoon een kamer groen schilderen...
En dan de data uploaden? Of realtime vanuit huis camera's besturen of de output zien van de camera's en weer input geven?
Dat bedoel ik inderdaad. Met 1000/1000Mbps kun je misschien ook in de toekomst heel veel data offloaden om te renderen op andere lokaties of iets dergelijks.

Zoals ze nu zelf zeggen is het nu een niche onderdeel van TV/Video. Maar geloof me, straks komt er geen presentator meer naar een studio en precies wat jij zegt, groene kamers (of later niet eens meer nodig) zullen behoorlijk groeien in aantal.
Ik denk eerder dat er altijd wel een presentator aanwezig blijft voor het menselijke aspect. Het toffe aan deze manier van set creatie is dat je geen materiaal meer nodig hebt om een set in elkaar te knutselen wat zorgt voor meer flexibiliteit en lagere kosten. Tevens kan alles op 1 plek worden opgenomen, je hoeft niet meer ergens heen te rijden met een dure regie wagen.

Op maandag kan je een voetbal stadion doen en op dinsdag kan je een formule 1 uitzending doen. Je hoeft alleen een andere set in te laden.
Broadcast video is NOOIT onder de 50mbps. Dat is wel interlaced.
Vaak echter met 120mbps.
Je kunt green screen stoffen kopen en tegen de muur hangen. Is makkelijker en je kunt de kamer snel weer terug veranderen wanneer je wilt
En waarom dat dan niet? Je hoeft alleen de uiteindelijke "gerenderde" video te streamen naar de rest van de wereld. En dat kan wel met 50 Mbit/s

Op dit item kan niet meer gereageerd worden.