Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties

Nvidia heeft een beeldscherm gedemonstreerd dat een verversingssnelheid van 1700Hz zou bieden. De fabrikant noemt het prototype een zero latency display dat stabiel beeld bij hevig schudden kan tonen bij met name virtualrealitytoepassingen.

Tijdens zijn GTC 2016-evenement toonde Nvidia een video van het scherm, waarop het logo en de naam Nvidia te zien was. Het scherm was op een railsysteem gemonteerd en kon daardoor snel heen en weer schudden. Het beeld bleef echter stabiel in het midden. Waarschijnlijk gaat het om een oled-scherm.

Volgens de vice-president van Nvidia Graphics Research, David Luebke, kwam dat door de hoge verversingssnelheid van het scherm. Dat zou met 1700Hz ongeveer twintig keer hoger liggen dan momenteel bij vr-brillen het geval zou zijn. Een 90Hz-scherm toont elke 11 milliseconde een beeld, terwijl een 1700Hz-versie dat elke 0,58 milliseconde doet, schrijft Road to VR. De schermen van zowel de HTC Vive als de Oculus Rift bieden een verversingssnelheid van 90Hz.

Moderatie-faq Wijzig weergave

Reacties (68)

Hier zie ik het nut totaal niet van in. Voor video zou dit resulteren in bestanden die zo groot zijn dat ze op geen enkele drager passen. En voor games heb je GPU's nodig die pas over 50 jaar snel genoeg hiervoor zijn.
Tuurlijk is het wel nuttig als ze hiermee eigenlijk alle (merkbare) latency die door het scherm komt kunnen weghalen is dat alleen maar goed. Dat staat dan weer los van hoeveel fps jouw pc uitspuugt.

Stel jouw pc heeft een frame klaar maar je 60hz scherm heeft net een refresh gedaan dus moet je een hele refresh (16,66ms) wachten voordat je je frame ziet. Voor gewoon beeldscherm niet zon issue maar met VR ligt dat weer anders.
Wat jij beschrijft hebben we eerder zaken als FreeSync / G-Sync voor. Om daar een 1700Hz beeldscherm voor te gebruiken, dus dat je computer een beeld heeft gerendered wat na een halve milliseconde weer weg is, is niet erg efficient.

En we kunnen erg lang discussieren over hoeveel een mens nog kan zien aan verversingssnelheid, maar ik hoop ook dat we het eens erover kunnen zijn dat 1700Hz toch wel een hele hoop is, vooral als dat ook nog ergens door gerenderd moet worden. Er zijn vast zaken te bedenken wat je met zulke schermen kan doen, maar een VR bril? Ik ben skeptisch.
Het is eigenlijk een oplossing voor alle problemen in deze regio naar mijn idee.

Er word met G-Sync/FreeSync een (goede/betere) koppeling gemaakt tussen de gerenderde frames en de refreshrate van het paneel. Dit werkt uitermate goed voor statische panelen, zodat die dan ook niet (heel) snel hoeven te zijn. Dit is een synchrone vorm van het oplossen van dit probleem.

Met dit paneel word eigenlijk de andere tak van aanpak gemaakt. Als de refreshrate dusdanig hoog is dat de delay tussen twee frames geen echte delay meer vormt, is effectief de render snelheid (FPS) losgekoppeld van de refreshrate van het paneel. Dit is een asynchrone oplossing voor het probleem, wat alleen werkt bij hoge refreshrates.

Het voordeel van de asynchrone aanpak (met dus een refreshrate die hoog genoeg ligt) is dat er dan vervolgens een extra laag slimme technieken toegepast kunnen worden (bijvoorbeeld voor VR). Een voorbeeld, zoals NVidia hier zelf al demonstreert, is dat door middel van hoog frequentie gyro informatie het beeld (wat dus een onafhankelijke FPS heeft) gedraaid en gekanteld kan worden. Dit zorgt ervoor dat, alhoewel het daadwerkelijke frame niet continue update, de positie wel "continue" (met 1.7KHz dus) "klopt". Dit voorkomt weer een stuk misselijkheid, en zorgt voor een significante verbetering in de VR ervaring. NVidia heeft al momenteel een lichtelijk vergelijkbare techniek (iets meer renderen dan allen het scherm en daar in pannen als er vluchtige bewegingen worden gemaakt), waarvan de naam me momenteel helaas ontglipt.

Je zou het je zo kunnen voorstellen: Er word een "frame" gerenderd. Dit frame is significant groter dan de directe viewport (het scherm waar je naar kijkt). Vervolgens worden alle bewegingen die er gemaakt worden (met het hoofd) met 1.7KHz doorgevoerd op het scherm. Als de volgende frame klaar is met renderen, word die gebruikt. Zo word dus de framerate losgekoppeld van de ruimtelijke ervaring, waarvan juist de snelheid zo belangrijk is.
Er zit natuurlijk ook een nadeel aan de techniek, door een groter virtuele resolutie te gebruiken, gaat natuurlijk wel effectief de echte refresh rate naar beneden, maar ik denk ook dat het een goede trade off is, die het zeker waard is om een veel rustigere VR ervaring te hebben.

En met 1700Hz refresh rate, heb je ook niet echt G-Sync meer nodig.

En het is best interessant waar nVidia mee bezig is, ik las een tijd geleden dat nVidia deze hoge refresh rates haalde door onder andere 2 schermen over elkaar te leggen, en ze om en om aan te sturen, en hier door effectief 4x de resolutie te halen van een enkel scherm, en door lagere res panelen te gebruiken, kan men een veel hogere refresh rate halen.
Dit is overigens geen nieuw idee. Zie bv deze reeks publicaties om en nabij 2010: http://www.ncbi.nlm.nih.gov/pubmed/19910659 of de phd thesis https://pure.tue.nl/ws/files/3035559/200612981.pdf . Helaas bestonden dit soort schermen en dingen als consumergrade oculus rift vr headsets nog niet toen :P Maar wie weet hebben dit soort publicaties een steentje bijgedragen aan het idee ervoor... hoop ik ;)

[Reactie gewijzigd door Zoijar op 8 april 2016 08:56]

Ik dacht ook meteen aan het op basis van gyro-informatie steeds kantelen en centreren van een frame op hogere snelheid dan de eigenlijke complete rendering van de frames. Bij het kantelen moet je dan echter pixels interpoleren... Zou het niet makkelijker zijn om daar een techniek voor te gebruiken vergelijkbaar met optische beeldstabilisatie in camera's? Dan projecteer je dus in een VR-bril een groter beeld dan dat zichtbaar is. Vervolgens kan op basis van gyro-informatie het display draaien en de lenzen bewegen. Als dat door de wet van de traagheid gedeeltelijk passief en mechanisch kan heb je, afgezien van wrijving, een oneindig hoge refreshrate :P Bij een camera kan dat niet omdat je het beeld in tegengestelde richting wilt doen verschuiven ten opzichte van het beeld bij een VR-bril. Vergelijk het snel bewegen van je hoofd voor een stilstaande monitor. Dat beeld oogt stabiel.

[Reactie gewijzigd door pmeter op 8 april 2016 11:40]

Wat jij beschrijft hebben we eerder zaken als FreeSync / G-Sync voor.
nee, ook daarmee hebben nog steeds scherm latency. Daar moet je namelijk nog steeds ook elke keer wachten tot hij klaar is met het opbouwen van het scherm voor hij het volgende kan accepteren.
Hij beschrijft dat de PC net een nieuw beeld klaar heeft staan op het moment dat het scherm precies net ververst is. Dat is wel degelijk exact waar G-Sync/FreeSync voor zijn, want die locken de verversingssnelheid van je scherm aan die van je PC waardoor dat nooit moet kunnen gebeuren.

Dat het de latency in het algemeen niet veranderd is waar. Maar dat was niet het specifieke wat hij beschreef. Maar ook bij latency in het algemeen, een kleine latency is zinvol, daar gaat niemand over discussieren. 90Hz is misschien niet voldoende daarvoor, maar 90Hz en 1700Hz zijn wel hele verschillende zaken.
Freesync lost het onderliggende probleem van latency niet op. Het is niet alsof je monitor sneller word. Wat het wel doet is het effect ervan verminderen door voor synchronisatie te zorgen wat als het goed is stutter tegen zou moeten gaan.
En met name ook tearing. Beiden zijn erg irritant.

Dit sherm neemt echter ook een deel van deze irritaties weg omdat het simpelweg te snel is om tearing te kunnen laten zien. Stutter is hiermee ook verleden tijd.
Dat zeg ik ook niet, lees nog eens wat ik wel schrijf. Ik schrijf letterlijk dat het de latency niet veranderd, en toch antwoord je dat het de latency niet veranderd. No shit, dat schrijf ik ook niet. Maar de situatie die jij in je oorspronkelijke post beschreef lost het wel op.
Om daar een 1700Hz beeldscherm voor te gebruiken, dus dat je computer een beeld heeft gerendered wat na een halve milliseconde weer weg is, is niet erg efficient.
Je haalt de verversingssnelheid van het scherm en de frames die door de game worden gerendered door elkaar. De game hoeft geen 1700 fps te renderen maar kan dat gewoon op 60fps doen.

En voordat je gaat vragen wat dat voor nut heeft; momenteel dicteert de refresh rate van het paneel wat bruikbare render frequenties voor het spel zijn. Stel dat het paneel een refresh rate van 75 hz heeft. Als het spel op 75fps rendered dan gaat het precies goed, maar zodra het spel daar een beetje van af wijkt krijg je problemen. Of er worden teveel frames gerendered (zonde) of te weinig (drops) wat je visueel toch merkt. Idealiter moet de verversingssnelheid een constante ratio hebben tot de refresh rate van het paneel, bijv. voor een 60hz paneel 30fps of 60fps. Voor een 90hz paneel 30, 45, 60 of 90, etc. Als je paneel een super hoge refresh rate heeft geeft dat ineens veel meer mogelijkheden en heb je eigenlijk nooit meer frame drops.
Ook voor jou, wat jij beschrijft kan je inderdaad oplossen met een 1700Hz paneel, maar FreeSync/G-Sync gebruiken is een stuk logischer gezien dat daar precies voor bedoeld is. Je wil een probleem oplossen met een heel bijzonder paneel terwijl dat allang opgelost is in een prima manier. Zoals markheloking in 'nieuws: Nvidia demonstreert 1700Hz-scherm voor virtual reality' schrijft kan je wel dingen ervoor bedenken, maar dit is er niet één van.
Nee je ziet het verkeerd.

Met een 60/75 of 90Hz heb je automatisch een probleem dat je moet oplossen. Daarvoor is Free/G-Sync dan idd een goede oplossing.

Maar als je het paneel zo snel kan krijgen als in dit artikel, dan bestaat dat hele probleem niet meer. Samen met allerlei andere latency-gerelateerde problemen verdwijnt het gewoon als sneeuw voor de zon.
Ik neem aan dat de bedoeling is dat er een groot beeld gerenderd wordt, waar het beeldscherm dan een stukje uit pakt. Ik zie het filmpje ook als zijnde er komt telkens hetzelfde beeld in, maar het scherm 'bedenkt' dat het beweegt en past daarop de positie van het beeld op het scherm aan. In een VR bril zou je hierdoor dus om je heen kunnen kijken terwijl de objecten die je ziet op dezelfde plek blijven staan, waardoor je dus als het goed is niet misselijk wordt, omdat je waarneming overeenkomt met de beweging die je maakt.
Enige nadeel van die xsync technologieën is dat het naar mijn weten weinig doet op 90hhz/90fps. Ik gebruik een 120hz scherm en hier heb je zonder enige sync eigenlijk al geen zichtbare tearing meer. Als dit getal nog verder zou opschalen naar 240 en verder zie ik persoonlijk het nut van sync niet meer in. Maar het kan zijn dat ik iets over het hoofd zie.
Nee het klopt precies wat je zegt. Des te hoger de verversingssnelheid van het scherm, des te korter een problematisch (want half gerendered) frame in beeld staat, des te minder sync helpt / nodig is.

En sync is leuk, maar als je een 90Hz scherm hebt, maar je graka trekt maar 40fps, wat doe je dan? Dan zou hij terug moeten schalen naar 30fps want je moet wel werken met getallen die passen bij de verversingssnelheid. Dus er zijn maar een paar sweet spots waarop het precies past. Dus of je graka staat soms niks te doen of hij redt het juist net niet.

En dan komen daar nog post-processing technieken zoals time-warp bij. Hierbij rendered de graka het beeld, maar wordt dat beeld daarna nog gedraaid / bewerkt om overeen te komen met de laatste metingen van de head tracking sensor. Hiermee kan men het beeld soepeler laten draaien zonder persé meer volledig frames te hoeven renderen. Hoe hoger de verversingssnelheid van het paneel, des te meer mogelijkheden voor dat soort trucs.
Nou ja die free- en g-sync kunnen met 40fps op een 90hz scherm juist wel relaas bieden gelukkig.
waarom denk je dat nvidia's logo zo'n lage resolutie heeft en niet een gewoon normaal logo is dat scherp wordt weergegeven???

juist ja, bandbreedte...
Hoeveel data denk je dat 1700fps gaat opleveren als je full-hd wil doorvoeren PER oog?

je hebt hiervoor al een systeem nodig met 7 of 8pci slots, , een dual cpu xeon moederbord, een beetje zoals het onraid project van linustechtips waarbij een 7-in-1 build hebben gemaakt, maar jij maakt dan een build waar alles parallel moet lopen zodoende dat de hardware elkaar aanvult .. kijk anders eens voor wat inspiratie (maar jouw onraid config moet dus een klein beetje anders) naar deze link: https://www.youtube.com/watch?v=LXOaCkbt4lI
Ik denk dat je twee dingen door elkaar heen haalt. Refresh rate is de frequentie waarmee het display zijn beeld kan verversen, terwijl jij zit te denken aan frames per second oftwel de snelheid waarmee de display adapter zijn beeld kan opbouwen.

Het idee achter dit scherm is dat je deze twee loskoppelt van elkaar en het display altijd het beeld wat hij weergeeft laat vernieuwen met 1700 Hz (oftwel iedere 0.59 milliseconde).

Dus als jouw video kaart een beeld kan berekenen met 90 fps (oftewel 90 Hz) dan zal dit display ieder frame ongeveer 19 keer opnieuw weergeven voordat hij naar het volgende frame schakelt.

Het idee hierachter is dat je op die manier geen tearing artefacten meer zult zien aangezien de snelheid waarmee het scherm zijn beeld ververst vele malen hoger is dan dat waarmee de inhoud veranderd.

Dus een no V-Sync zonder tearing i.p.v. G-Sync of Free-Sync zonder tearing.

Dus het idee is niet om 1080p met 1700 fps naar het display te sturen, maar om de binnenkomende video stream (op gebruikelijke fps) met 1700 Hz naar je oog te sturen. Daarmee is bandbreedte dan ook geen issue.

[Reactie gewijzigd door CrazyJoe op 8 april 2016 10:12]

juist ja, bandbreedte...
Nee dus. Bandbreedte is alleen nodig om beeld van de graka naar de monitor te sturen. Maar om 1700Hz te halen hoeft de monitor alleen maar 1700 keer per seconde de inhoud van het schermbuffer opnieuw te tekenen. Of daar dan steeds hetzelfde beeld staat (zeer lage bandbreedte voor nodig) of steeds een nieuw beeld (zeer hoge bandbreedte voor nodig) maakt niks uit.

Verder is dit gewoon een techneut die iets uitlegt aan andere techneuten. Hij heeft gewoon een plaatje gepakt om dingen te demonstreren. Als dit van de marketing afdeling af kwam zou het her heel anders uitzien ja.
volgens mij is het dus niet de bedoeling dat je elke verversing ook een nieuw beeld heb.

het idee is om elke keer zodra de kaart klaar is met renderen het zo snel mogelijk op het scherm te hebben. als je elke 0.58ms een nieuw beeld op het scherm zet heb je dus maar een maximum latency van 0,58ms terwijl je bij een 90hz scherm misschien wel 11ms moet wachten.

als je met VR zit en de hoofdbewegingen van de gebruiker wilt tracken dan kan 11ms best lang zijn samen met de render tijd ect. En dat kan dus het verschil zijn tussen misselijk worden en een realistische ervaring.

het idee is dus dat het scherm 10, 20 30, 100 keer het zelfde op het scherm zet, maar dus wel bijna instant klaar is om een nieuw beeld van de videokaart te ontvangen.

[Reactie gewijzigd door Countess op 7 april 2016 22:49]

Inderdaad. Echter er moet dan toch nog iets bijzonders gedaan worden voor VR want daar is de verversingstijd niet zozeer het issue, je viewpoint moet met de hoofdbeweging synchroon meebewegen anders heb je nog steeds dat probleem van misselijkheid.

Zover ik begrepen heb wordt dit nu in de Occulus Rift enigzins ondervangen door een groter viewpoint te renderen dan je normalerwijze ziet waarover de Rift door de virtuele camera via "panning" over de scene te bewegen de illusie kan wekken dat er met een hogere frequentie frames worden gerenderd dan er in werkelijkheid afgehandeld kunnen worden.

Daarmee kun je het menselijk visueel centrum misleiden dat de beweging van het hoofd nog steeds goed gevolgd wordt al veranderd de scene die je bekijkt met een lagere frequentie.

Het is natuurlijk nog steeds belangrijk dat de scene rendering voldoende snel gebeurd anders valt zelfs met deze truuk de kunstmatigheid van wat je ziet snel op. Daarnaast kun je met deze truuk ook niet robuust zijn voor hele snelle hoofdbewegingen, want dan zou je viewpoint voorbij de randen van de render view kunnen schieten.
Het volgende filmpje van Microsoft Research geeft een goed idee bij de cijfers bij latency. Dus 1ms latency vs 10ms vs 100ms etc:

https://www.youtube.com/watch?v=vOvQCPLkPt4

Bij 10ms heb je nog steeds een rubber-banding effect waarbij snelle bewegingen niet goed gevolgd worden. Bij 1ms is dit weg.
Voor virtual reality zijn twee factoren heel belangrijk: de refresh rate en de reactiesnelheid. Deze 1700Hz speelt een belangrijke rol in virtual reality, dus in die zin is het zeker nuttig. Bovendien is deze ontwikkeling nuttig voor de uiteindelijke consumentenproducten.
Dat neemt aan dat je video's van 1700 fps gaat maken; TV's van tegenwoordig doen 200 hz (zeggen ze), maar het bronmateriaal is dat niet. Je hebt wel een stevige GPU nodig om de videobeelden te interpoleren op die framerates, dat wel.
Enkel als je voor ieder van die 1700 frames een nieuw beeld moet creëren. Wat duidelijk niet het geval is.
Nieuw beeld wordt op 90Hz gerendered.
Maar op een groter formaat dan effectief weergegeven kan worden.
Hiermee kan je dan het bestaand beeld om de 0.58ms in x- en y-as verschuiven, om zo de illusie te wekken dat het beeld perfect stabiel is.

Hoeveel groter het gerendered beeld moet zijn, hangt af van je Field of View, kijkhoekgrootte, en je refresh rate/FPS.

Het beeld van een Oculus Rift renderen op 1440x1600 ipv 1080x1200 is al genoeg om deze oplossing te kunnen gebruiken.
Volgens mij mis je het punt over latency en het belang hiervan voor VR echt volkomen.
Op TV's is het toch al lang gebruikelijk dat er beeldjes toegevoegd worden door een beeldprocessor, om zo 50/60Hz op te waarderen naar 200+Hz?
Waarom zou die 1700Hz volledig door een GPU gedenderd moeten worden. Dat klinkt niet erg logisch. Zelfs al zouden er GPU's zijn die het aankunnen met redelijke grafische kwaliteit, dan word de GPU heter dan de hel.
edit: dit is al door meerdere mensen aangegeven zie ik nu, had niet alle posts erna gelezen.

[Reactie gewijzigd door echtwaarisdatzo op 8 april 2016 12:52]

dat zeiden ze vroeger ook over de technologie van nu, wat is het nut ervan!

Het nut van zo'n grote refreshrate is heel simpel, door deze ontwikkeling worden andere bedrijven gepusht om door te blijven ontwikkelen zodat we deze later ooit in consumenten producten terug zien. is het niet over 10 jaar dan over 20 jaar. Niemand had 15 jaar geleden kunnen weten hoe de technologie er nu uitziet, daar konden ze enkel over dromen!
Dat zeiden de eerste cavemen ook waarschijnlijk.

A: "Ik ga even aan de andere kant van die heuvel kijken"
B: "Daar zie ik totaal het nu niet van in"

Alle techniek is mooi. Je bezoekt deze website toch omdat je geïnteresseerd bent in tweaken en cutting edge technologie?
Geen extra gpu of geheugen nodig. De meeste beelden zijn gegenereerd en de framerate van games blijft gewoon op 60 staan. Bij Vr is het de schermcontroller zelf die de extra refreshes maakt zoals tv's op 800hz extra beelden genereerd.

Je hoeft zelfs geen 60 frames te hebben. 1frame is voldoende om de 1700hz te benutten. Door een 360 graden beels in 3D Te renderen of maken (2beelden dus) en met uw hoofdte bewegen. Met een normaal scherm zou er ghosting optreden. Net zoals de letters op uw scherm waziger worden als je scolt op een website.
Hoe kan het dat Nvidia als GPU maker een scherm-tech heeft die grote spelers als LG en Samsung veruit voorbij gaat.
je moet maar net op het idee komen, en wie zegt dat de grote spelers er ook niet mee bezig zijn? We weten ook niet alles wat achter de schermen gebeurt.
Leuke woordgrap
Andere tak van sport. Nvidia heeft natuurlijk een heel ander soort ervaring opgebouwd dus ook hun benadering van 'het probleem' latency en refresh is anders. Dat zag je al een beetje met Gsync. Eigenlijk is dit 1700hz paneel niet zozeer een heel speciaal paneel, maar de manier waarop het wordt gebruikt is dat wel en dat wordt gedaan door een GPU.

LG en Samsung als paneelbouwers hebben zich nooit gefocust op hele snelle panelen, bijvoorbeeld. Maar weer wel zaken als IPS/PLS, of OLED. Nvidia bouwt niet direct nieuwe beeldtechnieken, maar implementeert bestaande technologie op een nieuwe manier.

[Reactie gewijzigd door Vayra op 8 april 2016 09:18]

Het maken van een scherm is 1 ding, maar aansturing is net zo belangrijk. Misschien dat het daaraan kan liggen. Hou me er niet aan vast.
Dus als je het scherm snel beweegt blijft het beeld in het midden? :?
Is gewoon om de refreshrate aan te tonen : een normaal scherm zo die bewegingen niet kunnen compenseren.. Iets waarvoor dit scherm dus wel snel genoeg is.
Het scherm was op een railsysteem gemonteerd en kon daardoor snel heen en weer schudden. Het beeld bleef echter stabiel in het midden.
Edit: Ik dacht dat er een telefoon schermpje in het midden lag, maar zo te zien ligt er een 23" paneel waarop het woord Nvidia in tegengestelde richting beweegt waardoor het lijkt stil te staan en het voordeel van de hoge refreshrate aangetoond wordt.

[Reactie gewijzigd door Toettoetdaan op 7 april 2016 23:18]

Start een 1st of 3rd person spel op en ga heel snel rond draaien. Dan zul je waarschijnlijk inzien waarom dit handig kan zijn bij VR.

Zelfs als de hardware goed genoeg is dan zullen de huidige schermen nog steeds moeite hebben om alles vloeiend te tonen wanneer je snel beweegt.
En vloeiend is 1 ding, bij VR is lag nog belangrijker. Bij 60 frames per seconde heb je zelfs als de verwerking van input etc perfect is nog altijd tot 16 ms aan vertraging; bij 1700 frames is dat nog maar 0.05ms (als ik kan rekenen)
Lijkt mij een beetje snel, 1700 MHz, lijkt mij dat het 1700 Hz moet zijn (staat ook in de titel van het filmpje)

Verder vind ik het wel echt een toffe techniek maar ben benieuwd tot hoeveel hz het echt zin heeft, misschien iemand met meer verstand hiervan?

[Reactie gewijzigd door bodamn op 7 april 2016 20:40]

Lijkt mij een beetje snel, 1700 mHz
1700 millihertz is dan weer een beetje aan de lage kant.

[Reactie gewijzigd door .oisyn op 7 april 2016 20:43]

Het is voor een moderne PC peanuts om vanilla Half-Life met 2000+ FPS te spelen.
Op 1700Hz, en dan een curved 34" uitvoering zou ik nog wel eens deathmatch willen spelen! O+

Voor VR heeft dit echt wel meerwaarde, een zo lage mogelijke input lag en een zo snel mogelijke schermopbouw is een must als je zo natuurlijk mogelijk met headtracking wilt rondkijken.

Waar de grens precies licht durf ik niet te zeggen, maar van vroeger Quake spelen op een CRT voelt 100Hz met 100 FPS merkbaar minder soepel dan 200Hz met 200 FPS.

Met de Rift DK1 heb ik ervaren dat 60Hz geen pretje is, en ik weet zeker dat 90Hz ook nog lang niet genoeg gaat zijn. Ik denk dat 250Hz een eind gaat komen om voor de meeste mensen motion sickness volledig tegen te gaan, maar dat is beredeneerd vanuit een gaming perspectief en kan ik niet beargumenteren met scientific mumbo jumbo.
Vergeet VR, dit is heel gaaf voor light fields!

Met twee schermen zoals dit achter elkaar kun je een display maken waar je 3D ziet én kan focussen met je eigen ogen (dat laatste hangt af van beeldschermresolutie en kijkafstand). Het voorste scherm functioneert dan als pinhole array (in plaats van een microlens array): Elk pinhole is een doorzichtige pixel en de rest is zwart. Het achterste scherm is opgedeeld in vakjes achter elke pinhole (of microlens als je maar één display gebruikt) en toont per vakje een deel van de afbeelding in n bij m pixels.

Het probleem van zo'n setup is dat de resolutie van het plaatje wat jij uiteindelijk ziet dan veel lager is dan de resolutie van het scherm omdat de 'vakjes' van het achterste scherm niet kunnen overlappen. De oplossing voor dat probleem is time multiplexing: na elkaar verschillende overlappende 'vakjes' laten zien op het achterste scherm terwijl je de bijbehorende pinholes op het voorste scherm doorzichtig of donker maakt. Hoe meer overlap, hoe hoger de resolutie van je light field, maar hoe sneller je scherm moet kunnen schakelen om het voor het menselijk oog op één afbeelding te laten lijken. Daar komt het scherm uit dit artikel dus bij kijken.
Het is een mooi idee, ik hoop dat het in praktijk als de resolutie opgekrikt wordt, dat dit zonder problemen geïmplementeerd kan worden, aangezien de beelden eerst door een processor moet gaan.

Alleen waar ik een beetje zorgen om maakt als dit als toepassing wordt gebruikt, je computer kan 200 tot 300 fps aan (voorbeeld) en aangezien hij springt tussen deze getallen, wordt dit niet vermoeiend voor de ogen? normaal als het op een vaste getal zou blijven merk je het niet, maar met jump's (lijkt) me wel.

Anyways ~ gaat de goede richting op, kan niet wachten op de tweede generatie VR, hopelijk iets goedkoper dan die huidige zodat ik die kan betalen :)
Zou er ooit een merkbaar of nuttig verschil zijn als een scherm echt 170.000 Hertz zou zijn tegenover 1700 Hertz?

Mij lijkt van niet.
Maar misschien voor wetenschappelijke toepassingen of iets dergelijks?
Voor het menselijk oog zou het waarschijnlijk niet merkbaar zijn. Alleen misschien in zeer extreme gevallen waarbij de waarnemer en het scherm extreme bewegingen maken.

Maar voor onderzoek of wetenschappelijke toepassingen kan het uiteraard altijd beter. Er is altijd wel een situatie te vinden waarbij het nut heeft.
Als je kijkt naar het filmpje dan moet bij 1700 hz eerst de spatiale resolutie verder verhoogd worden. Ze kunnen het beeld namelijk niet *tussen* de pixels in renderen om zo maar te zeggen, waardoor hij blurry wordt. Meer temporale resolutie zou dus weinig zin hebben als je niet ook de spatiale resolutie verhoogt.

Wat dat betreft wel een goed filmpje. Als je je hoofd beweegt in VR heb je precies hetzelfde effect. Je verplaatste het scherm maar de scene moet precies op dezelfde plek blijven. En het liefst haarscherp, want blurry beelden werkt echt niet. Dan ga je proberen te focussen op iets waar je niet op kúnt focussen. Vermoeiend voor de ogen.

Palmer lucky dacht dat 16K resolutie 'genoeg' zou zijn. En 240Hz geloof ik.
Ze hebben in mijn ogen geen beeldscherm gedemonstreerd, maar een video laten zien. Nogal een verschil. Dit kan enorm bewerkt zijn.
Ze hebben in mijn ogen geen beeldscherm gedemonstreerd, maar een video laten zien. Nogal een verschil. Dit kan enorm bewerkt zijn.
kijk is naar de eerste paar sec, daar is je display.
De film die je ziet is de scope die er op zit, en de blaadjes er op zodat je ziet dat het beweegt.
Of je moet suggereren dat ze de zaal voor de gek houden. kan natuurlijk
Is dat scherm in de zaal zelf?
1700Hz ipv MHz, come on tweakers...
1700Hz ipv MHz, come on tweakers...
In principe had het ook gewoon 1700Mhz kunnen zijn al is dat natuurlijk wel een beetje een absurde refresh rate maar in dit geval, inderdaad... gewoon 1700 Hz. ;)
[...]
In principe had het ook gewoon 1700Mhz kunnen zijn al is dat natuurlijk wel een beetje een absurde refresh rate maar in dit geval, inderdaad... gewoon 1700 Hz. ;)
Je zou dan wel het voordeel hebben dat je met je scherm kan bellen als je het beeld goed manipuleert. :+
Je zou dan wel het voordeel hebben dat je met je scherm kan bellen als je het beeld goed manipuleert. :+
Dat is handig, nu nog touchscreen maken en... hmm, begint op een smartphone te lijken zo. Maar dan anders.
Het vreemde is dat er bij de VR uitleg wel gewoon Hz staat. Is gewoon vanaf de titel aan een copy+paste fout die herhaald wordt.
Inmiddels aangepast. Dank voor het melden allemaal :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True