Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 84 reacties

Nvidia is begonnen met een programma om zo compleet mogelijke systemen voor virtual reality tot stand te brengen. Het GeForce GTX VR Ready-programma is erop gericht om de beste combinaties van gpu's en drivers te leveren aan partners van Nvidia die met vr bezig zijn.

Immersive VR ervaringen nvidiaHet gaat om pc- en laptopbouwers, maar ook om producenten van videokaarten die het label 'GeForce GTX VR Ready' zullen mogen dragen. Dit label moet eindgebruikers enige zekerheid bieden over de minimaal te verwachten kwaliteit van de virtual-reality-ervaring. Dat laatste betekent dat games en andere vr-beelden met zo weinig mogelijk latency naar de eindgebruiker gestuurd kunnen worden.

Nvidia vindt zelf dat voor een goede onderdompeling in een virtuele wereld framerates van boven de 90fps per oog gehaald moeten worden. Het bedrijf maakt de vergelijking met een pc-game die op een normaal scherm draait met een resolutie van 1920x1080 pixels bij 30fps. Deze moet op een vr-headset draaien met 1680x1512 pixels en 90fps per scherm. Nvidia zegt zelf dat het renderen van de totale resolutie van 3024 bij 1680 pixels voor de twee schermen zeven keer zo veel vraagt van een gpu dan het renderen van een normaal in-gamebeeld.

De huidige generatie Maxwell-gpu's uit het hogere segment moeten voldoende rekenkracht in zich hebben om het label te mogen dragen. Het gaat dan om de GeForce GTX 970, GTX 980, GTX 980 Ti en Titan X in combinatie met de Game Ready Drivers en GameWorks VR- en DesignWorks VR-technologie. Verder is minimaal een Intel Core i5 4590 of vergelijkbaar vereist, naast 8GB ram, twee usb 3.0-poorten, hdmi 1.3 en Windows 7 met SP1.

Bullet train vr-demo nvidia unreal engine 4Bullet Train-vr-demo van Epic Games met Unreal Engine 4 in samenwerking met Nvidia. Bron: Nvidia Blog

Moderatie-faq Wijzig weergave

Reacties (84)

"Het bedrijf maakt de vergelijking met een pc-game die op een normaal scherm draait met een resolutie van 1920x1080 pixels bij 30fps."

Volgens mij zijn ze bij Nvidia een beetje de weg kwijt als ze vinden dat 30fps normaal is voor een pc game.

@Nightfox
30 fps is voor sommige spellen genoeg, maar dat is een minimum, plezierig spelen is anders. 60fps is altijd het streven. En juist de spellen waar je 60 fps normaal al wilt hebben, je noemde al race en fps games maar ook vlieg games als Elite en SC wil je normaal op 60 hebben, zijn de voornaamste doelgroep voor VR. De vergelijking met 30fps is onterecht. Maar 7x zoveel "rekenkracht" (bandbreedte zou meer op zijn plaats zijn, als ze daadwerkelijk de hele scene 2x gaan renderen doen ze volgens mij iets verkeerd) klinkt natuurlijk veel cooler dan 3.5x

[Reactie gewijzigd door jaquesparblue op 5 januari 2016 10:17]

Het is een vergelijking. Ze zeggen niet dat 1920x1080 en 30 fps normaal is voor een game.
Een normale machine heeft 60 MP/S nodig voor 1920x1080@30 FPS.
Een Virtule Reality machine heeft 450 MP/S nodig voor 3024x1680@90 FPS.
Dat zijn 2 beelden van 1512x1680@90FPS.
Dus de GPU van de machine vereist 7x zo veel.
Bron

Bij het testen van GPU's op alle hardware sites wordt het volgende vereist voor het spelen van een game, minimaal 1920x1080 @ 30 FPS

[Reactie gewijzigd door King Dingeling op 5 januari 2016 10:26]

Ik denk dat SLI/CF opstellingen heel populair zullen gaan worden voor VR, om twee redenen.

1. Je hebt gewoon veel meer GPU power nodig dan voor een gewoon scherm.
2. Twee kaarten zijn veel efficiŽnter, omdat beide kaarten volledig hun eigen beeld dan kunnen renderen, zonder dat het het later weer samen gevoegd moet worden met alle timings problemen van dien.

Ik denk ook dat nu opeens wel Quad-SLI/CF populair kan gaan worden, daar er niet meer sprake van 4 kaarten die samen moeten werken, maar je eigenlijk een dubbele SLI/CF opstelling maakt, en daarnaast met de noodzaak van veel meer GPU pk's de noodzaak er ook meer voor is.

De toekomst ziet er ook weer wat rooskleuriger uit voor High End systemen, zowel voor gewone S155x SLI/CF mobo's, als wel S2011 Quad-SLI/CF mobo's, voor mensen die echt de beste VR ervaring willen hebben die er bestaat.

En zowel nVidia als RTG(AMD), zouden gek zijn als ze geen goed gebruik zouden maken van deze kans.
Voor de early adaptors wel, maar "normale" mensen gaan toch echt wachten tot e.e.a. fatsoenlijk loopt voor een 300-400 Euro of zo..... Maar goed, je hebt gelijk dat dat voor AMD/nVidia een goede gelegenheid is high-end systememn te verkopen!
Is het niet aannemelijker dat ze zoals jaquesparblue al suggereert maar 1 keer de hele scene renderen en dat beeld dubliceren? En dat gecombineerd met het feit dat er genoeg mensen zijn die 60fps spelen (lees: niet iedereen) zou het toch maar 1,875x zo zwaar moeten zijn?

1512x1680@90FPS=225MP/s
1920x1080@60 FPS=120MP/s
225/120=1,875
Nou kan het zijn dat ze beide beelden apart renderen, maar dan is het nogsteeds 'maar' een factor 3,75x ipv 7. En dat is in het meest ongunstige geval.

Het feit dat op hardware sites slechts 30FPS wordt vereist is natuurlijk ook toepasbaar op VR headsets . Minder dan 90fps op een VR headset zou ook 'speelbaar' kunnen zijn, maar 90 zorgt voor een prettige speel ervaring. Het verschil tussen 30 en 60fps zorgt (bij mij in ieder geval) over het algemeen bij iets vlottere spelletjes ook voor een prettigere speelervaring.
Is het niet aannemelijker dat ze zoals jaquesparblue al suggereert maar 1 keer de hele scene renderen en dat beeld dubliceren?
Dan zou er geen paralax en dus geen stereo diepte zijn. De scene voor de twee beelden is weliswaar grotendeels hetzelfde, maar beken vanuit twee verschillende posities (twee ogen), en dus niet identiek. Het verschil tussen die beelden is precies wat het beeld diepte geeft.
Die twee beelden hoeven niet helemaal los van elkaar te worden gerenderd. Er zit immers een overlay in, sommige delen van beide beelden zijn het zelfde, waardoor de GPU niet de complete resolutie hoeft te renderen.
De overlay heet niet voor niets OVERlay, het gaat over het gerenderde beeld heen. De GPU moet wel het volledige beeld renderen met een overlay, ook als er twee beelden van een verschillende hoek worden gerenderd.
Ach, ligt er ook maar net aan wat voor type spel je speelt. Voor veel games is 30fps voldoende. Alleen wanneer je met een flinke reactietijd zit, zoals bij First Person Shooters of Race games heb je echt meerwaarde aan meer frames. Ik heb liever een stabiele 30fps dan een wisselende framerate die alle kanten op gaat, daar stoor ik me veel meer aan.
Ze overdrijven beide kanten, 90fps per oog en 30fps normaal scherm, per saldo kom je bij gewenste van 60fps scherm en per oog. Zo kunnen ze natuurlijk marketingtechnisch verhaaltje houden over 7x zwaarder, wat in de praktijk op max 2 zal gaan komen (gros speelt nu toch al 1440/60, dan naar 1680/60 is een stuk kleinere stap).

Het is ook meer een verkoopverhaaltje dan een goed technisch platform.
Praktijk max 2x ? Je moet het 2x renderen op 90fps. Het is een grote stap.
Dus? 2x 1080 of 1x 2160, maakt weinig uit. Dat hun marketingtechnisch 30fps tegen 90fps zetten, is gewoon onzin. Beide op 60fps en die 7x is zwaar overdreven.
3024x1680 @ 90fps. Dat is ~3x zoveel als 1080p@60 = ~6x zoveel als 30fps.
Dus "zwaar overdreven" betwijfel ik.

De kracht die je nodig hebt ligt ongeveer gelijk aan 4k@60fps.

[Reactie gewijzigd door z1rconium op 5 januari 2016 11:23]

Ik zeg toch 'beide'? Dus 3024x1680 ook op 60fps, dan zit die 2x niet zover vandaan.
60 fps is te langzaam, je zal minimaal 90 of 120fps nodig hebben, afhankelijk van welke headset je koopt.
2x 1080 kost de helft van de kracht van 1x 2160. 2160 is namelijk 4 keer de schermgrootte van 1080.
Die 30fps is inderdaad wat laag, want veel gamers spelen nu al graag op 60fps en halen dat ook. Je moet er echter wel rekening mee houden dat je voor VR wel echt die 90fps wil halen. Dan zul je een stuk minder snel last krijgen van duizeligheid, vooral met shooters.

De huidige DK2 heeft een 75hz scherm en de CV1 krijgt een 90hz scherm. De holy grail is 120hz. Eigenlijk is die 90fps VR de 30fps van monitor gaming. Genoeg, maar je wil meer. Wat ook belangrijker is dan ooit is dat je geen framedrops wil hebben, maar minstens die constante 90fps.

Om King Dingelings cijfers erbij te halen:
Een normale machine heeft 60 MP/S nodig voor 1920x1080@30 FPS.
Een normale machine heeft 120 MP/S nodig voor 1920x1080@60 FPS.
Een Virtule Reality machine heeft 450 MP/S nodig voor 3024x1680@90 FPS.

Dan hebben we het nog steeds over 3x zoveel power.
ehm ooit de DK2 op gehad met 70fps ipv 75? Dat veroorzaakt genoeg judder om de hele spelbeleving te verderven, tenzij men technieken zoals asynchronous timewarp gebruikt : p
Mwah, het gros spelende op 1440/60 is denk ik wel schromelijk overdreven. Als je bijvoorbeeld kijkt naar statistieken die Tweakers nog wel eens heeft vrijgegeven dan zitten gebruikers bij verre meer in de 1080p (of evt nog in de 1920x1200) hoek en lang niet zo veel in de hogere resoluties qua schermgrootte. Natuurlijk betreft dat Tweakers bezoekers en niet enkel gamers, maar ik denk dus dat je gigantisch overschat hoeveel mensen een scherm hebben met meer dan 1920x1080 (of x1200)
Gros doelde ik op de capaciteit van de videokaarten, zoals in de benchmarks 'voldoende' 60fps gehaald kan worden. Aandeel van gamers die 1080+ is natuurlijk nog vrij klein.
Hier kun je goed zien wat de verdeling is:
http://store.steampowered.com/hwsurvey

35,2% voor 1080p
met 3,4% erboven.
De rest is er onder en 0.28% voor "Other"

Er zitten ook veel mensen op 1366 x 768 (26,5 %), al die cheap-ass laptops.
Klopt ook wel wat je zegt, maar dat Nvidia dan bewust dat laagste pakt is toch wel opvallend, ipv iets wat altijd wel goed is (60FPS dus)? Schaken op je PC is met 1 FPS zelfs nog te doen :)

Snap het ook wel, als je van 60FPS uitgaat is het verschil nog maar 3,5x ipv 7x maargoed er zijn genoeg mensen die zelfs op 144Hz (willen) gamen en dan zit je vrijwel net zo hoog in de MP/s als met VR volgens Nvidia ;)
Ze zeggen dan ook helemaal niet dat ze dat normaal vinden. Ze maken enkel een vergelijking met een game die op een normaal scherm draait. Die 30fps is niet meer dan een willekeurig voorbeeld.
Ze renderen dan ook de scene 2x, dat is hele punt om stereoscopisch beeld te maken en dat op 90fps.

30fps is een uitgangspunt voor een voorbeeld waar je 9 van de 10x mee wegkomt als je een spel speelt (optimaal is anders), stabiel 90 is wel nodig voor VR, dus je hebt een knappe kaart nodig.
Volgens mij zijn ze bij Nvidia een beetje de weg kwijt als ze vinden dat 30fps normaal is voor een pc game.
Volgens mij bedoelen ze dat helemaal niet zoals wat jij er van maakt.

Je moet het stuk dat je quote wel binnen z'n context houden:
Nvidia vindt zelf dat voor een goede onderdompeling in een virtuele wereld framerates van boven de 90fps per oog gehaald moeten worden. Het bedrijf maakt de vergelijking met een pc-game die op een normaal scherm draait met een resolutie van 1920x1080 pixels bij 30fps. Deze moet op een vr-headset draaien met 1680x1512 pixels en 90fps per scherm

Dat lijkt mij zeer sterk een verhaaltje over minima. Wat minimaal nodig is voor een acceptabele ervaring.

"Normaal scherm" is als normaal, oftewel, geen VR. En de 30 fps is eigenlijk de door bijna iedereen geaccepteerde standaard van het minimaal vereiste om iets speelbaar te laten zijn. Bijna alle review sites gaan ook uit van die 30 fps. Hoger is fijner, ja, maar wat fijn is staat min of meer los van of iets minimaal een speelbare ervaring oplevert.

Ik lees het in ieder geval niet als dat nVidia meet dat 1080p @30fps de standaard om op te gamen is.

En dan nog lijkt het artikel me behoorlijk lost in translation.
Sowieso is de vergelijking dubieus, als je kijkt naar het plaatje rechtsboven in het artikel, het screenshot aan de linkerkant is gewoon een van de screenshots van de rechterkant, maar dan uitgerekt, waarschijnlijk lekker crappy gemaakt zodat je toch vooral op de VR shots mooier vind, en hopelijk een Nvidia VR-Ready (kots, wat een term weer) GPU gaat halen.

Verder niets tegen Nvidia hoor, maar dat plaatje is wel erg lomp, en het hele gegeven ("VR-Ready") is erg overdreven, als je een VR bril koopt word je al uitgelegd dat je (redelijk) stevige hardware nodig hebt, daar hebben we Nvidia niet voor nodig. (want, je kan ook gewoon op lagere resoluties VR gebruiken hoor, na een tijdje merk je het niet eens meer, onze ogen/hersenen zijn verrassend goed in het zich aanpassen naar andere weergaven van een wereld)
Ja 457 miljoen pixels/seconde. Maar zoals je hier ziet in slide 59 krijgt valve het zomaar teruggedrongen naar 378 miljoen pixels/sec ; ) toch iets minder lastig te draaien.

http://media.steampowered..._VR_Rendering_GDC2015.pdf
Het gaat gebeuren!.. na het nieuwsbericht van de Oculus van gisteren.. .. Nu dit bericht.. is er echt weer een technologie waar ik heel veel van verwacht. Dit zou eindelijk weer een doorbraak kunnen zijn in de manier hoe we spellen beleven.. De laatste jaren stond het een beetje stil.. hogere resolutie, meer schermen.. bredere schermen hogere FPS.. het was allemaal net niet revolutionair.
Dit daarentegen... met een VR bril op gamen.. dat zijn stappen.. waar ik op zat te wachten.

Nu maar hopen dat de implementatie vanaf het begin af aan goed is..

Volgende stap.. Holodeck :-)
Dit gaat uitsluitend over beeld, dat is maar 1 aspect van het geheel. Het rondkijken zelf, de XYZ bewegingen, juiste game implementaties, blijft natuurlijk allemaal leuk maar voor veel games kom je niet verder dan huidige 3D monitor principe, en we weten daarvan al vrij duidelijk hoe succesvol dat is geworden.
Precies.. dat begrijp ik allemaal.. maar je moet ergens beginnen.. bij 3d heb ik nooit het gevoel gehad dat dat nou een doorslaand succes zou worden. Sowieso bestond het al sinds de jaren 80 (met van die rood groene brilletjes).. en het zorgde voor mij niet voor een betere immersie.

De kant die we nu op gaan..(VR dus) zie ik wel toekomst voor.. dat de eerste modellen en implementaties nog simpel zijn.. en dat ze door nog niet zoveel games/apps ondersteund worden.. dat neem ik voor lief.. Over 10 jaar kijken we terug op 2016.. en zeggen we.. "weet je nog dat we met die gekke oude VR brillen op ons hoofd zaten die nauwelijks werkte"
Dan zjin er al nieuwere mooiere snellere implementaties die je nog meer in de beleving zuigen.

Het gaat nooit "the real thing" zijn.. maar dichterbij dan dat wordt ook echt lastig... (buiten het genoemde Holodeck dus)
Ik deel je mening 110%, kan ook echt niet wachten! *O*

Vanavond op persconferentie Sony CES 2016, waarschijnlijk ook meer over de Playstation (Morpheus) VR

PSVR

:D
Van alle vr producten die ik gezien, geef ik de playstation VR de meeste kans van slagen. Omdat je als klant precies weet waar je aan toe bent. Met een playstation 4 en een VR module ben je klaar. Geen gezeik of iets wel of niet draait. Gewoon zo hoppa uit de doos en met 120fps (60 per oog) zit dat ook wel snor. Ik zet mijn geld op deze VR bril....letterlijk...

Ik denk persoonlijk dat je met VR je niet moet blind staren op de graphics. Het gevoel om in een spel te zitten is voor mij persoonlijk veel indrukwekkender dan het pixel gevecht wat nu momenteel word uitgevochten. Neem een spel als dreadhall. Ziet eruit als doom van jaren terug, maar de game basic's icm met het daadwerkelijk aanwezig zijn in die spelwereld is voor mij goud waard.
Ik weet het eigenlijk niet zo. De technologie is spectaculair, maar games zijn een probleem omdat je snel duizelig wordt als de gameplay niet toegesneden is op het format. Het is erg moeilijk om je rond te bewegen zonder te moeten kotsen.

Racegames bijvoorbeeld zijn problematisch, behalve blijkbaar iRacing omdat dit spel meer realistisch is en je dus aan erg lage snelheid bochten moet nemen. RPG's lukken niet tenzij je het karakter zelf schermvullend in beeld brengt. Shooters werken enkel als je een dashboard oid laat zien als ankerpunt. Enz.

Nu, de eerste paar jaar zullen we toch enkel wegwerpgames krijgen die bestaan for the sake of VR. Tegen 2020 zal men hopelijk enkele formats hebben gedistilleerd die wel werken.

Wat natuurlijk wel uitmuntend werkt in VR is porno, dus zullen ze wel als zoete broodjes over de toonbank gaan.
Racegames problematisch? Cockpitgames (racers, flightsims, spacesims) zijn juist voorbeelden van games die nu al uitstekend werken.
Ik heb geen spoor van misselijkheid bij Assetto Corsa in VR. Kan ik makkelijk uren achter elkaar doen. Bij HalfLifeVR is dat niet het geval. Dit is dan ook geen game die ontworpen is voor VR. Daar zit dan ook het probleem. Games en toepassingen zullen specifiek voor VR ontworpen moeten zijn, willen ze goed werken. En er zijn genoeg van dit soort games in ontwikkeling. Dus wachten tot 2020 zal niet nodig zijn.
Hopelijk met de resolutie en FPS van nu(dus 60+) en betaalbare prijs.
Ik vraag mij af of mijn 2600k nog mee kan met deze stap. De eisen roepen van niet, maar ik heb nog geen enkele reden gevonden waarom het niet het geval zou zijn. Ik hoop dat ze niet artificieel gaan limiteren op processor.
Meer FPS = Meer CPU belasting. CPU belasting neemt vrijwel linear toe met framerate van je game. Bij je GPU kan je de grafische instellingen lager zetten om de GPU te ontlasten en zo hogere framerates te behalen. Bij een CPU kan dit veel minder, omdat grafische settings zeer weinig impact hebben op de CPU.

Mijn i5 4670 non-K die een 980TI moet aansturen vormt al een bottleneck bij sommige games met mijn 165Hz G-Sync monitor. Uiteraard praat je dan wel over 100+ fps op 1440p waarbij de CPU dan 100% draait en de GPU zo'n 70~90%.

[Reactie gewijzigd door Gamebuster op 5 januari 2016 12:24]

Als je serieus VR wilt draaien en op "ultra" wilt spelen (zodra we daar van kunnen spreken, ik vermoed dat de 1e generatie games qua graphics niet erg bijzonder zullen zijn) ga je dat niet redden. Voor nu waarschijnlijk wel.
Makkelijk! Je kan sowieso overklokken maar kwa performance is intel niet met grote
Stappen vooruitgegaan sinds de sandy bridge. De i7 2600 is kwa performance beter
dan een 4590 imo. Had laatst een test gezien waar ze alle i7 tegenover elkaar zetten tot
en met de i7 6700 en kwa framerate zat het allemaal tussen de 100 en 200 plus in en liep de
I7 2600 misschien gemiddeld 20 frames achter op de i7 6700.

Als ke de nieuwe features niet nosig hebt is het kwa performance geen hele grote sprong
nog.
ehh zomaar uit mijn hoofd, cinebench 15 benchmarks:
i7 2600K @ 4.5 = 777 punten (ik, (stock = 3.4))
i7 6700K @ 4.0 = 885 punten (stock, zonder turbo)
i7 6700K @ 4.8 = 1059 punten

[Reactie gewijzigd door HighEnde op 5 januari 2016 21:29]

Kijk maar hier heb het vooral over gaming btw want daar gaat het hier tenslotte over

http://youtu.be/4sx1kLGVAF0
van 90 naar 120 fps vind ik toch een significant verschil : p (fc4) bovendien is de 2600k 1000 mhz overgeclockt en de 6700k 400 mhz : p
Nvidia en samenwerken... Hopelijk niet ten nadele voor gebruikers die niks van Nvidia gebruiken. :X

*kuch* GameWorks *kuch*
Ga er maar van uit dat het Nvidia exclusive gaat worden. Nvidia heeft nog nooit iets noemenswaardig gedeeld met andere fabrikanten. Herinneren jullie G-Sync nog? Veel duurdere monitoren door rare hardware en licenties. Waarschijnlijk wordt dit daardoor ook een flop, want niemand wil extra betalen voor iets wat ook gratis en opensource aangeboden wordt door andere fabrikanten.

[Reactie gewijzigd door FricoRico op 5 januari 2016 10:21]

Nog nooit van iOS gehoord zeker? :9

Het hangt er volledig vanaf of dat Nvidia iets (r)evolutionairs neer weet te zetten met dit product of het een succes of een flop gaat worden ;)
Wat Nvidia doet met G-sync is dan ook heel wat ingewikkelder dan FreeSync. AMD heeft gewoon een optionele VESA standaard gebruikt en daar hun FreeSync branding opgeplakt. Nvidia daarentegen gebruikt een custom fpga, wat natuurlijk de prijs opdrijft.
Verder verwacht Nvidia dat G-sync gecertificeerde monitoren aan bepaalde eisen voldoen. Het FreeSync label mag daarentegen op iedere monitor worden geplakt die de addaptive sync standaard ondersteund.
Precies dit is gewoon een nvidia lock in programma.
Nvidia is inderdaad voor geen meter te vertrouwen. G-sync, gameworks, physx... Het werkt of niet met AMD waardoor het niet op gameplay kan worden toegepast, of alleen op de snelste nvidia kaarten waardoor gebruikers geforceerd worden te upgraden of het is een lock-in. Fijn bedrijf.
Blijkbaar is Nvida's manier van bedrijfsvoering, gezien de recente resultaten, stukken beter dan die van AMD. Je kan er van vinden wat je wilt, maar voor grote (tech)bedrijven is het behalen van winst belangrijker dan fijn samen werken met je concurrentie.
En waarom zou Nvidia hun eigen technieken, waar vele miljoenen in zijn geÔnvesteerd, vrijgegeven aan hun concurrentie?

Ook het ondersteunen van open standaarden, die ook nog inferieur zijn, is totaal niet logisch voor een bedrijf als Nvidia.
Nvidia haalt betere bedrijfsresultaten vanwege deze achterbakse tactieken ja. Echter, de game markt versplintert door hun exclusieve software, monitors worden duurder en omdat ze mantle niet ondersteunen zitten we nu weer met een beperkte dx12 markt. Ik wil zelfs beweren dat ze de prijzen van videokaarten verhogen met hun extreme Titan prijzen.

Ze zijn al met al erg slecht voor de game industrie en de consument. Als je kunt kiezen tussen nvidia en amd is het verstandig om niet iets van nvidia te kopen.
Ik vraag mij af hoe ze bij de resolutie komen van 3024x1680. Op het moment zijn de VR HMD's 1080p, de Oculus zou daar net boven gaan zitten. Of weet Nvidia iets wat wij nog niet weten en krijgt de Oculus Rift een hogere resolutie dan wij verwachten?

Morgen weten we meer! :D
Het wordt sowieso twee schermen "The firm said it will have two OLED screens (combined resolution of 2160x1200)" maar door de anti-lens verstoring in de shaders moet je renderen naar een hogere resolutie FBO, dus 3024x1680.
Maar de resolutie wordt dus weer hardware matig ge-downscaled van 1680 naar 1200? Dat vind ik wel een rare resolutie om te downscalen want echt lekker deelbaar is het niet.. Zorgt dat niet direct voor een onscherp plaatje? Wat is hier de denkwijze achter?
Het wordt inderdaad gedownscaled, maar niet zoals een gewone scherm dat zou doen om aliasing of zo te verbergen. Omdat de lenzen de beeld verstoort moet de pixels samengeduwd worden in de uiterste hoeken van het scherm.
Ik vraag mij af hoe ze bij de resolutie komen van 3024x1680.
Dat is de totale resolutie van de twee beelden samen.

Op het moment zijn de VR HMD's 1080p, de Oculus zou daar net boven gaan zitten. [/quote]

Waarbij dan ook de pixels zeer duidelijk zichtbaar zijn, want je zit met je neus bovenop het scherm omdat je met VR een veel grotere kijkhoek wil dan met een desktop monitor.
Waarom 7x meer performance nodig?
Het was mij altijd uitgelegd dat je als je bv een game in 1080p draait in 80 fps dat als je "3d" draait dat je de fps precies 50% er van af kan halen, omdat je GPU alles 2x moet renderen inplaats van 1x.

Dus 1x voor je linker oog en 1x voor je rechter oog.
De display van de VR headsets zijn volgens mij niet hoger dan 1080p.
Dus gewoon kijken wat je FPS is in game X in full HD en en dat getal gedeelt door 2?
Ik kan mij echt vergissen maar kan die 7x meer performance ook nodig zijn, omdat bij VR het beeld 360 graden om je heen al gerenderd wordt, nog voor je er naar gekeken hebt? Staat de hele VR wereld al niet klaar, zodat je bijvoorbeeld snel kan omkijken zonder duizelig te worden door beelden die opnieuw gerenderd moeten worden? Nog los van het aantal FPS dat gehaald moet worden, om ook duizeligheid te voorkomen
Nee er word alleen gerenderd wat je ziet.
Continue een grotere beeldhoek renderen is natuurlijk wel een oplossing om sneller op bewegingen te kunnen reageren. Je verschuift enkel het weergavedeel, geen reden om een heel frame weer opnieuw te renderen.

Motion sickness is dus op te lossen met krachtigere hardware en is dus een opgelost probleem.

[Reactie gewijzigd door SpiceWorm op 5 januari 2016 11:39]

Dat is helaas niet mogelijk gezien de positie van je oog veranderd als je je hoofd beweegt om rond te kijken. Bovendien kost het ook extra rekenkracht om een groter beeldhoek te renderen.
Je hebt idd gelijk. Als je je hoofd draait dan verplaats je je oog ook. Hoe doen ze dat met 360 video dan? Niet neem ik aan?

Ik las zopas een artikel over Foveated rendering. Dat houdt in dat ze detecteren waar je oog naar kijkt en dan met minimaal 240 fps dat renderen. Maar omdat het enkel scherp hoeft te zijn waar het focuspunt van je oog ligt kan het veel goedkoper. Door die 240 fps schijn je dat niet te zien.

http://www.vr-expert.nl/f...en-van-het-menselijk-oog/
Die oog positie kan je ook mee renderen.
Als je alleen je hooft draait (en dus verder niet beweegt) is alles voorspelbaar en dus vooruitberekenbaar (2x woord waarde).

Probleem is dat je misschien ook translaties in het horizontale vlak doet met je hoofd, dus dan worden het wel erg veel verschillende mogelijkheden.
Kijk het plaatje, 3024x1680 @ 90hz. Door de distortie heb je een hogere resolutie nodig dan het panel wat je gebruikt, anders wordt het midden minder scherp.
Heb nog niet zo lang een Intel Core i5 4570 in mijn PC zitten en nu moet ik straks minimaal een Intel Core i5 4590,zit hier veel verschil in:?
Hier ook een 4570 maar denk zelf dat het wel mee zal vallen. Denk dat eerder de GPU het probleem gaat worden.
Heb ze net vergeleken en het scheelt ind nagenoeg niks, dat word waarschijnlijk een GPU upgrade. :'(

[Reactie gewijzigd door Markotje op 5 januari 2016 14:48]

wat ik me afvraag hoe belastend is het voor je ogen we kennen nu RSI voor je pols hand arm en noem maar op, maar ik denk dat wanneer je een VR bril draagt en zeker nu dat er nog veel kinder ziektes in zitten dat we wel het een en ander aan nieuwe klachten kunnen verachten.
Voor de ogen weet ik het niet, maar als de headset niet te zwaar is kan het rsi klachten voorkomen. Omdat je je scherm niet aan hoeft te passen kijk je recht voorruit wat een betere houding is voor je nek. De hoeveelheid mensen die het scherm gewoon te laag heeft staan is gigantisch en heb nog geen enkel kantoor gezien waar je niet een paar pakken papier onder de voet moet zetten om eennacceptabele hoogte te krijgen.
LOL 3024x1680@90fps op een GTX 970 :z
Op ultra-low misschien?
Op ultra in Lol ;) league of Legends wil het mss net mee maar verder dan dat komt de 970 nier op die resolutie en fps

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Microsoft Xbox One S FIFA 17 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True