Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Oculus maakt aanbevolen systeemeisen voor Rift bekend

Door , 111 reacties, submitter: Zegato

Oculus heeft advies gegeven over welke hardware gebruikers zouden moeten beschikken om de virtual reality-bril Rift te kunnen gebruiken. Aanbevolen wordt een Core i5-4590 met Nvidia GTX 970 of AMD 290, of iets vergelijkbaars. Ondersteuning voor hdmi 1.3-output is noodzakelijk.

De aanbevolen systeemspecificaties zijn op de website van Oculus gepubliceerd. Volgens het bedrijf zullen de hardware-eisen in de komende jaren gelijk blijven, wat er voor moet zorgen dat gebruikers niet hoeven upgraden om hun Rift te kunnen blijven gebruiken, en dat ontwikkelaars zich geen zorgen hoeven te maken over slecht presterende content. De aanbevolen specificaties komen neer op een Core i5-4590 met Nvidia GTX 970 of AMD 290, of hardware die vergelijkbare prestaties biedt. Daarnaast wordt 8GB ram aanbevolen.

Rift heeft echter ook een aantal minimale vereisten, waaronder het draaien van Windows 7 met Service Pack 1 of hoger: ondersteuning voor Linux en OS X is 'op pauze gezet', aldus Oculus. Eerst wil men zorgen dat de release voor Windows-gebruikers soepel verloopt. Wanneer de ontwikkeling voor alternatieve besturingssystemen weer van start gaat is echter niet duidelijk gemaakt.

Verder zijn er twee usb 3.0-poorten nodig en er moet hdmi 1.3 met een minimale pixel-kloksnelheid van 297MHz worden ondersteund. Door dat laatste vallen onder andere veel laptops buiten de boot. Volgens Oculus zijn dergelijke systeemeisen nodig om de vr-content soepel te kunnen draaien. Zo heeft de Rift een een resolutie van 2160x1200 pixels verspreid over twee schermen en wordt het beeld met 90Hz ververst, waardoor dus veel grafische kracht nodig is.

Oculus is van plan om de Rift begin volgend jaar op de markt te brengen. Een ontwikkelaarsversie is al enige tijd beschikbaar. Ondertussen hebben al verscheidene andere fabrikanten een consumentenversie van een vr-bril uitgebracht of aangekondigd, waaronder Samsung en Sony.

Door Bauke Schievink

Admin Mobile / Nieuwsposter

16-05-2015 • 00:13

111 Linkedin Google+

Submitter: Zegato

Reacties (111)

Wijzig sortering
Wat totaal niet in dit nieuwsbericht terugkomt is dat Oculus ook een nieuwe versie van SDK heeft gereleased. An sich misschien niet zo heel spannend, waar het niet voor de mate waarin ze hun best doen om echt ieder laatste stukje performance uit de Rift te persen en dat deze nieuwe versie redelijk afwijkt van de manier hoe de vorige versies werkten (het is zowel simpeler geworden om handmatig te implementeren als krachtiger geworden op het vlak van finetuning).
  • Added the compositor service, which improves compatibility and support for simultaneous applications.
  • Added layer support, which increases flexibility and enables developers to tune settings based on the characteristics and requirements of each layer.
  • Significantly improved error handling and reporting.
  • Added a suite of new sample projects which demonstrate techniques and the new SDK features.
  • Removed application-side DirectX and OpenGL API shims, which results in improved runtime compatibility and reliability.
  • Simplified the API, as described below.
  • Changed Extended mode to use the compositor process. Rendering setup is now identical for extended and direct modes. The application no longer needs to know which mode is being used.
  • Extended mode can now support mirroring, which was previously only supported by Direct mode.
  • Simplified the timing interface and made it more robust by moving to a single function: ovrHmd_GetFrameTiming.
  • Fixed a number of bugs and reliability problems.
Hoe dan ook, zitten een paar dingen waar ik heel erg blij van word zowel als developer (tweede en derde punt) en als gebruiker (eerste puntje over extended mode), dus al met al puik werk weer bij Oculus.
In de release notes staat dit niet maar is wel een belangrijk item geimplementeerd: positional timewarp. Dit komt de performance enorm ten goede, judder kan dan einde verhaal zijn.
Ik zag het inderdaad op Reddit al langskomen en totaal vergeten er bij te zetten. Hier is de tweet nog van de developer dat het er in zit:
@oculus PC SDK 0.6 with compositor service, layers and positional timewarp is finally officially out. Get it while it's hot! #VR
Ik snap nog steeds alleen niet waarom het niet in de release notes staat. Gisteren (om kwart voor 2) ging ik er nog vanuit dat het waarschijnlijk was omdat het een experimentele versie ofzo zou gaan, maar zover ik nu kan zien lijkt het er gewoon netjes in te zitten allemaal.
Vind zelf nog steeds storend dat ze niet voor 1 mode gaan, waarom toch weer keuze tussen extended- en direct-mode. Het is telkens een probleem om weer uit te zoeken hoe je de game weer aan de praat moet krijgen, gelukkig is dat met elke SDK inmiddels wel een stukje beter, maar nog steeds niet simpel naar, gewoon de game/experience starten zonder dat je ergens iets moet switchen..
Naja, nu heb je dezelfde code dus in je game en werkt het met beide modes. Waarom is dat handig? Vooral omdat extended mode handig is voor bepaalde specifieke soort toepassingen terwijl direct mode handiger is voor alle andere toepassingen, maar je nu dus niet per se hoeft te switchen als je in extended modus draait. Dus ja, je hebt nu de keuze en als het goed is werkt het in principe sowieso (behalve dus als je een aparte oude toepassing hebt waar direct mode simpelweg niet mogelijk is zonder de helft van de applicatie te herschrijven).
omdat dit artikel over systeem eisen gast waar o.a. nuttig is voor eind gebruikers.

Nieuwe SDK voor meeste mensen niet intressant en heeft geen impact op wat ze adviseren aan hardware.

Het zijn overigens wel pittige eisen.
Ja nee, ik had totaal niet verwacht dat het een +3 zou krijgen, het was meer een "ik had verwacht dat het in de laatste regel van het artikel zou staan omdat het ook in hetzelfde nieuwsbericht van Oculus stond, laat ik voor de geďnteresseerden het hier ook nog maar posten."... en zo te zien zijn een stuk meer mensen er in geďnteresseerd dan ik had verwacht.
Aangenomen dat het scherm 6 inch is, wat mij overigens een redelijke aanname lijkt dan krijg je 411 pixels per inch (ppi). Dat is zeg maar vergelijkbaar met 1080p op 5,5 inch (iPhone 6 Plus of Oneplus one) scherm. Kan je hiermee de pixels nog zien? Ja, op het moment dat je de Rift op hebt zal je de pixels kunnen zien, aangezien ik die ook zie op mijn Google Cardboard met mijn Oneplus One. Natuurlijk zijn de grootte van en de vergroting van de lenzen van een Rift waarschijnlijk anders dan die van de Cardboard, maar toch geeft het wel een leuk beeld. ;)

Of ik aparte subpixels (rood/groen/blauw) echt heb kunnen zien, moet ik nee zeggen. Wel zag ik dat het beeld niet scherp was op mijn OnePlus One met de Google Cardboard, met vergelijkbare ppi, waardoor ik dus zeg dat ik de "pixels" kon zien. Ik snap alleen niet waarom ze voor een 2160x1200 ([1080*2] x [600*2]) scherm zijn gegaan, in plaats van een 1440p scherm. LG had deze technologie een jaar geleden al op de plank liggen: pricewatch: LG G3 16GB Zwart

In totaal beschikt de rift over 2160x1200 = 2592000 pixels. Ter vergelijking beschikt een 1080p scherm over 2073600 pixels en een 1440p scherm over 3686400 pixels. Dit betekent dus dat de Rift ruwweg 70% van de pixels van een 1440p scherm heeft. Echter draaien die schermen vaak op 60 Hz en de Rift op 90 Hz. Echter heeft een gemiddeld 1440p scherm maar ongeveer 67% van de refreshrate van de Rift. De prestaties zullen bij het 1440p scherm en de Rift dus vergelijkbaar zijn, als men kijkt naar de maximale refreshrates en de hoeveelheid pixels.

[Reactie gewijzigd door Frozen op 16 mei 2015 00:39]

Pixels per gradient is zeker een belangrijke factor (PPI betekend nogal weinig natuurlijk in VR), maar nog veel belangrijker is de mate waarin er een screendoor effect is. Het screendoor effect is een zwart grid wat je over je hele gezichtsveld ziet wat veroorzaakt word door de afstand tussen de pixels. Normaal gesproken kun je die afstand niet zien, maar met de vergroting van VR systemen word hij plotseling erg opvallend. Wat ik heb gemerkt is dat zelfs een veel lagere resolutie zonder screendoor effect veel mooier/overtuigender is dan zelfs een veel scherper scherm als dat scherm wel een sterk screendoor effect opleverd. Dus nee, ben het absoluut niet met je eens dat je het kunt vergelijken met de OnePlus One in een Google Cardboard.

Dat is dan ook direct het antwoord op je vraag waarom ze niet voor een 1440p scherm zijn gegaan. Het scherm wat ze nodig hadden moet low persistence mode aankunnen (om motion blur te voorkomen staat het scherm het grootste deel van de tijd uit), OLED based zijn (of algemener gezegd, zwart moet echt zwart zijn want dat maakt echt een wereld van verschil) en dus een zo klein mogelijke afstand tussen de pixels. En ja, dat betekend dat je soms met creatievere oplossingen moet komen, want de 1440p schermen die nu beschikbaar zijn voldoen zover ik weet allemaal niet aan die vereisten.

Oh, en nog een laatste toevoeging, heb zelf ook een LG G3 hier liggen waar ik dus op het begin super enthousiast over was juist vanwege de potentie voor VR... en om eerlijk te zijn vind ik de DK2 nog steeds 100x indrukwekkender dan de LG G3... het scherm is gewoon niet goed genoeg, refresh rate valt tegen, screendoor effect valt tegen, etc. (en de IMU is gewoon super super super crappy, maar dat is een losstaand verhaal).

[Reactie gewijzigd door David Mulder op 16 mei 2015 10:38]

Veel hoger gaat het inderdaad waarschijnlijk niet worden, de Samsung Note 4 heeft wel (AM)OLED 1440p, maar dat is weer soort pentile layout, met minder subpixels dan RGB. Mits de 2160x1200 resolutie wel alle drie subpixels per pixel heeft zal het niet veel scherper kunnen met OLED momenteel. Nu dus nog hopen dat het scherm op alle andere fronten ook presteert.
Die vergelijking gaat natuurlijk niet op: er komt meer bij kijken dan alleen PPI - de optics in de Rift zijn natuurlijk totaal niet te vergelijken met de goedkope lenzen uit een Cardboard (en ja dat maakt uit).

Mijn hands-on met Crescent Bay vorig jaar was voor mij duidelijk genoeg: ik zag geen waarneembaar screendoor effect meer: totaal niet te vergelijken met DK2. Wat uiteraard niet wil zeggen dat het niet nog scherper kan, maar dat komt uiteraard vanzelf.
Ik heb afgelopen jaar een racegame gespeelt op de DK1. Moet zeggen dat de resolutie daarbij zo laag was dat je wel een bocht aan de horizon kon zien, maar dat je te laat door had of deze naar rechts of links afboog. De pixels waren echt storend, je kon zelfs de subpixels (RGB) zien.

De resolutie van de DK1 was volgens mij 1280x800@60, dus 2160x1200@90 lijkt me een goede stap vooruit, maar nog zeker niet genoeg om hem voor elk doeleinde in te zetten.

Ik had toch wel graag een 4K van 3840x2160@90 willen zien. Dat zou het voor de gebruiker toch prettiger maken. Maar dat komt vast wel bij de volgende editie. Waarschijnlijk vraagt dat nog betere specs van de PC.
Een 4K paneel (4096x2160, geen 3840x2160 want dat is UHD) op deze grootte is alleen op prototype basis te verkrijgen. Deze panelen hebben geen hoge refresh rate, zullen waarschijnlijk niet op OLED of quantum dot technologie geproduceerd zijn en zijn peperduur omdat massaproductie blijkbaar nog niet begonnen is. Ik zie in de comments ook veel opmerkingen over de layout van de subpixels, en dat die structuur erg van belang is om een ''screen door'' effectloos scherm te krijgen.

De DK1 was echt een prototype en was meer een proof of concept model dat een nette plastic behuizing had in plaats van een skibril met een scherm voor de glazen. DK2 had een hogere resolutie, was meer uitgewerkt en had meer technologie aan boord en dat konden de testers goed merken! Het laatste prototype, Creasant Bay, had een nog hogere (onbekende) resolutie waarbij de meeste testers aangaven dat ze geen problemen ondervonden met zowel ''screen door'' als misselijkheid/duizelig/hoofdpijn etc.

Ik ben benieuwd of de CV1 echt het waard is! Wel nog even wachten tot 2016 Q1. Ik zou hem nog steeds kopen al was hij niet perfect, maar ik blijf toch hopen op een juweeltje! En anders wachten op de CV2 met een 4K paneel :9

[Reactie gewijzigd door Jhonny44 op 16 mei 2015 10:01]

als het een 4K scherm was ging de rift direct floppen omdat bijna niemand een systeem kan betalen naast die resolutie
Ik had toch wel graag een 4K van 3840x2160@90 willen zien. Dat zou het voor de gebruiker toch prettiger maken. Maar dat komt vast wel bij de volgende editie. Waarschijnlijk vraagt dat nog betere specs van de PC.
uhh, ja, wil je 4K op 90fps hebben dan heb je zelfs aan een paar titanX kaarten niet genoeg.. Even van uit gaande dat je natuurlijk ook dezelfde soort graphics wil als battlefield 4 op ultra, zoals velen verwachten.. Ga je naar hele simpele graphics dan kan zelfs natuurlijk de GTX970 het nog wel aan, maarja dan gaan mensen weer klagen dat de graphics er uit zien als halverwege jaren 90...
Maarja, de Cresent bay is nooit gezegd wat de werkelijke resolutie was, en voor zover ik begrijp is de CB van vorig jaar niet meer dezelfde als die van dit jaar is..
Het kan dus heel goed zijn dat de CB van vorig jaar nog een Note4 schermpje had..
Heb zelf de DK2, en ik erger me echt niet aan het screendoor effect, dat zie je alleen de 1ste paar seconden als je er echt op zit te letten, maar als je eenmaal met de game/experience bezig bent ga je er volledig op in (tenzij je dus blijft staren en niet bezig bent met de game zelf)..
Het totaal pixels zegt wat meer dan de ppi. Zoals je waarschijnlijk ook met je kartonnetje en 1+1 hebt ervaren, maakt de ppi niet zoveel verschil, doordat je het beeld door de lenzen sterk vergroot.

Het totaal aantal pixels is veel belangrijker voor je uiteindelijke beeld dat je krijgt met de VR bril op. Een lagere ppi zou alleen een groter scherm, dus lompere bril betekenen.

Met het aantal pixels van de oculus heb je gelukkig niet zo'n matige resolutie voor VR als op de OnePlus One. En is het dus iets beter. Wat anders zal zijn tegenover de cardboard, is niet de resolutie, maar het beeld. Doordat je veel meer grafische Power hebt kun je veel meer met de oculus.
Zul je pixels kunnen zien? Vast wel, maar de vraag is eerder of het heel hinderlijk gaat zijn dat het de ervaring breekt. Verder moet het zowel betaalbaar zijn als haalbaar met hedendaagse hardware. Als je een product uitbrengt wat maar 0,01% kan gebruiken van de totale doelgroep, dan zal je het in de verkopen niet goed gaan doen. Verder is de techniek ook nog niet zover dat je 800ppi kunt gebruiken, dus dit heeft nog wel tijd nodig.

Ga er maar vanuit dat over een paar jaar een versie uitkomt die wel prima bruikbaar is en waar weinig meer op af te dingen is. Dan zal het al eerder draaien over hoe je je handen, voeten en accessoires ingame krijgt op een manier waarop dat prettig werkt.
Ik heb de DK1 en DK2 en moet zeggen dat het Galaxy Note 3 scherm in de DK2 een enorme verbetering is, maar nog lang niet wat het moet zijn.

Met een LG G3 (2560 x 1440 non-pentile) en Google Cardboard was de ervaaring echt goed genoeg dus dat was een beetje mijn verwachting voor de OR1/DK3. Maar het lijkt hier niet om het scherm van de Note 4 te gaan. Ik ben benieuwd.
Volgens Oculus zijn dit de beste schermen die ze kunnen krijgen met low persistence, high fill, 90hz en global update.

Een high fill is natuurlijk erg belangrijk om het screendoor effect te verminderen. Daarnaast schijnt de Rift speciale fresnel lensen te hebben om dit effect nog meer te reduceren en pixels minder zichtbaar te maken.

Door de hoge refresh rate van 90hz en het feit dat je hoofd constant beweegt, worden de beelden ook voortdurend geupdate. Hierdoor lijkt er ook een soort anti-aliasing waarneembaar waardoor het scherm een hogere resolutie lijkt te hebben.

Daarnaast moet je niet vergeten dat de Rift inmiddels twee schermen heeft, 1 voor elk oog (2 * 1080 * 1200). Dat zijn dus in principe verticale en afgesneden 1080p schermen. De vraag is of twee ingekorte 1440p schermen betaalbaar zouden zijn, als die al zouden bestaan met de eerder genoemde specs.
Dit gaat dus 99% van de mensen niet kunnen draaien.

Ik snap dat VR bepaalde eisen heeft. Maar hedendaagse hardware kan toch wel aardig meekomen, hetzij met wat concessies?
Mja valt wel mee tegen de tijd dat de oculus uitkomt is een gtx970 (of vergelijkbaar) meer de norm.
De GTX 970 kost nu een goede 400¤ voor zover ik kan zien. Over een jaartje - dus tegen dat de CV1 goed verkrijgbaar is - zal die prijs hopelijk wel gehalveerd zijn. Ik zit nog steeds op een 7 jaar oude pc te gamen met enkel een geupgrade videokaart en die voldoet prima voor de games die ik speel. Ging normaal upgraden voor GTA V maar ik wacht nog wel tot de CV1 verkrijgbaar is.Tegen die tijd is de GTX 970 eerder midrange dan high end en dus een pak betaalbaarder voor de meeste mensen. Persoonlijk geef ik nooit meer uit dan 200 - 250¤ aan een videokaart dus dat zou moeten lukken.

De Rift zelf kan je best vergelijken met je monitor. Echter met een monitor doe je makkelijk 10 jaar dus ik ben benieuwd om de hoeveel tijd Oculus een nieuwe Rift zal uitbrengen. Ik gok en hoop om de 2 -3 jaar en niet sneller, anders voel je je als consument nogal snel bekocht.

Het wordt er in ieder geval niet goedkoper op als gamer. Maar als het zo geweldig wordt als ik denk dan heb ik het er met plezier voor over.
Nou, de GTX760 kocht ik zo'n 1.5 jaar geleden voor 230 euro, en nu is die nog steeds 199 euro.. Prijzen van zulke kaarten halveren niet zo snel...
Tenzij je dus echt in een aanbieding kunt krijgen zal de kaart toch nog zeker wel een 300 euro kosten zo rond januari-maart..
De 760 is dan ook een instapmodelletje van de 7xx serie en daarmee impliciet gericht op budget gamers die toch wat performance willen, dus die gaat niet halveren nee.

Volgend jaar komt de GeForce 1000 (Pascal) serie uit, wat eindelijk weer echte vernieuwingen en behoorlijke prestatieverbeteringen met zich mee gaat brengen; dan gaan de prijzen van die 9xx serie echt wel kelderen. :)
En dat zullen we dan dus wel zien, maar waarschijnlijk zal ik dan eerder voor zo'n nieuwe gaan dan nog voor de 9xx serie..
Grrr, maar ik wil nu upgraden en GTA 5 met flinke settings kunnen spelen, dus ik moet maar 350 euro neer gaan tellen voor die 970 GTX die volgend jaar blijkbaar alweer aan vervanging toe gaat zijn.

Ach, het is maar geld.
Gewoon op marktplaats kijken. Heb alweer een goed jaar geleden een r9 290 op de kop getikt voor 125 euro. Werkt aks een trein en niet duur. Man had hem een paar maanden gebruikt en wou daarna op vakantie. Zijn zat van zulke aanbiedingen op marktplaats en vaak nog met bon voor
Garantie.
Ik doe niet aan 2e hands, maar als jij dat wil doet dan is dat toch mooi voor je..
Het fenomeen VR is zo revolutionaire dat ik verwacht dat mensen hiervoor hun systeem willen upgraden cq vervangen. Misschien niet de eerste drie maanden na de release, maar daarna wil je denk ik niet achterblijven. Ik denk dat velen hier op Tweakers onderschatten wat voor impact VR uiteindelijk op ons leven zal hebben. Kwestie van tijd, denk ik.
Mensen willen niet perse achterblijven maar niet iedereen heeft +/- ¤800 - ¤1000 liggen voor VR. De technologie moet zich eerst nog bewijzen en met zo'n hoge instap kan dat even duren. Vergeet niet dat '3D' dezelfde beloftes deed over immersie.

Mensen hebben gewoonweg andere prioriteiten en VR kán leuke toepassingen hebben maar dat is er nog helemaal niet.
Dit is dan ook voorlopig voornamelijk voor hardcore gamers en marketingklussen; beiden geven goed geld uit aan dit soort speelgoed.

Sowieso hebben serieuze gamers een stevige videokaart, dus dat wordt geen enorm struikelblok: als je wilt gamen moet je GPU op een gegeven ogenblik toch weer geupgrade worden als je de nieuwste spellen wilt spelen, zeker op hoge settings/resolutie. De vereist GTX 970 kost volgend jaar ook geen rib uit je lijf meer.

Dan blijft alleen nog het prijskaartje van de Rift zelf over: die gaat rond de 450 dollar/euro bedragen. Heb je dat over voor een (voorlopig) select aantal spellen? Ik denk een heleboel gamers wel, aangezien dit een compleet nieuwe ervaring gaat worden.

Geloof mij maar: dit gaat een schokgolf door de gaming wereld veroorzaken, net als Wolfenstein als eerste grote FPS, The 7th Guest als eerste CD-ROM / FMV game en Doom als eerste "3D" FPS. :)
Dat kan wel.
Je kan zelfs volledig autonoom je telefoon veranderen in zo'n VR-3D brilletje met google card bord of alternatieven.

De oculus echter, zit grafisch echt op een veel hoger niveau.
Cardboard werkt beduidend slechter en is wat mij betreft niet te vergelijken met Oculus. Heb beide geprobeerd en cardboard maakte echt geen goede indruk en had me een beetje bevooroordeeld over VR. Toen ik de dk2 geprobeerd heb was ik gelukkig aangenaam verrast en had echt het gevoel dat ik erin zat.
Punt is vooral de resolutie icm hoge fps. 2160x1200 is al niet echt standaard (doch niet heel groot verschil ten opzichte van 1080p), maar 90fps is wel iets waar veel in zullen verslikken. Zeker met grafisch zware titels, wat alleen maar zwaarder gaat worden de komende tijd.

Of je moet genoegen nemen met minder fps of minder pixels, maar dan is de ervaring ook behoorlijk minder.

Ik ben zelf wel blij met de nieuwe specs. Mijn pc kan het aan dus dat is geen issue, maar vooral het punt dat de resolutie bij de huidige dev-versie te laag is, baarde me zorgen. Daarom ook nog geen bril aangeschaft. Ik hoopte nog wel dat ze dit jaar een nieuwe dev-versie gingen uitgeven, maar dat zal wel niet.
Het zijn de aanbevolen systeemeisen. Je kan het ook op zwakkere hardware wel draaien, maar dan zal het allemaal net wat minder lekker lopen en moet je wat meer toeters en bellen terugschroeven bij de games die je speelt.
Zit met m'n 970 denk ik wel ok, maar anders wil ik er ook wel een 2e bij halen om goed gebruik te kunnen maken van VR denk ik zo.
Je hebt nu eenmaal veel performance nodig.

Al bij al is het nog doenbaar. Ja het zijn high end specs, maar voor een euro of 600 kunnen de meeste gamers hun systeem wel upgraden. Als je van scratch wilt bouwen zit je rond de 1100 euro. Zonder de bril weliswaar.

Dat is op zich veel geld als je het puur voor VR doet, maar die PC draait natuurlijk ook games op een gewoon scherm. Op dat vlak zit je de komende 3-4 jaar ook zeker goed, zeker met DX12 om de hoek en het feit dat we de sprong naar de nieuwe consoles al gemaakt hebben (dus daar gaan we geen grote sprongen meer zien).

Mits eventueel wat sparen is dit in bereik voor de meeste gamers. Binnen een paar jaar is hardware equivalent met de GTX970 de norm en dan kan iedereen het gewoon draaien.
De andere comments leggen al correct uit dat 2160x1200 op minimaal 60fps renderen verre van haalbaar is op de meeste hardware, maar wat je ook moet bedenken is dat dit de systeemeisen bij de introductie zijn. Oculus heeft dus aangegeven dat die eisen de minimumeisen blijven voor alle spellen die de CV1 zullen supporten, zelfs over 2 jaar ofzo, en tegen die tijd is een vergelijkbaar systeem een stuk goedkoper.
2160x1200 lijkt me niet genoeg pixels.
Natuurlijk is het mooi dat zo een groot aantal PC-gamers het kunnen gebruiken,
maar dit is gewoon niet erg scherp op zo'n kleine afstand.

Dat is tenminste wat ik heb gevonden met de Dev kits. (Dit is niet heel veel scherper)
Punt is dat scherpte maar één van de factoren is, als ze het screendoor effect hebben weten weg te werken, de resolutie hebben verhoogd en dat alles zonder nieuwe concessies te moeten doen dan denk ik dat je verrast zult zijn hoe scherp het aanvoelt.
ik vrees dat de resolutie voor racing & flightsims nog steeds te laag; aanvaardbaar is het zeker, maar echte de kleine details uitmaken "van er" zal 4-8k nodig hebben. Op dat moment zal je ook problemen hebben om de VR wereld te onderscheiden van de echte :)

hopelijk mogelijk binnen de 10 jaar... what a time to be alive! :9
dat komt meestal door het spel zelf. meeste spellen draaien niet 100% op Oculus rift.
groot aantal pc-gamers? ik denk dat je je daar nog eens gruwelijk in kunt vergissen, een GTX970 is op het moment van schrijven nog steeds minimaal 350 euro en dat is toch geen kattepis voor een videokaartje..
Ik zie de cijfers van het aantal nieuwe desktop computers toenemen :+
Ik zie de cijfers van het aantal nieuwe desktop computers toenemen :+
Ja, lach maar. Maar de verkoop van mobieltjes en tablets met Android en iOS spoot gewoon omhoog toen apps als Angry Birds populair werden. De verkoop van Pentiums steeg in 1996 met de release van Quake, aangezien het spel minder snel draaide op AMD/Cyrix processors. En dat heeft Cyrix best wat omzet gekost. Sinds Facebook willen zelfs bejaarden op internet en sociale netwerken.

Het gaat allemaal om killer apps: iets wat gewoon heel erg aantrekkelijk is waardoor je mensen kan aansturen een bepaald systeem of platform te kopen. VR zou dat misschien kunnen worden voor krachtige desktops, want als je gewoon wil gamen ben je nu haast net zo goed af met een console.

Maar dat is nog maar afwachten. :)
Star Citizen. Gewoon dat spel en de Rift, daarvoor upgrade ik m'n game-pc met veel plezier. (Misschien een 2de GTX970 als/wanneer NVIDIA de SLI problemen oplost door bv. 1 GPU per oog te gebruiken.)
Ik denk dat de groep die nu geďnteresseerd is in de Oculus vaak al een desktop heeft. Uiteraard zijn er situaties waarbij een laptop degelijker is, denk bijvoorbeeld aan mobiliteit, maar het desktop-gehalte op Tweakers is al vrij hoog. :P
Core i5-4590 met Nvidia GTX 970 is aanbevolen. Een 2500k met GTX 960 zal het dus ook wel kunnen draaien denk ik zo.
same here, maar met een 970. Ben erg benieuwd, alhoewel de enige 'app' waarvoor ik een rift wil hebben momenteel Elite is...
Moeilijk zo te beoordelen. Het is een beetje een diplomatieke stelling:
This is the hardware that we recommend for the full Rift experience
Zelf zou ik niet meteen naar de winkel rennen en eerst kijken of de experience voor jou bevredigend is. Wat geld opzij zetten voor een plan B lijkt me trouwens wel verstandig. De doelgroep voor deze mededeling lijkt me met name de groep die het komende half jaar nieuwe hardware gaat neerzetten.

edit:typo

[Reactie gewijzigd door teacup op 16 mei 2015 18:47]

Het is een beetje hoe je het bekijkt, indies als minecraft of no man sky's zullen niet zwaar Zijn voor je videokaart, maar wil je ook gta op hoge setting spelen in combinatie met hoge resolutie en 90fps zul je toch echt in de buidel tasten, eigenlijk zijn huidige videokaarten nog niet helemaal geschikt.
GTA V is prima te draaien op een dergelijke resolutie met hoge settings. Als je in de advanced graphics dingen als extended shadow distance en extended distance scaling wat lager maakt of compleet negeert kun je met een enkele 980 al ver komen. Dat soort settings zijn ongeloofelijk zwaar en eigenlijk niet erg nuttig.

Ook kun je op een hogere resolutie de AA naar beneden halen wat in performance ook flink zal schelen. Nou zeg ik trouwens niet dat de GTX980 een goedkope kaart is, maar het is zeker al mogelijk voor enthousiastelingen.
Heb zelf een PC in elkaar gezet paar maanden geleden specifiek met het doel om met VR bezig te kunnen zijn en er voor te developen en nu blijkt dat ik alleen net precies aan alle minimum eisen voldoe :+ Kan er op zich wel om lachen, maar het maakt me wel zenuwachtig dat m'n PC waar ik zo trots op ben alleen maar net aan voldoet :P . Maar goed, tot dusver met de DK2 veel meer performance gehad dan nodig, dus we gaan het zien met de CV1 :) .
Gelukkig kun je een PC altijd nog upgraden. :P Ik begrijp wat je bedoelt, gezien de requirements zullen vele Tweakers ongeveer hetzelfde voelen.

Een jammer puntje aan VR is dat SLI waarschijnlijk geen goede keuze is. SLI kan vaak voor microstutters zorgen waardoor de immersie van VR compleet weg is. Nou heb ik daar nog geen concrete reviews of benchmarks van gezien of gelezen, maar ik kan het me goed voorstellen.
SLI geeft blijkbaar ook meer latency dan een enkele kaart, op t moment is SLI niet een ideale oplossing voor VR.
Maar nvidia is bezig met 'VR SLI' waarbij elke videokaart 1 oog zou renderen, met minimale latency en praktisch 100% scaling. Als ik het goed heb.

Wanneer dat uitkomt en welke videokaarten dat ondersteunen is mij ook nog niet duidelijk.
AMD heeft inmiddels al een SDK voor VR uitgegeven. Ook schijnt het lantency probleem minder te worden door directx 12 voor zowel nvidia als amd.

Nog even iets anders, het schijnt zo te zijn dat beeldschermen schadelijk zijn voor je oog omdat er een blauw licht met een korte golflengte word uitgestraald. Hoe zit dit dan met een VR bril waar het licht ook nog door lenzen gefocust word ?


http://www.amd.com/en-us/...es/technologies-gaming/vr
Ik denk dat het bij de release van de CV1 net haalbaar is voor een "gewone" gamers-prijs.

Mijn verwachting is dat NVidia dan hopelijk 2, op z'n minst 1, generatie verder is en de x70 kaart kan dan meestal voor zo'n 300-350 euro gekocht worden.

Het blijft een dure investering, maar het lijkt mij driedubbel de moeite waard om VR + nieuwe GPU te kopen.
Denk op zich ook wel dat het het waard is, maar betekend wel dat initieel de afzetmarkt relatief kleiner zal zijn dan velen tot nu hadden verwacht. En de 290 nu kan voor zo'n 300 euro gekocht worden, dus dat red je nog prima. Hele systeem kost denk ik nu zo'n 1000 euro als je oplet.
Hoe duur waren de onderdelen van jou computer? Om een idee te krijgen hoe duur een computer is die aan de minimum eisen voldoen
.
Edit: rewrote question.

[Reactie gewijzigd door Mothyl op 16 mei 2015 11:07]

Hier precies hetzelfde. Ik ben helemaal laaiend entousiast over mijn nieuwe systeem i5-4590s, R9-290, 16 G, 256 ssd enz. enz. Alles draai vloeiend en nu blijkt dit precies het minimum te zijn om de Rift te gebruiken.
De systeemeisen lijken nu dan hoog maar vergeet niet dat het in het GPU landschap stilte voor de storm is, de eerste klap is al gekomen met de Nvidia Maxwell architectuur maar:

- We zitten nu al vanaf de release van de AMD 7xxx series vast aan een 28nm procedé, begin 2016 komen waarschijnlijk weer kaarten die op een kleiner procedé gebakken zijn waardoor er weer veel meer transistors in zo'n chip kunnen worden geplaatst zonder dat het energieverbruik torenhoog wordt of dat de chip zelf zo groot wordt dat hij te duur wordt om te produceren. Dit zou zomaar meer dan 30% meer performance geven. (AMD gaf zelf aan (heb nu even geen bron) dat het iets van 50% in energieverbruik kon schelen, dat is misschien iets té optimistisch maar we kunnen weer zo'n performance increase verwachten die we hadden toen we van de 6xxx series naar de 7xxx series gingen)

- AMD komt over een maandje met HBM (R9 390X) waardoor veel sneller geheugen mogelijk is, zo zou de R9 390X al 640GB/s hebben! Nvidia werkt ook aan stacked ram waardoor het geheugen de komende tijd minder of geen bottleneck zal zijn op de high-end kaarten.

- DirectX12, ook hier zitten heel veel optimalisaties in, er kunnen nu wel 4 of meer (weet niet meer precies hoeveel) cpu cores tegen je GPU praten terwijl dat met DX11 er maar 1 kan zijn. Ook is het zo dat als je nu 2 GPU's in je systeem hebt die dx12 gaan ondersteunen dat die in dx12 als één grote gpu gezien gaan worden waardoor je niet meer met alle crossfire/sli issues zit en je het geheugen van je kaarten doodleuk bij elkaar op kan tellen. :D

Dus ik denk dat we er in Q2 2016 wel even wat anders voor zitten dan nu, de stilte voor de storm :)
- We zitten nu al vanaf de release van de AMD 7xxx series vast aan een 28nm procedé, begin 2016 komen waarschijnlijk weer kaarten die op een kleiner procedé gebakken zijn waardoor er weer veel meer transistors in zo'n chip kunnen worden geplaatst zonder dat het energieverbruik torenhoog wordt of dat de chip zelf zo groot wordt dat hij te duur wordt om te produceren
Dat is helaas één van de zaken waar de Wet van Moore nogal aan het haperen is: Qua energiegebruik zal het nog wel redelijk schelen, maar de kosten per transistor gaan steeds minder naarbeneden per generatie. Naar 22nm overstappen zal misschien nog wel wat schelen, maar niet bijzonder veel.
Als je ziet hoeveel winst ze nog maken op een chip denk ik dat daar nog wel wat rek in zit. Maar het wordt inderdaad steeds duurder om nog een stap vooruit te maken en om die chips te fabriceren. Maar zal daar op de lange termijn ook geen oplossing voor komen? Want als het om hun eigen portemonnee gaat dan kan er zomaar ineens heel snel een oplossing voor komen.
Het is altijd al om hun portemonee gegaan, en die van simpelweg kapitalisme: De concurentie is moordend. AMD moet al blij zijn als ze geen verlies draaien. Nivida doet het beter, maar die kunnen ook niet zomaar veel goedkoper hun chips gaan verkopen (dan wel veel duurder maken).

Sowieso is de ene chip de andere niet, bij NFC tags zullen ze al blij zijn als ze zo ongeveer een cent winst maken op die dingen. Volgens mij zie je de marges in de chip industrie iets te rooskleurig ;). Ja de marge per GPU zal best hoog zijn, maar R&D is dat ook.
Ik heb het dan ook over de high-end modellen als de GTX980 waar dat kleinere procedé waarschijnlijk een grotere impact zal hebben als in de midrange lijn. De marges zijn inderdaad wel klein, maar juist omdat die zo klein zijn en de nieuwe kleinere procedé's waarschijnlijk nog duurder gaan worden moeten ze toch een optie gaan vinden om ze goedkoper te kunnen maken, want ze kunnen de kaarten wel duurder gaan maken maar dan krijg je dat iedereen voor een midrange kaart zal gaan (ipv nu waar een gtx970 al redelijk betaalbaar is) en ook veel mensen dan een oudere high end kaart (zoals de r9 290 dan) uit de V&A gaan halen.
Mag ik, gezien de minimum eis Windows 7 is, er van uitgaan dat ze nog geen rekening hebben gehouden met de extra kracht die DirectX12 voor diverse GPU's zal moeten opleveren..?
Zover ik weet is dit een software matig iets. DX12 veranderd niets aan de rauwe processing kracht van een setup.
Dat is wel en niet waar.
Het veranderd niks aan de chip. Maar het laat wel optimaler gebruik van de hw maken. ( er gaan minder berekening verloren aan overhead , dus zijn er meer berekeingen beschikbaar voor de game). Ook is het zo dat de GPU nu vaak voor slechts +/-92% gebruikt word, ook dit schijnt aangepakt te worden. Al met al komt er dus wel degelijk wat meer processor kracht vrij. Al zal het denk ik in de praktijk mee/ tegen gaan vallen.
Ik lees hier veel over zichtbare pixels.
Zelf heb ik een DK2 gehad en vond hem niet goed genoeg.
Te lage resolutie, hoofdpijneffect en je kon de pixels afzonderlijk waarnemen.

Dat is nu precies mijn punt, het waarnemen van die pixels. Je kunt de pixels zien omdat er als het ware een kadertje om heen zit dat geen licht geeft.
Als ze iets moeten veranderen aan het display is dat niet zozeer de resolutie, maar het effectieve oppervlak per pixels veel efficienter benutten, dan lopen de pixels naadloos in elkaar over en zie je ze simpel weg niet. Voorop gesteld dat de resolutie hoog genoeg is. 2560 1600 of zoiets lijkt mij wel ok.

BTW die systeem eisen zijn wel achterlijk hoog, ik denk dat ze de 970 hebben gekozen vanwege 4gb anders zou een 780 of een ti makelijk kunnen.
Denk dat het opzich wel kan maar ze moeten lekker hoog starten om perfectie te kunnen garanderen.
Dat zwart is het screendoor effect waar David Mulder het over heeft een aantal posts terug.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*