Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 157 reacties

AMD streeft ernaar om vr-brillen mogelijk te gaan maken die per oog een resolutie van 16k kunnen weergeven bij 144Hz. Op dit moment komt de Oculus Rift die dit voorjaar uitkomt niet verder dan 2k per oog bij 90Hz.

Die combinatie van resolutie en refreshrate leidt volgens AMD's LiquidVR-topman Guennadi Riguer tot 'vr-nirvana', een naadloze ervaring in virtual reality, zegt hij in een interview met WCCFTech. "LiquidVR zal hardware- en softwaretechnieken blijven ontwikkelen die uiteindelijk leiden tot het nirvana van vr: 16k per oog, 144Hz en daarboven voor de refreshrate en vrijwel geen latency - en dat alles in een draadloos, klein ontwerp."

Riguer geeft geen moment waarop dat mogelijk zal zijn, maar WCCFTech schat dat het minimaal tot 2020 zal duren voordat die combinatie van factoren met gpu's mogelijk is. Het is onbekend of schermen tegen die tijd klaar kunnen zijn. Dergelijke schermen zullen minimaal drieduizend pixels per inch moeten bevatten. Op dit moment is het scherpste scherm in een consumentenproduct dat van de Sony Xperia Z5 Premium-smartphone, die door een 4k-resolutie op 5,5" komt tot ongeveer achthonderd pixels per inch.

Virtual reality staat momenteel op een belangrijk punt. Goedkope vr-brillen gebaseerd op Google Cardboard en Samsungs Gear VR kwamen vorig jaar uit, terwijl duurdere modellen die een pc vereisen als de Oculus Rift en HTC Vive dit voorjaar uitkomen. Daarmee moet blijken hoeveel interesse consumenten hebben in de virtuele realiteit.

Moderatie-faq Wijzig weergave

Reacties (157)

2k per oog? Volgens Wikipedia is het toch echt1080x1200 per oog.

https://en.wikipedia.org/wiki/Oculus_Rift
Precies wat ik ook meteen dacht. Het is 2k totaal, niet per oog.

16k per oog is echt bizar hoog! Dan moeten we exponentieel gaan groeien in resolutie.

Over benodigde renderkracht.. door technieken als Foveated rendering, waarbij enkel het gedeelte waar naar wordt gekeken (middels eye tracking) scherp wordt gerenderd, is het wel haalbaar.
Nop 16K per oog is niet bizar hoog omdat hier in de toekomst een lens-array voorkomt om daar een light field display van te maken (Hierdoor is de effectieve resolutie 10x lager)

http://lightfield-forum.c...-eye-light-field-display/

Grote voordeel van een light-field is dat je ogen echt kunnen focussen.
Dat is nogal cool.... Maar field of view is dan wel nog belangrijk, 70 graden is niet echt veel.
Zat ik ook over te denken. Huidige VR brillen veroorzaken tunnelvisie. Mensen hebben een gezichtsveld van zo'n 140 graden (horizontaal). Dat is het dubbele van deze brillen.
Juist, zoveelste flater op tweakers omdat ze niet factchecken..
Virtual reality staat momenteel op een belangrijk punt. Goedkope vr-brillen gebaseerd op Google Cardboard en Samsungs Gear VR kwamen vorig jaar uit, terwijl duurdere modellen die een pc vereisen als de Oculus Rift en HTC Vive dit voorjaar uitkomen. Daarmee zal moeten blijken hoeveel interesse consumenten hebben in de virtuele realiteit.
De interesse is er zeker wel. Maar als ik een grafische kaart van 700 euro moet kopen, een PC van 700 euro en een VR bril die tussen de 600 en 800 euro ligt dan remt dit de adoptatie flink af in het begin. VR is nog steeds in het early adopterssccenario.

That said...de move die wat AMD hier maakt en NVidia ook aan het maken is zal uiteindelijk leiden tot goedkopere kaarten die VR kunnen ondersteunen. Het is zo dat voor de komst van brillen zoals de Oculus de grafsiche kaarten vooral gewoon voor spellen werden ontwikkeld en de focus niet direct lag op zeer hoge resoluties met dual scherm zoals bij de Oculus of Vive is.
Nu dat doel duidelijk in zicht is zal het voor Nvidia en AMD een sstuk makkelijker zijn omdat ze nu een duidelijk te focussen doel hebben zodat hun R&D departement voor dergelijke ontwikkelingen eeer geld en resources vrij kan (en reeds heeft) gemaakt wat uiteindelijk leid tot sneller, betere en goedkopere kaarten die zaken zoals de Oculus beter ondersteunen.

Wij als consument zien de resultaten ervan nu nog niet direct maar uiteindelijk zullen er kaarten uitkomen die mss tussen de 300 en 500 euro kosten en op hoge resolutie beeld kunnen leveren met veel fps aan zaken zoals de Oculus en de Vive.
Ik denk ook dat het voor de adoptatie van VR belangrijk gaat zijn hoe Sony de PlaystationVR gaat uitrollen.

Hoewel de PS4 natuurlijk bij benadering niet de kracht heeft om VR in al z'n pracht en praal weer te geven denk ik dat je voor een grootschalige adoptatie van VR meer een Wii-effect moet hebben. Er moet een goed aanbod zijn van spellen die leuk en laagdrempelig zijn zodat het een toegevoegde waarde is voor de 30+ miljoen mensen die een PS4 hebben, waarvan een groot deel minder geeft om grafische poespas dan de PC gebruikers.

Als Sony de PlaystationVR voor een schappelijke prijs in de markt zet (misschien niet bij introductie, maar uiteindelijk) en er een degelijk aanbod is van spellen, denk ik dat daar de boost voor VR vandaan gaat komen. Wanneer men eenmaal gewend is aan het idee van zo'n ding op je kop, wordt de markt voor duurdere exemplaren denk ik ook ineens groter.

Denk dat nu een hoop mensen echt niet inzien wat de toegevoegde waarde is van VR, maar moet zeggen dat sinds ik het zelf eens heb mogen ervaren (en dat was nota bene de PSVR, dus geen super-duper graphics) ben ik toch wel overtuigd dat het echt een top toevoeging is.
Ik denk ook dat het voor de adoptatie van VR belangrijk gaat zijn hoe Sony de PlaystationVR gaat uitrollen.

Hoewel de PS4 natuurlijk bij benadering niet de kracht heeft om VR in al z'n pracht en praal weer te geven denk ik dat je voor een grootschalige adoptatie van VR meer een Wii-effect moet hebben. Er moet een goed aanbod zijn van spellen die leuk en laagdrempelig zijn zodat het een toegevoegde waarde is voor de 30+ miljoen mensen die een PS4 hebben, waarvan een groot deel minder geeft om grafische poespas dan de PC gebruikers.
Het Wii effect bleek alleen een hype te zijn.

Niet zo vreemd want de besturing via "gestures" is gewoon niet accuraat. Wilde je Mario kart of iets dergelijks spelen dan was je beter af met een accessoires met een analoge stick, dan met een plastic stuurtje waar je de controller in kon clicken. Wilde je een beetje gamen dan had je eigenlijk niets aan de Wii mote. De Wii (mote) was vooral leuk omdat het gezellig was, niet omdat je er zo goed op kon gamen. Het was dan ook bij uitstek iets dat "iedereen" leuk vond.

Ik verwacht eigenlijk van VR gaming eigenlijk een soort gelijke ontnuchtering op het moment dat het er daadwerkelijk is. Op de lange termijn is het gewoon niet geschikt voor de gamers. In de eerste plaats maakt het maakt interactie met de game alleen maar moeilijker. Er er zit een ding op je hoofd, je kunt je controller niet zien, het kan afleiden. Bovendien is het ook niet bepaald niet gezellig om een Oculus Rift op je hoofd te zetten. Tot slot zijn er er ook nog wat vraagtekens mbt vermoeidheid en misselijkheid. Uren gamen zit er wat dat betreft voorlopig niet in. Wat dat betreft is een doorzichtige bril zoals Nvidia's 3D Vision nog practischer. Dat heb ik een keer bij de Alternate kunnen testen en het was best geinig (maar opnieuw niet nuttig).

Dat gezegd is het wel heel erg geinig om een VR bril te gebruiken. Ik heb zelf vorig jaar de Oculus Rift even mogen proberen met de Rollercoaster demo. Er zijn voldoende interessante toepassingen voor VR. Alleen wat mij betreft niet voor gaming.
Helemaal mee eens 👍🏻
De massa heeft inderdaad geen high end game PC. Maar er zijn flink wat mensen die dat wel hebben (zie het forum hier). Voor deze mensen is het enkel een VR bril die aangeschaft moet worden.
Hoewel het klinkt als wat veel hooi op de vork is dit uiteraard over een aantal jaar al niet meer het geval.

Hoe dan ook, als je vandaag de dag op twee schermen wil gamen op 16k 144Hz mag je wel een compleet beest van een computer hebben :P
Ja, maar 4 jaar? Zo ontzettend snel gaan de ontwikkelingen nou ook weer niet. Bedenk je dat hedendaagse topkaarten al moeite hebben met 4K rond de 30-40 fps houden. Je wil de resolutie zo'n 16 keer verhogen (4 keer in elke dimensie is 16 keer zoveel pixels) en je wil een 4 keer zo hoge framerate en dit wil je dan ook voor twee ogen. Je hebt dus 128 keer zoveel performance nodig. Als je er vanuit gaat dat de performance ongeveer verdubbelt elke twee jaar (wat al een vrij optimistische schatting is), dan ben je al 14 jaar verder (2^7 = 128).

edit: Uiteraard is er ook wel winst te halen door te optimaliseren voor VR en wat minder eyecandy, maar ik denk alsnog dat 4 jaar echt veel te optimistisch gedacht is.

[Reactie gewijzigd door Finraziel op 3 maart 2016 09:01]

-oeps, verkeerd gelezen, nvm-

[Reactie gewijzigd door lonaowna op 3 maart 2016 09:12]

Dat klopt niet helemaal :p. als je het vergelijkt met Full-HD (1920x1080) heb je niet 256 keer zo veel pixels als bij 16k (15360x8640)

1920*1080=2.073.600 pixels
15360*8640=132.710.400 pixels
132.710.400/2.073.600=64

Het aantal pixels is dus 64 keer groter, maar laten we niet vergeten dat we van 60Hz naar 144Hz gaan. Nu gaan de grote getallen komen, dus houd je vast.

2.073.600*60=124.416.000 pixels refresh/sec
132.710.400*144=19.110.297.600 pixels refresh/sec
19.110.297.600/124.416.000=153,6

Dit betekend dat als je het vergelijkt met Full-HD dat je 153,6 keer zo veel kracht nodig hebt om 1 16k scherm aan te sturen op 144Hz, niet te vergeten dat dit maar voor 1 oog is dat is dus 307,2 keer zo veel kracht als een enkel Full-HD panel op 60Hz, wat nogsteeds ontzettend veel is.

(pagina was niet up to date voor mij dus ik had niet gezien dat je je reactie al had gewijzigd)

[Reactie gewijzigd door Frans_vthek op 3 maart 2016 10:15]

Dat zijn inderdaad het aantal pixels maar net zoals laatst er een hele uitleg over was vanuit Oculus hebben ze meer pixels dan dat nodig, teven worden deze uit twee (stereo) verschillende hoeken berekend... Dus de nodige kracht vanuit de gpu is meer, je berekening zou wel kloppen om de benodigde bandbreedte te berekenen....

/edit, even stukje vanuit Oculus erbij gezocht :
On the raw rendering costs: a traditional 1080p game at 60Hz requires 124 million shaded pixels per second. In contrast, the Rift runs at 2160×1200 at 90Hz split over dual displays, consuming 233 million pixels per second. At the default eye-target scale, the Rift’s rendering requirements go much higher: around 400 million shaded pixels per second. This means that by raw rendering costs alone, a VR game will require approximately 3x the GPU power of 1080p rendering.

[Reactie gewijzigd door TIGER79 op 3 maart 2016 10:57]

Ik ben dit inderdaad vergeten te berekenen, ook al weet ik eigenljik niet eens hoe ik dat zou moeten doen. Laten we er maar vanuit gaan dat je GPU (of meerdere) sterk genoeg zou moeten zijn om rond de 350 Full-HD panelen aan te sturen (theoretisch natuurlijk, een videokaart kan onmogelijk zo veel video outputs hebben :P)
ik zie hier toch wel wat missers in de berekening...

men kan nu dus 40 fps aan op 4k...
van 40 naar 144 is grofweg *3 (ik rond speciaal naar beneden af, ik zal later zeggen waarom)
van 4k naar 16k is*2 in de breedte en de hoogte dus da's *4
4*3 = 12x zo krachtig.. maar we hebben twee schermen nodig dus 24x zo krachtig als vandaag... (wellicht nog wat minder dan 24x omdat het opschalen in pixels niet recht-evenredig verloopt met meer fps. hoe hoger de resolutie wordt, hoe minder rekenkracht per pixel er nodig is; dit omdat bepaalde assets namelijk al pre-rendered zijn (denk aan textures) en grotere textures dus meteen ook meer pixels gaan bestrijken op een scherm. waardoor er per pixel minder rekenkracht nodig is dan wanneer men datzelfde zou doen met kleinere textures op een kleiner scherm... wel zal er uiteraard een pak meer geheugen nodig zijn.
Ik vergelijk het met hardware dat nodig is voor full-HD, wat nogsteeds het meest gebruikt word vandaag de dag, daarom kwam ik op zo een hoog getal uit.

overigens zit er een foutje in jouw berekening.
Als je 4k volledig uitschrijft als resolutie heb je 3840x2160, 16k vol uit geschreven is 15360x8640

15360/3840=4
8640/2160=4
4x4=16

Snap je hoe ik op zo een hoog getal uitkwam? Ik heb hierbij nog niet eens meegerekend dat we van 60Hz naar 144Hz moeten rekenen. Uiteraard zal er wel een techniek ontstaan waardoor de hardware niet ruim 300 keer zo krachtig hoeft te worden als dat wat geschikt is voor 1080p, maar het feit blijft dat deze technologie ver in onze toekomst ligt, en zoals vele van ons dat al voorspellen is die toekomst verder dan 4 jaar.
in consumentenhardware is 4k niet de DCI 4k die jij gebruikt..

in consumenten hardware is 4k/uhd namelijk 2160p, ook op youtube en andere videobronnen wordt 4k gebruikt voor de UHD resolutie van 3840x2160 (=hd *4 in aantal pixel (2x2))

ik was blijkbaar ook fout... want van 4k naar 8k is *2*2 en dan nog eens naar 16k is nog eens *2*2 voor lengte/breedte... dus totaal is dat (2*2)*(2*2) de huidige 4k resolutie (die nu al gebruikt wordt) en dat is samen *16
16*3 (fps) is dan weer 48... per scherm; dus totaal 2 schermen is 96

ik schat dus dat we ongeveer 80 tot 96 keer zoveel rekenkracht nodig als nu nodig hebben naargelang hoe knap het spel eruit moet zien... Wellicht kan dit nog een pak zakken wanneer men met nieuwe algoritmes aankomt waardoor men overlapping rendering kan doen omdat beide schermen namelijk bijna volledig hetzelfde gerenderd zijn alleen het standpunt is een paar centimeter verschillend; veel berekeningen kunnen dan achterwege gelaten worden voor het tweede scherm en kan men een groot stuk copy/pasten en op dat gekopieerde stuk een afwijkingshoek berekenen. Nu ben ik zelf geen programmeur ofzo, maar aangezien men alles altijd optimaliseert naargelang een technologie volwassener wordt kan ik niet anders dan bedenken dat dit dus voor VR (wat eigenlijk al 20 jaar in de kinderschoenen staat) mettertijd toch zal moeten gebeuren.

diezelfde rekenkracht op gewone fullhd levert waarschijnlijk zo'n hoge kwaliteit op dat je het verschil niet meer kan zien tussen een spel en de realiteit; uiteraard hangt het gebruikte kleurenpalet enzo daar ook vanaf; cell shaded zal er altijd bv cell shaded blijven uitzien. Maar begin vorig jaar zag ik toch een filmpje (hier op tweakers?) met rendering waarbij je het verschil al niet meer kon zien op huidige hardware (men doet in het filmpje heel de tijd alsof ze video laten zien met de vraag van 'als in de toekomst dingen er zo uitzien', en dan op het einde vertelt men dat alles wat getoond werd gerenderd was)
ah, gevonden; Euclideon filmpje

btw; ik was dus eerst zelf ook fout in m'n berekening.
Kennelijk heeft AMD vertrouwen in de toekomst en hun nieuwe design chips?
Dat blijkt, maar de performance van GPUs kunnen niet eeuwig "exponentieel" blijven groeien. Ik denk dat ze in de loop der tjid wel ergens tegenaan zullen lopen.
Ik vermoed dat ze de hoop/verwachting hebben dat er voor VR een hoop geoptimaliseerd kan worden. Een verhoging van het aantal pixels en de refresh rate zorgen wel voor meer pixels/sec, maar met slimme algoritmes is het misschien geen lineaire schaal.

Zo ook het feit dat er 2 invalshoeken berekend moeten worden. Ik kan me voorstellen dat ze met voldoende optimalisaties een heleboel van het rekenwerk maar 1x hoeven te doen.

Dat is misschien nu niet het geval, misschien berekenen ze nu echt gewoon alles opnieuw voor elke invalshoek, maar in de toekomst berekenen ze misschien eerst waar alles in de scene precies staat en hoe dit allemaal belicht wordt en hoe de textures erop liggen en weet ik wat voor techno-mumbo-jumbo er gedaan moet worden, en kunnen ze daarna vrij simpel (en parallel) de twee kijkhoeken berekenen.
Daarmee ga je wel uit van technieken die nu beschikbaar zijn. Over een paar jaar kan dit al wel anders zijn.

Laten we zeggen een computer op basis van Kwantummechanica, die moet dit wel aankunnen. Niet dat ik persoonlijk verwacht dat dit binnen vier jaar realiteit is, maar stel dat.......
videokaarten gaan niet in 4 jaar tijd 20x zoveel performance geven.
16K video zal haalbaar worden, 16K gaming onmogelijk in 4 jaar (tenzij je half-life 1 in VR wilt spelen).
In de computer industrie kan je dat soort uitspraken niet doen.

Kijk alleen al naar een technologie als bijvoorbeeld 3D Xpoint wat zomaar uit de lucht is komen vallen.

Er zal heus wel een doorbraak komen op het gebied van raw performance, technieken zoals HBM hebben bijvoorbeeld veel potentie.

Daar kan nog verbetering in plaatsvinden en er komt ook nog EUV lithografie aan en wie weet wat nog meer.
Als ze iets bedenken waardoor ze een klein producé kunnen gebruiken voor die gpu tegen de tijd dat euv volledig werkt. Nu zitten ze geloof ik nog op 28 nm voor de nieuwste kaarten (gtx 980 ti) met euv zou 7 nm haalbaar moeten zijn. Als ze een architectuur hebben die net zo goed is als de huidige, maar dan op dit kleine formaat waardoor er veel meer op een chip kan, lijkt me dit helemaal niet zo onhaalbaar.

Verder gaat de ontwikkeling van hbm ook de goede kant op, want voor zo'n resolutie en feamerate heb je vooral veel, maar ook redelijk snel vram nodig.

Mijn inschatting zou zijn dat 4 jaar erg optimistisch is, maar een jaar of 6 zou haalbaar moeten zijn (pure speculatie)
Niet te vergeten dat in de toekomst mogelijk gewone ram. Ook vervangen kan worden met een soort hbm achtige ram.
Dus de processors zullen daardoor ook vele male sneller worden.

Nu lijkt me 4 jaar wel erg kort.
Maar wil er mee zeggen. Dat we de komende jaren nog nergens tegen aan zullen lopen. En dat alles steeds meer performance krijgt.

De petaflop barrière in de thuis computer word na mijn denken binnen de komende 10 jaar wel bereikt
Foveated rendering zal er toe leiden dat er niet eens zoveel gerenderd hoeft te worden per oog.
Als Nvidea claimt dat Pascal 10x de performance van maxwell gaat geven... Ik snap dat het een marketingpraatje is en dat de realiteit wel iets anders zal gaan uitpakken, maar als je de curve gaat bekijken hoe snel de kwaliteit en performance omhoog gaan zou het mij niet verbazen....

http://wccftech.com/nvidia-pascal-gpu-gtc-2015/

extra: http://blogs.nvidia.com/blog/2015/03/17/pascal/

edit: Maxwell, naar aanleiding van reacties, dank hiervoor.
Tevens extra link toegevoegd naar aanleiding van reactie van SjettepetJR, hierbij verwijs ik naar Nvidea website zelf.

[Reactie gewijzigd door Azziax op 3 maart 2016 14:27]

Maxwell ipv haswell.
Je bedoelt waarschijnlijk Maxwell?
Die 10x performance is zover ik weet alleen voor een bepaald soort berekening, waar Maxwell heel slecht in was.
Daarnaast wordt WCCFtech gezien als een hele slechte tech site met vooral veel clickbait en slechte artikelen.
En dan hebben we nog het detail van een beeldscherm van een paar inch dat al die pixels moet bevatten.
Ja hoe hoog moet De PPI zijn om dat nog een beetje netjes in een hmd te krijgen.
16K gaming lijkt mij ook uitgesloten, maar 16K video moet toch mogelijk zijn?
Ligt aan de complexiteit van het gerenderde lijkt me.
Gisteren is displayport 1.4 aangekondigt die 8k60 HDR zou moeten kunnen ondersteunen op volgens mij dezelfde bandwidth als displayport 1.3 door betere compressie te gebruiken.
Gpus staan dit jaar door het kleinere procédé wel voor een grote doorbraak. Dat zal iig de komende twee jaar voor grote stappen zorgen. Daar komt bij, dat DX12 waarschijnlijk ook voor een flinke prestatieboost zal zorgen. Wat hier wederom aan zou kunnen bijdragen. Bovendien hangt of 4K op 60 fps te spelen is erg af van de optimalisatie van de game.

Maar om eerlijk te zijn vind ik het hele VR gebeuren niet echt boeiend. Wat mij echt gaaf lijkt is een mobiele en goed uitgewerkte implementatie van AR. Zegmaar hololens met display in vorm van een contactlens en aangestuurd door je telefoon. Maar daarvoor zal de ppi nog wel even flink moeten stijgen. Dus in eerste instantie lijkt me zo'n bril wel een goede oplossing.
In 4 jaar denk ik niet dat de beeldschermtechnologie al zover is. Daarnaast wordt rekenkracht wel een hele dobber ja. Wat wel kan gaan helpen if eye-tracking en foveated rendering. Je oog ziet maar in een zeer kleine hoek echt heel scherp (dacht 10 graden ofzo), je kan hier in principe gebruik van maken door (als je ogen snel en accuraat getrracked worden) alleen maar het deel van het beeldscherm waar je naar kijkt in ultrahoge resolutie te renderen, als je dan de rest op meer normale resoluties of zelfs lage kan renderen kan dat veel rekenkracht schelen.

Ik weet dat meerdere bedrijven als microsoft en Nvidiae hier al naar kijken en het bedrijf Fove mikt al op een VR bril met eye tracking. Voor deze generatie VR-brillen zal het te vroeg zijn en ik denk niet dat de ontwikkeling zo snel gaat dat we over 4 jaar een 16k x2 bril op 144HZ hebben draaien maar ik schat wel in dat we hard richting de 8k met 120Hz zullen gaan met Eye tracking en foveated rendering.

http://uploadvr.com/smi-e...ated-rendering-exclusive/
AMD is niet zo slim bezig met deze uitspraak.

Eigenlijk zeggen ze hiermee namelijk ook dat het huidige VR aanbod nog bizar ver van de ideale situatie af staat en dus bijzonder inferieur is. Niet bepaald een bijdrage om het momentum van VR vast te houden. Hoe ze bij deze 'nirvana' spec komen is ook nogal ondoorzichtig. Daar zal vast enorm solide onderzoek achter zitten van de marketing afdeling.

Als dit puur dient voor de exposure, dan is er echt niet goed over nagedacht. 16k144 is gewoon nog heel erg lang een luchtkasteel, en 2020 is veel te optimistisch, aan de ene kant omdat we nu al vertraging op vertraging zien bij de stap naar sub 20 nm, 28nm zit al aan z'n max en kan nét aan 4k60 weergeven op redelijke FPS (maar nog láng niet op de onderkant van het gewenste prestatieniveau dat 90 fps zou zijn) en dan alleen nog op de ultra high end. En aan de andere kant omdat elke nieuwe node nóg langer op zich zal laten wachten als 14/16nm. En ik voel er weinig voor om 16k144 content te hebben die grafisch een gigantische stap achteruit is buiten de resolutie om, want dat is de enige manier waarop je dit soort fps gaat vasthouden.

2030 vind ik wat dit betreft al een optimistische voorspelling.

[Reactie gewijzigd door Vayra op 3 maart 2016 11:39]

Op Ibc in de rai hadden ze 2 of 3 jaar geleden als 16k camera's als demo staan.
Ik denk ook dat dit eerder 14 jaar is, 16K per oog op 144hz is zo'n bizarre hoeveelheid pixels die per seconde berekend moeten worden, een simpele FullHD game op 60FPS zit pas op enkele procenten hiervan.

15,360 × 8,640 x 144 = 19.110.297.600 pixels per seconde (per oog/scherm)
1920 x 1080 x 60 = 124.416.000 pixels per seconde

16K 144hz is 153,6x zoveel als 1080p60. En dat dan keer 2, want het is per oog...
144 Hz zodat het licht niet storend knippert zo vlak voor je ogen wil nog niet zeggen dat de games zelf op 144 frames per seconde moeten draaien. Mogelijk voelt 60 FPS of de helft van 144=72 fps gewoon prima aan en gaat het echt alleen om het knipperen.

En alles op ultra zetten nu bij games is vaak ook een anti aliasing methode bij, bijvoorbeeld eentje die het beeld eigenlijk upscaled naar laten we zeggen 16k en daarna weer terug weer geeft op een 1080p schermpje, wat er dan smoother uitziet. Maar op zo'n hoge resolutie is dat dan misschien helemaal niet nodig, die anti aliasing. Dus dan zouden de top videokaarten van nu al bijna op het gewenste niveau presteren. Dat hoop ik eigenlijk wel. Dan zouden deze VR specificaties misschien wel bijna midrange te noemen zijn over 4 jaar en in de nieuwe generatie consoles gebruikt kunnen worden voor een redelijk betaalbare prijs.

Ik denk alleen dat kleine schermpjes met zo'n hoge resolutie over 4 jaar nog niet beschikbaar of anders onbetaalbaar zijn. Ik dat dat een veel groter struikelblok zal zijn dan dat 2x 144 Hz bij 16k aansturen voor de GPU zal zijn.
Sorry, maar je hoop is voornamelijk gebaseerd op een gebrek aan kennis.

Knipperen is helemaal geen factor bij de huidige schermen, die knipperen helemaal niet meer. Alleen CRT's (beeldbuizen) en Plasma schermen knipperen, Wel zijn er sommige displays die met opzet de backlight laten knipperen omdat dit bewegingen scherper uit laat zien, maar dat is dus niet iets dat je in een VR bril hoeft te stoppen als je je zorgen zou maken om knipperen. Het gaat dus wel degelijk er om dat de videokaart deze framerates moet gaan leveren. Dat is ook de reden waarom voor de Vive en Rift de recommended specs zo hoog liggen.

Wat betreft anti aliasing, dat klopt, dat zal wel uit kunnen. Maar je overschat hoeveel impact AA tegenwoordig nog heeft op de performance. Toen het net nieuw was berekenden videokaarten inderdaad intern op een veel hogere resolutie waardoor de belasting makkelijk dubbel of meer was ten opzichte van geen AA. Tegenwoordig zijn er veel slimmere methodes en is de impact vaak helemaal zo groot niet meer (althans niet tot het punt dat ze intern al op 16k renderen, het komt niet eens in de buurt).
Ik zat meer aan een actieve 3d bril te denken die op 144 Hz knippert, zonder 144 frames per seconde te gebruiken.
Maar schermpjes recht voor je oog hoeven niet perse te knipperen voor 3d effect eigenlijk, dat is meer een truukje om op een enkel scherm afwisselend het linkse beeld en het rechtse beeld weer te geven terwijl de 3d bril dan om en om het beeld aan je linker en je rechter oog laat zien.
Dan is het afhankelijk van de gebruikte techniek. Misschien krijgen ze alleen knipperende technieken op zo'n hoge resolutie voor elkaar en geen LCD met een statische backlight.
Of misschien gaat AMD toch uit van om en om de linker en rechterkant weergeven, zodat je maar de helft van het aantal frames hoeft te renderen (144 per seconde in totaal, 72 per oog) in plaats van 2x 144 dus 288 frames per seconde. Een beetje zoals vroeger met de oude TV's die iedereen toen goed genoeg vond op 50 Hz interlaced, waarbij maar 25 frames per seconde weergegeven worden maar dan om en om de beeldlijnen gebruikt worden van dus eigenlijk twee keer een halve resolutie.

Daarbij is het ook weer zo: misschien is het alleen voor het individuele pixels kunnen onderscheiden nodig om de pixels zo klein te maken dat je 16k schermen gebruikt, maar dat op zich een render van 4k ofzo goed genoeg is die upscaled weergegeven wordt. Dus dat het puur en alleen om de schermen gaat die een hoge pixel dichtheid hebben wanner ze zo dicht op je ogen zitten (met eventueel gebruikte lenzen of iets dergelijks) en dat AMD nu nog niet bedoelde dat de beelden ook echt intern gerenderd moeten worden op die resolutie.

Wat ik dus vooral bedoel te zeggen: niemand kan weten wat AMD precies voor ogen heeft wanneer ze deze uitspraken doen dat ze denken dat dit over 4 jaar haalbaar moet zijn. Jij gebruikt daarbij de standaard van nu voor een TV scherm of misschien telefoonscherm en wat je hoopt dat ze bedoelen. Je maakt daarbij het idee dat ze gezegd hebben dat ze 2x 144 frames per seconde weer willen geven. Ik zeg alleen maar dat dat niet waar hoeft te zijn wanneer ze praten over 144 Hz door verschillende technieken.
Ik hoop natuurlijk wel ook dat er over 4 jaar kleine 16k schermen bestaan en dat een videokaart games rendert op 16k per oog en 144 frames per seconde per oog, maar dat lijkt me een totaal onrealistische toename in pure kracht in die 4 jaar tijd.

Of het wordt alleen maar weergegeven terwijl het door een AMD serverpark gerenderd wordt en via internet doorgestuurd.

[Reactie gewijzigd door DannyXP1600 op 4 maart 2016 13:46]

En over 10 jaar hebben we een GSM in de broekzak die zoiets 'for good ol' sake' in een emulator draait op volle snelheid :) Het blijft toch allemaal evolueren. Innovatie lijkt er een beetje uit maar sneller maken van wat we al hebben gaat nog steeds door.
Dan moet je een pc hebben die 16 4k schermen op 144hz kan laten draaien, ik vermoed dat je dan een heel aantal Gtx Titan X's in SLI mag gaan zetten.
Waarom zou je over 4 jaar nog die oude Gtx Titan X's gebruiken?
de originele titan is nu al een beetje gaap voor het geld wat mensen er voor neergelegd hebben. Over een paar jaar denkt men owja zon titan x, welke halve zool betaald er 1k voor zon slome stroomslurper, zo gaat dat altijd met veroudering maarja hobby :)
Ik bedoel dus met de huidige technologie. Zoals @Frans_vthek opmerkt, je hebt zelfs 2x zoveel power nodig omdat je per oog 16k wilt.
Waarschijnlijk zijn die GTX Titan X's van nu op dat moment je low-range kaarten ofzo, net als dat de goedkope kaarten van nu sneller zijn dan de high-end kaarten van een aantal jaar geleden

[Reactie gewijzigd door lololig op 3 maart 2016 11:27]

Waarom noemt iedereen me Frank ipv Frans.. :'(
omdat nienand kan lezen ;p heb t aangepast
Nu is het net alsof ik het zelf verkeerd heb gelezen XD
Niet te vergeten dat ze 1x 16k144 scherm per oog willen hebben... Dat staat dus gelijk aan 32 4k schermen op 144Hz.
Dan wordt het meer een serverruimte denk ik :P
En dan nog red je het niet met de hardware die nu beschikbaar is ;)
We hebben de afgelopen jaren amper innovatie gezien in prestaties en alles is gericht op zuinigheid. Dus ik denk dat 16K 144Hz nog lang een droom zal zijn als je momenteel enkel met de top of the line kaarten 4K 60hz goed wil kunnen spelen.
Hoewel het klinkt als wat veel hooi op de vork is dit uiteraard over een aantal jaar al niet meer het geval.

Hoe dan ook, als je vandaag de dag op twee schermen wil gamen op 16k 144Hz mag je wel een compleet beest van een computer hebben :P
Nou ik denk dat we dan wel 10 a 15 jaar verder zijn.

En er bestaat geen Consumenten beest van een computer die per oog een resolutie van 16k kan weergeven op 144Hz.

Zelfs voor een hele snelle CPU met een hele snelle Videokaart zo als de GeForce GTX 980 Ti Xtreme kost het HEEL veel moeite om rond de 50fps te komen met 4k, en dat is maar een fractie van 16k op 144Hz.

Alleen maar met Tomb Raider en BioShock Infinite en Alien Isolation kwam je rond op boven de 60fps., en VEEL kwam geen eens boven de 40fps, en dat met een OC Intel Core i7-5960X Extreme Edition en een OC GeForce GTX 980 Ti.

En ja dat is a een beest van een computer.

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980_ti_extreme_gaming_waterforce_review,13.html

Edit foutjes..

[Reactie gewijzigd door AmigaWolf op 4 maart 2016 01:27]

16k zie je toch helemaal niet?
Ligt er aan wat de afstand tot het scherm is, aangezien zo'n VR bril erg dicht bij je ogen zit zal de dichtheid van de pixel veel hoger moeten zijn om een beeld te krijgen waar de pixel niet te onderscheiden zijn.

Probeer maar eens met de volgende rekenmachine (http://isthisretina.com) uit te rekenen wat de minimale afstand is voor een scherm op 16k resolutie (15360x8640) op een scherm van 2-3 inch? Dan kom je op een afstand van 3 cm van je oog. Wat volgens mij aardig in de buurt komt van de afstand van de meeste schermen in een VR bril
Punt is ook dat de lenzen zich als vergrootglazen gedragen dus de pixels worden vergroot.
Ze worden niet zomaar vergroot, maar sterk vertekend. De middelste pixels, dus die waar je het meest op focust, zijn in verhouding enorm groot. Daarom kun je ze zelfs bij een 4k scherm op centimeters afstand van je ogen nog tellen.
Dat is nu Juist net de bedoeling dat je dat niet ziet.

De ervaring dat je niet naar een scherm kijk op die afstend van een scherm.

de berekining
http://wolfcrow.com/blog/...olution-of-the-human-eye/

Bij 4inch/10cm heb je 2190 ppi/dpi resolutie nodig.

[Reactie gewijzigd door Master_duck op 3 maart 2016 09:38]

Maar is daar 16k@144hz per oog voor nodig? Waar is dit op gebaseerd?
Op onderzoek/ervaring natuurlijk :)

http://arstechnica.com/ga...nt-enough-for-perfect-vr/

2k per oog (oculus) zie je nog steeds pixels, en daarnaast dekt het nog lang niet je hele zicht af, dus je moet en de resolutie nog veel meer verhogen, en het zichtbare veld nog enorm vergroten...
Dat is geen onderzoek maar pure speculatie geweest, staat letterlijk in het artikel.
Dit verhaal van AMD is gewoon marketing. Er is geen onderzoek geweest dat tot deze uitspraak heeft geleid.
Waarom moet hij specifiek naar een onderzoek verwijzen, hij gaf gewoon antwoord op een vraag die tijdens een interview werd gesteld...

Er is zat te vinden op internet dat 4k en 8k nog lang niet toereikend zijn, sterker nog misschien is 16k per oog nog wat laag (gebaseerd op mijn eigen onderzoek op Google Search) :)

[Reactie gewijzigd door watercoolertje op 3 maart 2016 09:53]

Hij moet niks, maar post een link en noemt het onderzoek. That's all.
Daar is zelfs nog veel meer voor nodig, maar dit is een stap in de goede richting.
Denk dat ze daar wel onderzoek naar gedaan hebben ;)
Een oog ziet 576 megapixels volgens Google. 16k zou denk ik betekenen 16k*16k resolutie, wat 256 megapixel is.

Je zou dus nog meer dan twee keer zoveel willen hebben om het verschil niet meer te zien als je al het volledige gezichtsveld wil vullen.

Ik vind zelf 16k lichtelijk overdreven, vooral omdat het een enorme capaciteit vereist. Ik denk dat ik al blij zou zijn met 4k per oog. Dat lijkt me meer dan scherp genoeg om een prettige spelervaring te hebben en vereist maar 1/16 van de rekenkracht.

Als je het mij vraagt hoef je niet perse de scherpte van het oog te evenaren voor een goede spelervaring. De Google Cardboard werkte redelijk op mijn 2560x1440 telefoon, al cag je de pixels. 4k betekent al ongeveer 3 keer zo scherp dan wat ik gezien heb.
Wat een oog ziet is heel sterk afhankelijk van leeftijd en afstand. Het is dus wat kort door de bocht om te zeggen dan een oog x megapixels ziet.
Het is inderdaad niet te vergelijken letterlijk
Maar als je een vergelijking wilt trekken dan klopt het wel wat hij zegt.

Ik kan een spinnenweb draad zien op een afstand van 10meter
Mits ik er goed voor zit en goed concentreer.
Maak een foto van de zelfde omgeving in laat maar zeggen 100megapixel
En je kan daar dat detail niet op terug vinden.


Uit ervaring met mijn hobby om giga pixel foto's te maken op vakantie. Kan ik je vertellen dat elke foto onder de gigapixel grens niet veel toevoegd op de ervaring die je met je eigen oog kan waarnemen op dat moment.

Pas bij meer pixels kun je meer zien in de foto dan met het blote oog. Dus zijn redenering van 576megapixels klopt dan wel
Klopt, maar je moet toch een uitgangspunt hebben.
Om een volledig menselijk zicht na te bootsen in VR heb je een 'field of view' van 180° nodig. Dat gecombineerd met de kennis dat het menselijk oog tot 0,4 boogminuut aan resolutie kan ontwaren, is het makkelijk te zien dat per graad 150 pixels nodig zijn, en met een FoV van 180° komt dat in totaal op 27k pixels in de horizontale dimensie.
zo worden die brillen niet gemaakt.
Het lenzenstelsel in de bril zou er toch voor zorgen dat het beeld rondom jou heen wordt gerekt? Je kijkt toch niet naar 'een platte TV' in zo'n bril?

Daarbij blijft de kennis van 150 pixels per graad wel geldig in alle gevallen.

[Reactie gewijzigd door IveGotARuddyGun op 3 maart 2016 13:47]

Volgens mij zijn die brillen allemaal plat van binnen.
Dat maakt toch niet uit? Wat wél uitmaakt, is hoe het beeld op jouw netvlies belandt.
Je zegt hiervoor dat je niet naar een platte tv kijkt.

Ik zeg dat die er wel in zit. :9
Je kijkt naar een gekromd beeld van die platte TV, is een betere uitleg, denk ik.
Hangt ervan af hoe dicht ze de schermen/projecties voor je oog gaan houden voor wanneer ze naar een compacter model willen. Maar inderdaad, op een gegeven moment zal je de verschillen niet meer direct 'zien', maar eerder 'ervaren'.
Ik vraag me af wat dit doet voor je ogen, zouden er geen nadelen zitten als je voor een lange tijd met je ogen zo dicht naar een scherm zit te kijken?
Mijn ouders vertelde me toen ik klein was dat ik er vierkante ogen van zou krijgen. Dus als ze me niet hebben voorgelogen is dat precies wat er gaat gebeuren :+
Ik heb mij suf gerukt in mijn puberjaren en bij de laatste test was mijn gehoor nog steeds prima in orde ;)

Mijn ouders hebben wel gelijk gekregen wat het turen naar het computerscherm betreft. Ik moet een bril dragen...
Ik ben de enige zonder bril in de familie en ik zit het meeste achter een (computer/telefoon/tv) scherm, mijn conclusie is dus juist dat het goed is voor je ogen ;)

Ik hoor ook nog erg goed, dus daar ben ik het wel mee eens :+

[Reactie gewijzigd door watercoolertje op 3 maart 2016 09:41]

Ik heb hetzelfde bij mij thuis, sterker nog, in mijn hele familie. Ik ben letterlijk de enige die geen bril nodig heeft terwijl ik ook het meeste naar mijn scherm zit te staren, in tegenstelling tot mijn 50+ aantal familieleden die allemaal een bril dragen op de enkeling na (ik heb een erg grote familie :P)
Want dat komt door het turen naar een computerscherm?
Er is aangetoond dat je bijziend kan worden door te weinig daglicht.
En veel computeren betekent vaak ook minder daglicht.
Dus er is zelfs een wetenschappelijke basis voor :)
Gotta stay classy :+
Daar zorgen de lenzen voor. Die zorgen ervoor dat je ogen op een comfortabele afstand hun focus kunnen behouden. Net alsof je naar een monitor kijkt.
Ja, maar dat is 1 comfortable afstand. Terwijl irl je ogen van focus moeten wisselen. Met het wisselen van focus train je je ogen. Dat effect raak je kwijt.

Maar nu worden mensen not misselijk door de lag. 1 probleem tegelijk....
Als het goed is merken je ogen daar weinig van. Ik verwacht dat die gewoon op oneindig focussen, wat de ontspannen houding van het oog is. Zou te vergelijken moeten zijn met langdurig door een microscoop/telescoop kijken, dat doen ook genoeg mensen dag in dag uit.
Hetzelfde vraag ik af voor mijn bril, ik he een sterkte van 6 7 en dichtbij moet ik hem altijd afzetten, bv tablet typen, maar als ik ver kijk moet de bril op, ik heb dubbel focus maar dat is toch niet je van het met zien.
Ik denk eerder dat het volledig afgesloten zijn van je omgeving voor langere tijd gewoon niet comfortabel zal zijn.

Zoals velen hier ook al opmerken, je ogen worden niet vierkant van veel gamen of TV-kijken, van rukken word je niet doof, en hoewel ik vs. alle familieleden en de meeste mensen die ik op een werkvloer meemaak die geen beheerder zijn met afstand gedurende 20 jaar het grootste deel van mijn tijd achter onaangepaste werkplekken heb doorgebracht, heb ik geen RSI.
Als er al gezegd word door AMD dat het vanaf 2020 zoiets beschikbaar zou worden qua techniek.
Dan zal tegen die tijd de hardware flink voorruitgang hebben geboekt qua power. Uiteraard telt software development ook mee hoe efficient het met de hardware omgaat.
Op zich een mooi streven. De techniek zal er tegen 2020 mogelijk wel klaar voor zijn, maar niet onze portemonnee...
De uitspraak is misschien heel optimistisch, maar als het niet in 2020 lukt, dan komt het wel voor 2025 misschien. Het is een kwestie van tijd.
Ik denk dat het ook met deze technologie het de porno industrie is die de kar moet trekken (no pun intended).
Zou inderdaad een grote factor kunnen zijn... maar daar heb je geen 16K voor nodig.
Was het ook al niet zo dat er nog al wat kritiek van uit de industrie kwam ten tijde van het uitkomen van Blu-ray discs? Te scherp beeld, waardoor te veel pukkels, puisten en andere 'on-effenheden' zichtbaar werden?
Als porno op reguliere schermen niet meer zou kunnen en enkel via VR pas dan zal de porno industrie dezelfde invloed hebben als bij het VHS/Betamax verhaal.

Die invloed hebben ze deze keer dus zeker niet in de mate die maar in de buurt komt van toen!
Het is goed dat de lat hoog wordt gelegd. Ongeacht of dit ook echt in vier jaar zal lukken. Waarschijnlijk kunnen we al een heel eind komen en dat is erg belangrijk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True