Tweede Oculus Rift-devkit bevat frontpanel Note 3

De tweede devkit van de Oculus Rift-virtual reality-bril bevat het volledige frontpanel van een Galaxy Note 3. Dat blijkt uit een teardown van iFixIt. Zelfs de controller van het touchscreen is intact gebleven, zo blijkt uit de teardown.

Waarschijnlijk zijn de Galaxy Note 3-frontpanels gebruikt om relatief eenvoudig een tweede prototype uit te kunnen brengen: er worden maar 45.000 exemplaren van de devkit gemaakt, dus zou het weinig zin hebben om een eigen scherm te laten ontwerpen, schrijft iFixIt.

Het is onduidelijk hoe Oculus, het bedrijf achter de virtual reality-bril dat onlangs werd overgenomen door Facebook, aan de Note 3-frontpanels komt: de devkit kost 350 dollar, ver beneden de kostprijs van een complete Note 3. Mogelijk krijgt Oculus de frontpanels van Samsung, waarmee het bedrijf eerder een samenwerkingsverband sloot om een eigen virtual reality-bril uit te brengen.

Hoewel het complete frontpanel is overgenomen en zelfs de touchscreen-controller aanwezig is, terwijl die niet wordt gebruikt, is er wel één wijziging aangebracht: het scherm draait op 75Hz in plaats van de standaard 60Hz, om soepeler bewegend beeld mogelijk te maken.

IFixIt trof verder onder meer 40 infrarood-ledjes aan waarmee de bewegingen worden getrackt. De tweede devkit is volgens de website relatief makkelijk te repareren: op een schaal van 1 op 10 scoort het apparaat een negen, net als zijn voorganger.

ifixit devkit oculus rift 2Bron: iFixIt

Door Joost Schellevis

Redacteur

31-07-2014 • 19:24

114

Reacties (114)

114
113
48
14
3
58
Wijzig sortering
https://d3nevzfk7ii3be.cl...i/PPIqMbfrtNGExWWC.medium

Laat zien dat het hier letterlijk om het hele frontpaneel gaat en niet alleen het lcd scherm. Vraag je af of dit ook werkt met een note 3 :D
Dat lijkt me ook wel het bewijs dat het een deal met Samsung is. Waar haal je anders 45.000 exemplaren van zo'n compleet geassembleerd frontje met logo vandaan? Bij de supplier van Samsung wellicht, maar lijkt me dat je dit ook niet klaarspeelt zonder de toestemming van Samsung.
Het lijkt me dat er zoals eerder genoemd voorraden zijn van deze schermen inclusief onderdelen die misschien niet worden gebruikt of dat deze zo uit de productie komen.

Omdat het om een oplag gaat van 45.000 zou het kwa kosten niet interessant zijn om onderdelen te verwijderen die niet noodzakelijkerwijs in de weg zitten.

Als een consumenten versie op de markt komt en er veel grotere oplages gemaakt worden zal dit een heel ander verhaal zijn en zullen zaken zoals gewicht meer van belang zijn.

De overige problemen die worden genoemd zijn natuurlijk zaken die al op de agenda staan, ze ontwikkelen immers continue door. Volgens mij wordt ook vaak de betekenis van de DK vergeten, namelijk dat het nog een Development kit is en niet in de zin van de hardware maar voor het beschikbaar krijgen van content.

Als de consumenten versie op de markt komt zullen de meeste genoemde problemen verholpen zijn en hopenlijk voldoende content om het moment te behouden in plaats van een product wat weer verdwijnt.

Daarnaast is het natuurlijk fantastisch dat door de DK versies mensen op nieuwe ideeen en toepassingen komen een paar van de mooie toepassingen die ik heb gezien:

- downhil mountainbiking
- skieen /snowboarden /skateboarden
- wingsuit / hangliding
- mirror's edge
- vliegen / auto racen
- attracties zoals rollerrcoasters
Hier is het filmpje van hun: https://www.youtube.com/watch?v=-HoHkFgslJc
Oculus Rift Dev Kit 2 Teardown Review


---latere post----

Mensen die een google cardboard kopen bv deze: http://www.ebay.nl/itm/Ne...ain_0&hash=item3ce523aa5d en nog een note 3 kunnen in de buurt komen, maar toch. wat maakt het uit het is alleen maar makkelijker te vervangen je besteld gewoon een note3 scherm als hij kapot gaat. Ik lees overal wat negatieve reacties niet persee hier maar alsnog post ik dit even.

[Reactie gewijzigd door pascalboy op 26 juli 2024 06:40]

Heeft de Note3 een 1080p scherm?

Ik heb toen met de allereerste Oculus gespeeld, en voor mij was er toen maar 1 minput, de resolutie. Ik vraag me af/hoop dat 1080p voldoende is.
Ik heb de DK2 nu een paar dagen in huis en hoewel ik de DK1 nooit heb kunnen proberen kan ik je vertellen dat 1080P "acceptabel" is. Het verschilt heel erg qua content of het storend is of niet. In sommige situaties met veel dezelfde kleur of eentonige textures is het screendoor effect zichtbaar voor mij, maar wanneer er veel actie en flitsende kleuren op een scene voorbij komen is het allemaal minder zichtbaar (lees: minder ;) ). Vooral objecten met veel detail in de verte kunnen er soms nog onduidelijk uit zien doordat de resolutie gewoon weg te laag is voor het menselijk oog voor een 1080p schermpje op die afstand.

Buiten dat is het een heel bijzondere ervaring en als ze de huidige tekortkomingen kunnen overkomen zie ik mijzelf helemaal opgaan in VR. Momenteel heeft de SDK de nodige problemen waar oculus van op de hoogte is en deze middels firmware/software op kan lossen met de huidige DK2. Zo kan deze nieuwe versie in direct mode worden aangestuurd; d.w.z. dat je GPU hem niet als 2e extended scherm herkend. Dit gaat bij mij (en een hoop anderen) hopeloos fout, ik heb erg lage framerates, geen low persistance en bij sommige demo's die speciaal voor de DK2 zijn aangepast/gemaakt lijkt het wel alsof ik een fractie van de resolutie krijg ten opzichte van wat het scherm aan kan. Gelukkig kan je ook nog kiezen voor de extended mode en hier werken de demo's gelukkig wel goed. Ook de positional tracking is iets heel moois. Het feit dat je door ramen kan hangen en om hoekjes heen kan kijken is iets wat de immersie echt ten goede komt.
1080P, inderdaad. Wanneer je het als gewone telefoon gebruikt is dat meer dan zat, zelfs met mijn ogen die vanaf enkele centimeters al scherp kunnen zien. Nu is de Oculus Rift een apart geval met lenzen en zo, dus ik weet niet wat dat met de pixels doet. Misschien worden bepaalde pixels uitvergroot en daardoor wel zichtbaar, waar dat bij de Note 3 (dus zonder lenzen) geen issue is.

[Reactie gewijzigd door Amanoo op 26 juli 2024 06:40]

1080p is op mijn TV ook genoeg om 3d beelden te toveren met idd de helft van 1080p per oog. Echter heeft dat wel meer subpixels per oog en kan het nog een stuk scherper!
Nu is een TV wel weer vaak ver van je verwijderd. Het is maar een klein deel van je totale gezichtsveld. Goed, bij een telefoon is dat ook meestal zo, maar bij mijn telefoon, maar als ik die een centimeter of 7 van me af houd, waardoor het toch het grootste deel van mijn gezichtsveld inneemt, ervaar ik het alsnog als niet korrelig. Een TV neemt een kleiner deel van je gezichtsveld in beslag. Ik ben stiekem wel een beetje benieuwd of je de TV ook als niet korrelig ervaart wanneer je er zo vlak voor zit dat het het grootste deel van je gezichtsveld in beslag neemt.
ik dacht dat samsung met z'n eigen VR-bril bezig was:
http://androidworld.nl/ni...lekt-bevestigd-uiterlijk/
mogelijk kunnen ze wat schermpjes missen omdat de verkoop niet loopt zoals ze willen?
Samsung maakt sinds de S3 alle schermpjes in extra oplagen omdat ze nogal eens defect raken.

Je kan ze dus ook gewoon krijgen als service center. Natuurlijk is het wel wat raar dat ze deze nu ook in grote hoeveelheden aan OR verkopen.

Linkje naar een ebay-verkoper; de Devkit 2 kan dus prima zulke displays bevatten, ze zijn immers maar rond de €140, of zoals hier, met een beetje marge erop, ongeveer de helft van de prijs voor de Devkit2.

Tel daarbij op dat de videochip en diens geheugen vast zit op deze display replacment!! Als Occulus zoals getoond in de afbeelding deze niet mee besteld, drukt dat de kostprijs nog verder. Ook de digitizer aansturing zal waarschijnlijk wel ontbreken. De frontcam en IR sensor zitten overigens niet in het service bundeltje. Maar goed, de IR sensor die samsung gebruikt kost ook onder de dollar ex.

http://www.ebay.nl/itm/GE...Tools&hash=item23317dd785
Dat is niet raar. Dat is de droom van iedere aandeelhouder. Een compleet nieuwe afzet markt voor de technologie van Samsung, met de potentie om er honderden miljoenen van te verkopen.
Is het nog steeds, zoals met de vroegere vr brillen ,dat het lijkt dat je naar een tv op enig afstand kijkt?
ik denk dat je in de war bent met head mounted display's zoals die van sony (http://www.sony.co.uk/ele...ay/t/head-mounted-display

Daar is het inderdaad net of er een tv scherm voor je staat op +/- 2 meter afstand, bij de rift is het beeld op het scherm zo vervormd en de lenzen daar weer zo op zijn aangepast, dat het lijkt of er geen scherm meer is (+/- 100 graden beeld). Met de motion tracking erbij geeft dat een effect alsof je er midden in staat.

[Reactie gewijzigd door geert01 op 26 juli 2024 06:40]

Creatief, dat zeker. Wat is de resolutie van dat scherm?

[Reactie gewijzigd door Gamebuster op 26 juli 2024 06:40]

1080p. Fun fact: wanneer je de Rift DK2 op je computer aansluit staat die standaard in portrait mode, pixels scannen van links naar rechts ipv boven naar beneden :)

[Reactie gewijzigd door Joerdgs op 26 juli 2024 06:40]

Dat is een best leuke fun fact. Is het zo dat de scandirectie verandert of instelbaar is als je iets qua resolutie aanpast? Of is dat verwerkt in de LCD controller en niet in de display controller (wat twee losse onderdelen zijn ;) )
ik snap het niet.. geeft de scandirectie een andere beeldervaring? wat maakt het uit in welke richting het beeld wordt opgebouwd? of begrijp ik je verkeerd?
Ik kan me voorstellen dat het uitmaakt op het moment dat 1 scherm 2 schermpjes moet voorstellen en dat er 2 beelden synchroon weergegeven moeten worden. Als het 2e beeld later klaar is met opgebouwd worden dan het 1e beeld dan geeft dat een vertraging. Misschien niet een vertraging die je direct ziet, maar wel een vertraging waar je misschien hoofdpijn van krijgt, net als sommige mensen dat van bepaalde 3D technieken krijgen.
Ik kan me voorstellen dat het uitmaakt op het moment dat 1 scherm 2 schermpjes moet voorstellen en dat er 2 beelden synchroon weergegeven moeten worden. Als het 2e beeld later klaar is met opgebouwd worden dan het 1e beeld dan geeft dat een vertraging. Misschien niet een vertraging die je direct ziet, maar wel een vertraging waar je misschien hoofdpijn van krijgt, net als sommige mensen dat van bepaalde 3D technieken krijgen.
Dat is natuurlijk op te lossen door verticale interlacing toe te passen zodat eerst de even kolommen van de ene kant (links naar rechts) worden opgebouwd, daarna de oneven kolommen van de andere kant (rechts naar links). Daardoor is voor je ogen de beeldopbouw altijd gelijkmatig.
Bij LCD's is er geen sprake van beeldopbouw en dus heeft een techniek als interlacing geen enkel nut.
Bij LCD's is er geen sprake van beeldopbouw en dus heeft een techniek als interlacing geen enkel nut.
Alleen gaat het bij de Note 3 om een OLED-scherm, niet om een LCD. Daar is wel degelijk verschil tussen.
Alleen gaat het bij de Note 3 om een OLED-scherm, niet om een LCD. Daar is wel degelijk verschil tussen.
In de praktijk, en zeker gezien interlacing, is er niet genoeg verschil om een verschil te maken.., :)

Interlacing zou je kunnen toepassen om stroom te sparen (door slechts de helft van het scherm aan te sturen) of om schakelelectronica te sparen via multiplexing ofzo maar voor het voorkomen van tearing heeft het geen enkel nut. Een oled kan zo'n 1000x per seconde zn volledige beeld opbouwen. Dat zie je dus niet.,
Een LCD laat alle pixels tegelijk zien.
Er is dus geen sprake van dat een deel van het beeld later wordt opgebouwd dan een ander deel.
In prnciepe worden de beelden voor beide ogen tegelijk op de GPU gerenderd en als 1 beeld richting het scherm gestuurd. Het is dus gewoon een kwestie van de volgende v-synch afwachten en dan het frame dat de beelden voor beide ogen bevat uitspuugen vnaar het scherm.

Het gaat mis zodra je v-synch niet gebruikt maar dat is sowiso al een no-no voor vr.
V-Sync wordt in principe H-Sync daardoor, dus je tearing artifacts worden verticaal i.p.v. horizontal.
Klinkt denk ik als een voordeel, in de gemiddelde game beweegt het beeld meer horizontaal dan verticaal (tijdens het om je heen kijken bijvoorbeeld, of het landschap tijdens het rijden). Nu krijg je dus voornamelijk tearing als je van boven naar beneden aan het kijken bent, wat je denk ik een stuk minder doet.
Mja, dat brengt bij mij echter de vraag naar boven:
"Waarom scannen beeldschermen niet standaard horizontaal i.p.v. verticaal?"

Ok voor een website/tekst lezen kan ik het begrijpen, dan ben je meer vertikaal aan het scrollen.. maar voor een gaming monitor zou het idd. logischer lijken om horizontaal te scannen.

OK tweakers, wie gaat dit met monitor fabrikanten doornemen? :+
Mja, dat brengt bij mij echter de vraag naar boven:
"Waarom scannen beeldschermen niet standaard horizontaal i.p.v. verticaal?"

Ok voor een website/tekst lezen kan ik het begrijpen, dan ben je meer vertikaal aan het scrollen.. maar voor een gaming monitor zou het idd. logischer lijken om horizontaal te scannen.

OK tweakers, wie gaat dit met monitor fabrikanten doornemen? :+
Dat komt eigenlijk door een oud stukje techniek dat al sinds de analoge televisie aanwezig is.

Daar werd ook in beeldlijnen van boven naar beneden gescand, omdat dat voor ons al sind jaar en dag een natuurlijke manier is om papier te lezen.

Was de televisie niet in Europa, maar in bijvoorbeeld Japan ontwikkeld, dan zouden ze van rechts naar links scannen in plaats van links naar rechts.

Voor veel toepassingen zou het inderdaad handiger zijn om eerst verticaal te scannen (dus in kolommen in plaats van beeldlijnen) omdat de tearing dan gunstiger uitpakt. Of alles dubbel te bufferen zodat je geen last meer hebt van tearing.

Met de huidige LCD-techniek maakt de scanrichting weinig meeer uit.
@Stoney3K

Ik heb overigens ook ooit eens begrepen dat een van de redenen dat monitoren 16:9 werden ipv 16:10 omdat het goedkoper zou zijn (wegens technische redenen?) om een breeder beeldscherm te maken dan een hoger beeldscherm..

Wellicht dat dat iets te maken heeft met de manier van productie (destijds) wat tot minder losses leidde, ervanuitgaand dat met de scanrichting horizontaal je hoger rendement kon halen uit je sheets als schermen ook horizontaal groter zijn dan verticaal?

Overigens nooit ingelezen in de specifieke techniek maar lijkt me dat er wellicht een verband kan bestaan?
Eén van de lastige dingen met de eerste CRT's was het goed hepositioneren van de elektronenstraal, zodat die netjes naar het begin van de volgende regel terugsprong. Met 625 lijnen en 50 Hz moest je dat dus 31.250 keer per seconde doen.

Maar stel nu dat je kolommen in plaats van lijen had gebruikt. TV's zijn lager dan dat ze breed zijn, 4x3. Je had dus circa 830 kolommen gehad, in plaats van 625 lijen. En dan had je ook 41.500 keer per second de straal moeten herpositioneren.

De keuze voor lijnen scheelt dus 10.000 sprongen per seconde, en dat was met de electronica van destijds een grote winst.
Zoals Stoney3K al hint bestaat 'scannen' eigenlijk niet bij LCD's.
Alle pixels die in het buffer zaten worden tegelijk weergegeven.
Je merkt het eventueel als de buffer halfvol geschreven was omdat v-synch genegeerd werdt. En dan zit er (in de buffer al) een tearing artefact in.
Zoals Stoney3K al hint bestaat 'scannen' eigenlijk niet bij LCD's.
Alle pixels die in het buffer zaten worden tegelijk weergegeven.
Even een kleine kanttekening: Bij een (AM)OLED-scherm moet je weer wél scannen, maar de meeste display-controllers doen dat in zo'n enorm snel tempo dat je daar weinig van zal merken.
Ja, uiteindelijk geldt dat ook voor LCD schermen. Je moet een keer die buffer overzetten naar de feitelijke pixel elements. En het gaat inderdaad veel sneller dan het oog kan bijhouden.
Ik wacht nog op een techniek die ervoor zorgt dat alle pixels afzonderlijk van elkaar aangestuurd worden en de opbouw in real time gebeurt dus zonder opbouw in lijnen. Hierdoor is vsync en tearing niet eens meer aan de orde. Tevens hoeven pixels dan wanneer deze dezelfde kleur hebben niet gerefreshed te worden en blijven in de zelfde staat staan. ik denk dat dit ook vooral in smartphones een behoorlijke stroom winst op kan leveren
Anoniem: 601733 @sygys1 augustus 2014 21:46
Dit bestaat al in smartphones, zie bijvoorbeeld LG telefoons zoals de G3 die een zogenaamde 'memory display' hebben.
Euhm sygys, wat?...

1080x1920 = 2,1 miljoen pixels
2,1 miljoen pixels x 32bit (kleurinfo) = 66,4miljoen bits die parallel weggestuurd moeten worden.

Jij stelt dus voor dat wij een bus/kabel ontwikkelen die 66,4 miljoen pinnetjes heeft????..... en dat is al enkel voor 'full' HD.


Even nadenken voor je je mond open doet svp, mijn hersenen doen pijn nu. :+ 8)7
V-Sync wordt in principe H-Sync daardoor, dus je tearing artifacts worden verticaal i.p.v. horizontal.
Als er sprake was van Synch dan was er geen tearing.
De synch signalen kunnen volledig willekeurig opgewekt worden, bijvoorbeeld ook midden op het scherm
Verder maakt het die controler weinig uit in welke richting de beeldopbouw plaatsvind. Het is dus een keuze van de programmeur. Alleen moet dat ding nou eenmaal in een defaultmode opstarten.
De Note 3 heeft een 1080P scherm.
Dacht wel met een pentile arrangement toch? Oftewel feitelijk toch wel een iets lagere resolutie.
Klopt!
Samsung Galaxy Note 3
  • Type: Full HD Super AMOLED
  • Resolution: 1920×1080
  • Size (inches): 5.7"
  • PPI: 388
  • Pixel layout: RGBG PenTile
Bron: http://en.wikipedia.org/wiki/AMOLED#Full_HD_Super_AMOLED
Dat zou dan inderdaad toch eigenlijk 5/6 van FHD zijn? Aangenomen dat je 5 subpixels hebt waar je er bij RGB 6 zou hebben.
Feitelijk juist wel 1080p al heb je 1 subpixel die wit is en dus zwart wit beeld hebt is het alsnog 1080p. 1080p zegt feitelijk enkel wat over pixels niet over subpixels. Neemt natuurlijk niet weg dat RGB op 1080p scherper is, dat is wel een feit :)

[Reactie gewijzigd door watercoolertje op 26 juli 2024 06:40]

Er zit geen witte pixel in. Wel een dubbele groene pixel om de resolutie van het groenkanaal (waar mensen veel gevoeliger voor zijn) te verhogen. (thnx GewoonWatSpulle voor de info)
Misschien moet je begrijpend lezen :) Dan kan je zien dat ik dat ook helemaal niet beweer...

edit: hieronder, daar heeft iedereen nu denk ik last van :D

[Reactie gewijzigd door watercoolertje op 26 juli 2024 06:40]

1920 x 1080 pixels.

Misschien dat de eerste consumenten versie het scherm van de Note 4 gaat gebruiken, dat een 1440p resolutie heeft.

[Reactie gewijzigd door Overv op 26 juli 2024 06:40]

dat zou een erg mooie resolutie zijn voor VR,
met 4K zijn we er echt, maar de framerate en latency en 100% stabiele en accurate tracking zijn nog veel belangrijker.

ook een belangrijke welke Oculus nog niet heeft gedaan is eyetracking,
daarmee kan je samplen waar de persoon kijkt en daar dus je DOF (depth of field, dieptescherpte) op aanpassen, daardoor klopt het beeld echt met wat je in real life kan zien en kan je dus ook echt focussen, zeker als men de lenzene echt gaat gebruiken.

we komen in de buurt mensen :)
probleem is alleen dat een doorsnee consumenten PC de bril ook moet kunnen aansturen, en 4K gaat een doorsnee consumenten PC echt niet lukken om dat fatsoenlijk te kunnen renderen..
Wat ik wel weer ergens anders las was dat de DK2 ipv 110graden FOV nu maar 100graden heeft, Ik denk dat dat komt doordat er in de oude een 7" scherm zit en in deze een 5".. Dan hoop ik uiteindelijk wel dat er in de uiteindelijke versie minstens een 7" breed scherm zit, zou mij niet eens verbazen als ze dan ook nog eens een gebogen scherm gebruiken, want dat past natuurlijk perfect in een bril en kan de FOV nog verder vergroten..
en 4K gaat een doorsnee consumenten PC echt niet lukken om dat fatsoenlijk te kunnen renderen..
Sorry hoor maar de fill rate van gpu's is al jaren voldoende voor 4k.
Waar het op aankomt is hoeveel zooi je allemaal in beeld wilt renderen.

Verder is 4k gewoon slechts vier keer meer pixels dan 1080p. Dat is echt niet zo heel veel.
4 keer meer pixels per dimensie. Schermen zijn tweedimensionaal, dus 16x meer pixels per scherm.

[edit]
Oeps, 4K is natuurlijk de huidige standaard (2160p), niet de volgende generatie displays. Het menselijk oog zit op zo'n 75 MP, dus we hebben nog 2 generaties verbetering nodig.

[Reactie gewijzigd door MSalters op 26 juli 2024 06:40]

hd = 1920x1080
uhd = 3840x2160 = 2x1920 x 2x1080 = 4 x 1920x1080

Vier maal meer pixels dus. Correct?
4 keer meer pixels per dimensie. Schermen zijn tweedimensionaal, dus 16x meer pixels per scherm.
Wat?? Is dit tweakers?

Beste MSalters, 4k is nog steeds gewoon 4x het pixeloppervlak van 1080p.
Een 4k scherm heeft langs elke kant ongeveer het dubbele aantal pixels.
Het is dus 2x per dimensie.
In totaal zijn er dus maar 4x zoveel pixels te genereren.
Dat valt dus nog best wel mee.

Ik begrijp dus werkelijk niet wie jou die +2's gegeven hebben.

[Reactie gewijzigd door koelpasta op 26 juli 2024 06:40]

Ja, duh, dat is een open deur intrappen.. Zelfs een PS1 kan in principe nog wel een 4K scherm aansturen, zolang je het maar beperkt tot 1 blokje.
Als we het hier over hebben, dan hebben we het er over dat je geen Battlefield 4 op de hoogste stand hoeft te verwachten...
Ja, duh, dat is een open deur intrappen..
Ja maar jij stond anders mooi te beweren dat een normale pc dit gewoon niet zou kunnen.
Dat is complete onzin. Je zult wel alle toeters en bellen moeten terugschroeven, minder polies, minder textures, maar je kunt er alsnog een knap 4k beeld uit krijgen.
Je hoeft inderdaad geen BF op hoogste stand te verwachten, maar dat is op zich natuurlijk geen enkel probleem.
Ik denk dat dat een doorsnee consumenten PC helemaal nietrs hoeft met een oculus rift, Het is op het moment een dev kit en een enorm nice product in beta fase.
Lijkt mij voor early adopters, developers en tech freaks.
Niks doorsnee aan zou ik denken.
Volgens de nieuwe eigenaar is het juist de bedoeling deze bril zo goedkoop mogelijk te houden. Het wordt dus op de massa gericht en niet op de freaks die hier grif geld voor willen betalen. Ik verwacht langere rijen dan bij de apple store wanneer dit apparaat op de markt komt.

http://www.nu.nl/tech/379...koop-mogelijk-houden.html
Ik niet, ik heb hem al en heb er geen seconde voor in de rij gestaan.
Bovendien heeft de prijs van het apparaat helemaal niets te maken met de huidige doelgroep.

[Reactie gewijzigd door brugj03 op 26 juli 2024 06:40]

Uh wut? Je denkt echt dat de Oculus Rift vele tientallen miljoenen keren over de toonbank zal gaan, net zoals de iPhone 5? Iedereen heeft een iPhone, met name de jeugd. 3D TV is niet aangeslagen, er wordt veel meer gegamed op mobile devices dan op PCs en consoles. Geloof me, dit is echt een niche product, het zal echt niet veel verkocht worden...
Neemt niet weg dat ik het een geweldig idee vind en ik koop er ook vast een, maar ik val dan ook in de doelgroep.
Ook volgend jaar wanneer de OR dus voor consumenten uit moet komen is de doorsnee consumenten PC niet goed genoeg om 4K beelden (met veel objecten) te tonen..
Mee eens.
Mijn high end gaming bak is net genoeg voor de meeste demos.
Dat is volgend jaar echt geen consumenten klasse ;)

En de komende 3- 4 jaar ook nog niet.
Deel die getallen (aantal pixes) maar direct door 2, want je gebruikt een scherm verdeeld over 2 ogen. En er zitten ook nog ongebruikte randjes tussen, en hoeken waar je niets kan zien...
Niet alleen dat, de Oculus maakt ook nog gebruik van lenzen, met een vergroting van 5x. Dus de 386dpi van het 1080 x 1920 scherm worden ervaren als een scherm van 72 dpi (77 dpi to be exact) wanneer je door de oculus naar het scherm kijkt.

Nog steeds een prima dpi, beetje zoals de oudere monitoren ;-)

correct me if I'm wrong!
your wrong,
de reken truk die het beeld ondergaat om goed door de lenzen te komen kost aanzienlijke GPU kracht.
Bovendien word het beeld stereoscopisch gerendert dus echt wel 2 verschillende beelden afhankelijk van de te weergeven diepte
Dat het stereoscopisch gerenderd wordt dat maakt natuurlijk dan weer niets uit, het gaat alleem maar om het aantal pixels wat je ziet, en hoeveel pixels er gerenderd moeten worden, niet hoeveel er vanuit het ene en hoeveel er vanuit het andere standpunt worden gerenderd.
dat zou een erg mooie resolutie zijn voor VR,
met 4K zijn we er echt, maar de framerate en latency en 100% stabiele en accurate tracking zijn nog veel belangrijker.

ook een belangrijke welke Oculus nog niet heeft gedaan is eyetracking,
daarmee kan je samplen waar de persoon kijkt en daar dus je DOF (depth of field, dieptescherpte) op aanpassen, daardoor klopt het beeld echt met wat je in real life kan zien en kan je dus ook echt focussen, zeker als men de lenzene echt gaat gebruiken.
Ik wens je alleen veel succes met uitvissen waar een speler zijn ogen focust. Je kan hooguit zien welke richting hij uit kijkt en hoe groot zijn pupillen zijn.

Als je de focus van iemands ogen wil tracken dan zul je moeten scannen of zijn netvlies scherp te zien is.
ja en dan kan je de Z-depth pass opvragen op die locatie en de DOF aanpassen daarop. :+
Freaq, meet Alpha Blending.

Waar ga je op focussen als de kijker kijkt naar een glasplaat?
Moet je je focusen op de glasplaat zelf, de scene er achter, of de reflectie in het glas?
In dit geval is er vanuit een enkele richting licht te zien van 3 verschillende dieptes. Knap algoritme dat kan uitvogelen waar ik mn scherpte op wil hebben als kijker.

Of wat als je precies langs een rand van een voorwerp kijkt. Wat als die rand ook nog eens ge-anti-aliassed is?

[Reactie gewijzigd door koelpasta op 26 juli 2024 06:40]

alsof games dat nog niet opgelost hebben -_-
deferred renderers gaan dar al tijden prima mee om. sure er zijn nog wle challenges maar die zijn lang niet zo groot als ingame de depth sorting op orde hebben, en als dat op gelost is is je Zdepth ook gewoon prima.

enige wat je hoeft te doen is in plaats van een arbitrair focuspunt te pakken gewoon de diepte uit te lezen.

kijk eens naar de tech van FOVE, deze doen dit namelijk al...
hier is een oudere test en implementatie:
http://www.youtube.com/watch?v=HdW1v9TPNYw

[Reactie gewijzigd door freaq op 26 juli 2024 06:40]

Waar ik op doel heeft helemaal niks met de rendertechniek te maken.
Het probleem is het bepalen van naar welke diepte de ogen willen kijken, niet hoe dat gerendert moet worden.

Laat ik nog eens get geval van glas nemen.
Als je alleen maar de richting weet van waar iemand naar kijkt dan weet je ongeveer naar welke pixel diegene kijkt.
Maar bij glas bestaat de kleur van die pixel dan uit 3 componenten. Het glas zelf, de scene achter het glas en de reflecties in het glas. Aangezien al die drie componenten hun focus op een andere diepte hebben weet je dus niet welke van die drie dingen je moet DOFen en welke je scherp moet laten zien.

Leuk dat ze in je filmpje testen met Q3, maar tegenwoordig zijn games grafisch een stuk complexer. Deze Q3 demo is een vrij simpele scene opgebouwd uit grore blokken. Dat is wel even wat anders dan een dynamische wereld bezaait met autowrakken, bomen, gras en andere spelers.

Of wat dacht je van anti aliasing? Dat zijn pixels die een combiatie zijn van de achtergron en het voorwerp. Hoe weet de computer of je je op de achtergrond langs de rand wilt focusen of dat je je op de rand zelf wilt focusen?
Stel, jij kijkt naar de achtergrond, maar er zwiept een takje voor het punt waar je naar kijkt. Moet de computer dan de focus verleggen of strak naar de achtergrond blijven scherpstellen. In werkelijkheid zou jij die keuze elke keer anders maken afhankelijk van waar jou interesse op dat moment ligt. De computer kan dit niet weten zonder je gedachtegang ook te kennen. Gaat dus niet werken.

Wat er volgens mij gaat gebeuren als je dit soort dingen gaat toepassen is dat je mensen ernstig in de war maakt omdat je een reflex niet volledig gaat emuleren. Hierdoor ga je allerlei rare bijeffecten krijgen omdat je echte oogreflexsysteem er niks meer van begrijpt en soms spontaan gaat meedoen om voor de mider geslaagde emulatie gaat compenseren. Dat is niet echt een prettig gevoel omdat het echte relfex helemaal niet werkt op een schermpje op vaste afstand.

Verder is het zo dat je oog nooit stilstaat.
Dat betekent dat je een klein gebied constant aan het scannen bent met je ogen. Je oog maakt constant kleine bewegingen die door je hersenen worden weggefilterd. Je oog kijkt dan naar verschillende onderwerpenwerpen, soms op verschillende dieptes, zonder de focus te verleggen (omdat je zelf van jezelf wel weet waar je je scherpte wilt hebben).
Een computer zou dan denken dat de focus tussentijds eventjes naar de voorwerpen moet waar je overheen scant met je ogen. Heel tegennatuurlijk dus.
De computer zou dan wederom je gedachtem moeten lezen om te weten dat de focus in dit geval niet moet worden verlegt.

Laat je niet gek maken, dit soort technieken zijn ontzettend moeilijk om goed te doen en ik denk niet dat het nu goed en goedkoop genoeg kan om zinnig te zijn in VR.
ik ben bekend met deze issues, zeker met het issue van achter of voor het beeld focussen, dit is de reden dat zoveel mensen misselijk worden van 3D in de bios.

wat ze doen bij de bios is dat ze de 2 beelden langs elkaar stellen, dit geeft oa de diepte perceptie, omdat je ogen elkaar kruisen, (we kijken altijd een beetje scheel) omdat we niet weten waar ogen kijken kunnen we dat nog niet in VR, echter als we dat wel kunnen kan je nog veel netter 3D simuleren.

maar daar heb ik het nog niet eens over.
ik heb het ook niet over "echt" focussen. ik heb het in dit geval erover om slechts de DOF aan te passen op het focuspunt (en daarmee dus de focusdiepte) het is een simpele hack.
je ogen stellen ook niet echt scherp op die diepte, maar waar je kijkt is het op die diepte scherp en de rest dus niet..

games doen dit al, ze stellen de DOF in op de diepte van waar de reticule zit, (centrum van het scherm) en meestal werkt dit vrij goed, aangezien de speler meestal daar ook kijkt... echter DOF instellen gebaseerd op waar de ogen kijken. is dus al een stuk beter. en veel meer complex hoeft het niet te zijn.

je voorbeeld met een takje dat voorbij zwiept is ook geen probleem, ogen nemen normaal een paar ms om focus te verleggen, en dat kan je in een game ook prima doen. je wil niet constant je DOF aanpassen elk frame dus een beetje leniancy is wel gewenst maar dat doen we nu ook al.

verder als je wel een object wil volgen kan je prima een track maken en zien naar welke diepte een persoon de vorige paar frames wilde kijken.

Hoedanook de computer hoeft mijn gedachtegang niet te weten, enige wat hij moet weten is waar mijn ogen kijken, en daarop gebaseerd de scherpte diepte aanpassen, dit is echt niet moeilijk, ik heb gewerkt met eyetracking om onderzoek te doen en hoewel het oog nooit echt stilstaat kan je weldegelijk prima zien waar iemand kijkt, en bij problematische issues zoals door gras heen kijken kan je stellen dat als het dichterbij is dan zeg 20 cm dat je er wss nooit op wil focussen. simpele regeltjes kunnen je daar prima redden.

kijk het kan nog veel netter, maar eyetracking voegt enorm veel toe omdat de "blur" op de plek zit waar jij als mens dat verwachte omdat je op object x focust.

ik snap ook neit echt waarom je het idee hebt dat dit zo moeilijk is, enige is inderdaad dat als je het niet goed doet dat het inderdaad juist extra problemen zou kunnen geven omdat de DOF te snel verandert. en ja je kan niet echt op diepte focussen, al zou je dat ook nog kunnen doen met de lenzen mocht je echt wilen.

anyways het kan. Fove doet het ook al, anderen hebben tests gedaan die erg hoopgevend zijn. en het hoeft zo simpel te zijn als een IR ledje en een klein cameraatje.
ik snap ook neit echt waarom je het idee hebt dat dit zo moeilijk is,
Omdat er ontzettend veel uitzonderingen mogelijk zijn.
Jij noemt bijvoorbeeld het geval waarbij gras dat binnen een bepaalde straal zit niet meeneemt in het verhaal. Maar daarmee gooi je eventjes het feit overboord dat gras meestal verder weg staat dan 20cm als het gezien wordt, en ook dan is het semi-doorzichtig.
Sterker nog, je gaat helemaal niet in op het geval dat ik schetste waarbij er meerdere kleurcomponenten behorende bij verschillende dieptes in 1 enkele pixel zijn verwoven en waarbij de comtext die je in je hersenen hebt opgebouwt bepaalt waar je je op focust. Een computer kan het juiste component niet extraheren zonder je gedachten te kennen.
Je negeert ook het vaak voorkomend geval van een ge-anti-aliasde rand. Of uberhaupt het geval van langs de rand van iets kijken. Aangezien het gemiddelde van de saccades dan tussen achtergrond en voorgrond zwiebert weet de computer niet welke diepte er gekozen moet worden.
Ik kan me voorstellen dat je met een duidelijke blik op een voorwerp de computer kan vertellen wat je bedoelt, maar voor de randgevallen moet er gegokt worden. Dit zou dan ook meer het sturen van scherptediepte middels selectie van voorwerp zijn dan dat het iets te maken heeft met de natuurlijke, automatische en altijd correcte (vanuit je ervaring) scherptediepte van je ogen.


Je stelt dus veel te makkelijk dat omdat het voor sommige beheerste situaties werkt het voor alle gevallen werkt. Daarnaast negeer je compleet een voorbeeld waar het niet werkt.

Overigens heb ik het ook over DOF, al maakt dat verder niet uit voor de techniek om het onderwerp te bepalen. Bij DOF is 'scherpte' dan gewoon een gebrek aan blur.

Waar het denk ik misgaat is wanneer het algoritme met complexe situaties (veel overlappingen van voorwerpen gecombineerd met beweging, mischien wel motion blur, reflecties, whathaveyounot) moet omgaan je eigenlijk een vrij correct model moet hebben van de gebruiker om het voor hem/haar een prettige ervaring te maken. Er is niks zo 'schokkends' als dat je reflexen zich anders gedragen dan je gewend bent. Nog schokkender is het als je iets wilt dat niet door de computer wordt uitgevoerd. Dit triggert dan weer de natuurlijke reflexen die dan voor het gebrek aan scherpte proberen te compenseren en het wordt een kliederboel van interactie tussen je reflex en het algoritme. Niet goed.

Ik geloof niet dat we dit goed genoeg kunnen om het buiten geprepareerde situaties om robuust te laten werken.
Ik denk dat het een prima techniek is om een punt op een bol (waarvan het midden in je oog ligt) te bepalen maar de diepte moet geschat worden en dat gaat geheid voor enorm veel 'normale' situaties fout. Zeker nu dat we veel complexere scenes kunnen renderen dan de Q3 blokkendozenwereld.

Het feit dat die fove tech niet gedemo'd wordt in dit soort scenes moet je te denken geven.

Eye tracking is leuk, maar het is geen precisietool waarmee je makkelijk je scherpstelreflex in een virtuele omgeving correct kunt emuleren.
Maar daarmee gooi je eventjes het feit overboord dat gras meestal verder weg staat dan 20cm als het gezien wordt, en ook dan is het semi-doorzichtig.

klopt maar dan doet het er meestal ook niet meer toe, gezien de scherptediepte na een paar meter bijna hetzelfde is als focussen op oneindig, kortom dan pak je het object erachter, mocht je precies op een alpha blended edge zitten, echter dit zal je practisch nooit hebben gezien meeste foliage alpha tested is (aan uit dit rendert veel sneller) en je dus simpelweg weet of ze erdoorheen kijken ja of nee.

verder er zijn extreem weinig locaties waar een mens focust op exact de rand van een object, de exacte rand, en als je moet kiezen kies je de dichstbijzijnde waarde. (dit doen ze nu ook met de reticule...)
maar slimmer is om te kijken waar de vorige diepte waarde was en de dichstbijzijnde te pakken. als hij echt dipere wil kijken kijkt hij het volgende frame echt wel langs de rand.

Jij doet alsof deze problemen er al niet zijn, dit gebeurt al in elke game.. elk van deze problemen zijn al opgelost in elke game die reticule DOF gebruikt, Call of Duty Crysis Battlefield etc. enige is reticule focus vervangen voor de ooglocatie focus. that's it.
er hoeft niets veranderd te worden omdat deze problemen al lang opgelost zijn.

reflecties zijn iets lastiger, maar wederom kan je als de afstand groter is dan 5-6 meter zeggen dat de focus op oneindig is, dus alleen up close zou dit eventueel een probleem zijn. verder worden reflecties nu grotendeels gedaan door cubemaps welke altijd scherp zijn, dus dat is ook geen issue, gaan we naar raytracing is het ook wederom geen issue want dan weten we de tracedepth. (en met ee cubemap zou je evt ook weer een depthpass uit kunnen sturen maargoedf dat doet er niet toe.

Ik zeg neit dat er helemaal geen issues zullen zijn, maar voor 99.9% van de scenarios werkt dit gewoon, de edge cases zijn superzeldzaam, transparantie is al opgelost, edges, je oog stelt nooit echt scherp op de transitie pixel. en dan nog kunnen we uit de vorige frames opmaken waar je echt naar kijkt. reflecties mogelijk lastig maar nu nog niet gezien cubemaps altijd scherp zijn.

kortom het werkt. en ik heb goede redenen dit te geloven...
sterker nog het voegt veel toe, omdat je nu op de tafel kan focussen en de dingen in de achtergrond faden dan echt, wat je diepte perceptie geloofwaardig maakt in VR (dat is eigenlijk het laatste wat nog echt mist naast echt High framerate en hogere resolutie,,,

je moet wel wat betere DOF gebruiken dan normaal (betere blur dan simpleweg gaussian je moet oa lichtsterkte properly behouden anders valt het meer op) maar het voegt meer toe dan je denkt, en het is makkelijker te implementeren dan je denkt... trust me it works.. en Fove denkt dat ook..
kortom dan pak je het object erachter, mocht je precies op een alpha blended edge zitten, echter dit zal je practisch nooit hebben gezien meeste foliage alpha tested is (aan uit dit rendert veel sneller) en je dus simpelweg weet of ze erdoorheen kijken ja of nee.
Eeh, je hebt het dubbelfout hier.
Bij alphablending is 'de kleur erachter pakken' helemaal fout. Je gokt, zoals ik al aangaf, dat dat het punt is waar de gebruiker op wil focussen. Dat gaat maar 50% van de gevallen goed.

Bij alphatested renderen (wat gewoon een artefact van hedendaagse gpu's is) heb je een patroon dat (stel de foiliage beweegt een beetje) telkens over het punt waar je naar kijkt schuift.
Daarbij weet de computer alweer niet waar jij je op wilt focusen. Mischien wil je een tijdje naar het blad kijken en vervolgens besluit je je op de achtergrond te concentreren. Computer kan deze gedachte nooit detecteren en weet dus gewoon niet ofie de achtergrond moet blurren of de voorgrond.
verder er zijn extreem weinig locaties waar een mens focust op exact de rand van een object, de exacte rand, en als je moet kiezen kies je de dichstbijzijnde waarde. (dit doen ze nu ook met de reticule...)
maar slimmer is om te kijken waar de vorige diepte waarde was en de dichstbijzijnde te pakken. als hij echt dipere wil kijken kijkt hij het volgende frame echt wel langs de rand.
Sorry hoor, maar dit gebeurt aan de lopende band. Je merkt het alleen niet omdat er geen artefacten optreden. Het ziet er gewoon normaal uit als het door je ogen gedaan wordt. Zodra een computer dat voor je gaat doen, en het verkeerd doet, gaat het opvallen.
Wat jij slim noemt kan zomaar je reflexen in de war sturen door verkeerde visuele signalen aan je ogen te geven. Het is verre van simpel om dit goed te doen in complexe scenes.
Jij doet alsof deze problemen er al niet zijn, dit gebeurt al in elke game.. elk van deze problemen zijn al opgelost in elke game die reticule DOF gebruikt, Call of Duty Crysis Battlefield etc. enige is reticule focus vervangen voor de ooglocatie focus. that's it.
er hoeft niets veranderd te worden omdat deze problemen al lang opgelost zijn.
Zoals ik al zei, als je iets duidelijks te selecteren hebt dan kun je dit systeem gebruiken. En als er dan een voorwerp duidelijk geselcteerd is dan kun je met enige zekerheid het beeld volplempen met DOF. Maar voor subtielere scenes waar niet het enige doel is om een groot voorwerp te selecteren zullen dit soort methodes niet zo goed werken.
Ik zeg neit dat er helemaal geen issues zullen zijn, maar voor 99.9% van de scenarios werkt dit gewoon, de edge cases zijn superzeldzaam,
Ik wil je dan toch echt vragen eens beter op te letten op waar je allemaal naar kijkt als je buitenloopt en hoe dat kijken dan verloopt. Ik kijk regelmatig langs dingen om hetgeen er achterligt te zien.
transparantie is al opgelost,
Transparantie valt met dit systeem niet op te lossen.
je oog stelt nooit echt scherp op de transitie pixel.
Jij bedoelt dat je dat geval gewoon negeert. Ik kijk in het echte leven regelmatig naar iets dat in een 3D wereld een 'edge pixel' zou zijn.
en dan nog kunnen we uit de vorige frames opmaken waar je echt naar kijkt.
.. in sommige gevallen, ja...
reflecties mogelijk lastig maar nu nog niet gezien cubemaps altijd scherp zijn.
Dan kan je ze sowiso niet integreren met DOF technieken in VR.
Het zou raar zijn om delen van het beeld te blurren maar vervolgens alle reflecties scherp te laten. Je hersenen zouden grote moeite hebben dat soort beelden te integreren en daardoor zouden reflecties er hard uitsteken en niet om aan te zien zijn.
kortom het werkt. en ik heb goede redenen dit te geloven...
Ik heb anders nog geen enkele overtuigende demo gezien.
Het werkt theoretisch in je hoofd. Praktijk gaat een stuk minder gunstig uitpakken.
Geloven is leuk, maar zien is het uiteindelijke bewijs.
en Fove denkt dat ook..
Fove mag alles denken wat ze willen, ik heb van niemand (dus ook niet van fove) een goede demonstratie gezien van de algemene toepasbaarheid van dit soort simplistische aanpakken van het simuleren van scherptediepte in VR omgevingen.
Bij alphatested renderen (wat gewoon een artefact van hedendaagse gpu's is) heb je een patroon dat (stel de foiliage beweegt een beetje) telkens over het punt waar je naar kijkt schuift.

daarom pas je het ook niet meteen aan, maar pas je pas aan na een paar frames, , als het oog niet beweegt en iets beweegt in het pad kan je prima ervanuitgaan dat men dus niet wil aanpassen.
maar zelfs dan nog, als het oog daar echt blifjt langer dan 4-5 frames dan wil het oog dus wel aanpassen op de foliage, en als het de foliage wil volgen dan doet het oog dat.

verder: Jij bedoelt dat je dat geval gewoon negeert. Ik kijk in het echte leven regelmatig naar iets dat in een 3D wereld een 'edge pixel' zou zijn. nope niet waar, dat denk je, maar je oog dart de heletijd rond, en er is duidelijk te zien of je naar het gebouw kijkt of de lucht daarachter, zeker als je de vorige 4-5 frames in acht neemt.

anyways er zijn nu commerciele systemen die eyetracking doen, en daar wordt zwaar mee ge-experimenteerd... ik kan niet sterker hinten dan dit...

http://www.smivision.com/...cts/smi-and-worldviz.html

en hier nog wat voordelen met eyetracking:
http://www.dailymotion.co...n-foveated-rendering_tech
ja er wordt hier weldegelijk serieus naar gekeken voor een grote range aan toepassingen...
Oculus gaat het zelfs schijnbaar in de volgende kit stoppen:
http://doc-ok.org/?p=1021

en ja de echte oplossing voor DOF is meer iets zoals dit:
https://research.nvidia.c...cations/neld-abstract.pdf

maar het werkt weldegelijk. en voor zover je er last van kan hebben, laat ze dan eerst maar de latency en lag van de rest van het systeem afgehaald hebben, dat zijn de echte boosdoeners.

[Reactie gewijzigd door freaq op 26 juli 2024 06:40]

Als je de pixels op het scherm weet waar de speler naar kijkt, weet je toch waarop moet gefocust worden? Uit de richting van de ogen is dat een fluitje van een cent om te weten waar hij naar kijkt...
Een note 3 scherm is full-hd . Dus lijk mij ook full-hd . Ik verwacht versie 3 UHD . Melken ;)
eerder wqhd (2560-1440)
maargoed de framerate moet eerst omhoog, en latency moet omlaag,
resolutie is niet zo belangerijk als die dingen.
Het leukst zou zijn als Note 3 gebruikers nu de devkit zouden kunnen nabootsen, met intact laten van hun telefoon. Dan kon ik heel goedkoop aan een Oculus Rift komen. Maar waarschijnlijk moet de hardware van het frontpanel vrij direct worden aangestuurd, dus het zal waarschijnlijk wel niet zo makkelijk na te bootsen zijn.

[Reactie gewijzigd door Amanoo op 26 juli 2024 06:40]

Mist helaas de infrarode LEDs, camera en andere hardware die ze er in gepropt hebben. Je kan echter wel een impressie krijgen van het beeld als je een paar lenzen heb liggen en wat creatief bent met karton. :P
Misschien stomme vraag maar zijn die dingen zo hi-res.. Na wat ze zelf aangeven hebben ze een 1080 resolutie per oog.. Lijkt me vreemd met zo'n scherm.. Kan aan mij liggen hoor
De resolutie bedraagd 960x1080 per oog.
Het meest ideale zou een 1:1 resolutie zijn voor elk oog (of een rond scherm :P) maar ik ken geen 2:1 schermen (wel 21:9).

De vermoedens gaan dat de consumer verzie een 1440p scherm gaan krijgen wat de resolutie al wat op hoogt.

Ik ben zelf in het bezit sinds gister van de dk2 en er is nog wel een screendoor effect te zien hoewel dit niet erg overdreven zichtbaar is. Zeker bij donkere spelen zoals elite: dangerous of technolust is het bijna ontzichtbaar. Een groter probleem vind in de kleur verschuiving door de lenzen (prisma effect). Dit is wel op te lossen via software maar als de rift ook maar een klein beetje scheef zit is het zichtbaar.
21:9 en gebogen dat zou heel erg cool zijn, dan kan de FOV ook een stuk groter zijn, want die is dus wel wat minder bij DK2 in vergelijking met de eerste..
Ik denk niet dat gebogen heel veel uit gaat maken bij een HMD. De lenzen die er in zitten vervormen het veel al voldoende waardoor je niet merkt dat het scherm plat is. Tevens zou dit de correctie voor IPD (afstand tussen ogen) en kleurverschuiving alleen maar moeilijker maken (is op te lossen met software maar het goed programeren zal aanzienlijk lastiger zijn).

De FOV kan denken is het makkelijkste verhoogd worden door het scherm groter te maken. Het nadeel daar aan is natuurlijk de prijs en het gewicht.
Kleur verschuiving zou juist een minder probleem zijn omdat de hoek richting het beeld overal ongeveer gelijk is (dat is ook 1 van de redenen waarom een grote curved monitor redelijk goed is)..
Achja, als je ziet dat de 1ste Oculus rift een 7" scherm had en lichter was dan de DK2, dan kan je stellen dat een groter scherm helemaal niet zo'n probleem hoeft te zijn. Het ligt er natuurlijk ook aan hoe je de hele headset uiteindelijk gaat maken, ik ga er namelijk niet van uit dat de uiteindelijke OR een 'skibril' achtig iets gaat worden, maar meer als de morpheus.. Op dat gebied vind ik zelf de Forte VFX-1 uit 95 nog steeds geweldig, ondanks datie behoorlijk groot is, zit die perfect, goede koptelefoon en een vizor die je omhoog kunt klappen..
Hmm het zou best eens gelijk kunnen hebben over het gebogen scherm. (hoewel correctie lastig zal blijven doordat het scherm alleen horizontaal gebogen is terwijl de lenzen natuurlijk rond zijn)

Zelf hoop ik dat de eerste consumer versie er uit gaat zien als hun eerst renders http://blogs-images.forbe...s/2014/06/oculusrift1.jpg
Niet zo hoekig als de huidige verzie en het ontbreken van de bovenste band zou ideaal zijn (mits de rift op zijn plaats blijft zitten).

Persoonlijk hoop ik niet dat ze een koptelefoon in gaan bouwen zoals bij die Forte VFX-1. Ik wil namelijk zelf kunnen bepalen wat voor koptelefoon ik gebruik (in mijn geval momenteel een beyerdynamic DT990 600Ohm). Tevens weet ik niet of een vizor de beste optie is. Ik denk dat dit wel eens problemen zou kunnen geven met omgevingslicht. Veel mensen zeuren nu al over reflecties op de lenzen door de kleine luchtgaten bij de DK2 in een verlichte kamer. (heb de Forte VFX-1 nooit op gehad dus kan zijn dat deze het licht wel perfect blokkeert)
De FOV is niet kleiner, de lenzen zijn veranderd waardoor je links en rechts voorbij het panel kunt kijken.

In de DK 1 kon je niet voorbij de houder van de lens kijken en had je het gevoel dat je door een verrekijker keek (2 ronde beelden).

In de DK 2 is dat niet meer het geval (tenzij je de eye relief terugdraait waardoor de lenzen weer de rand zullen vormen) waardoor je een vierkant kader om je beeld krijgt.

Ipv een verrekijker gevoel krijg je dan een "fotocamera" gevoel (wat je ziet als je door de viewfinder van een fototoestel kijkt).
Ik twijfelde nog of ik de dk2 zou bestellen.. maar wil hem eerst nog proefdraaien om te kijken of bijvoorbeeld jouw genoemde punten ook hinderlijk voor mij zijn :P
Die schermpjes zijn los op ebay voor 150-200 dollar te krijgen, ik vind het dan ook heel raar dat er in het artikel een beetje de indruk gewekt wordt alsof de schrijver denkt dat ze de displays uit volledige toestellen zouden moeten slopen (lijkt me ook bijzonder arbeidsintensief).
En ja, het zijn Full HD displays (waarom googlen mensen dat niet gewoon zelf even?)
Niet alleen dat, het zou me ook verbazen als een Note3 in het totaal aan €350 onderdelen komt. Mobiele telefoons en tablets van A merken hebben een relatief grote winstmarge. En hoewel het display het duurste onderdeel van een note is, mag je de kostprijs van het display op zich rond de $100 verwachten.
De display is waarschijnlijk nog niet eens het duurste van het hele toestel...
Hoop dat ze als volgend stap het scherm van LG G3 erin stoppen! 2560 bij 1440 vindt ik de min voor een consumer versie van de bril. Verder bevalt de Dev2 erg goed! Vooral de unreal engine demo zijn heel vet!
Hoop dan wel dat ze een groter scherm pakken zodat de FOV groter is..
Maar 2560x1440 zal ook zeker de minimale resolutie zijn voor de consumentenversie (welke ik zelf verwacht dat die volgend jaar rond deze tijd op de markt zullen komen)..
De DK2 zit bij mij nog in de doos, maar ik ben benieuwd..
Idd. alleen weet ik niet of een groter scherm mogelijk is als je kijkt naar de productiekosten, nou we gaan het zien! Dev 2 bevalt trouwens super goed :D!
LOL, moet em nog steeds aansluiten, hopelijk dat ik vanavond eindelijk eens fatsoenlijk tijd heb..
ik raad je aan om dan te beginnen met Vanguard valkyrie donneer 1$ en je krijgt de DEV2 download link toegestuurd:

https://www.kickstarter.c...2894668/vanguard-valkyrie

Have fun!
zal zeker geen LG scherm worden, aangezien ze een contract hebben met Samsung.

Op dit item kan niet meer gereageerd worden.