Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 89 reacties

Obduction zal speelbaar zijn in vr op de Oculus Rift en is waarschijnlijk de eerste game die Nvidia's simultaneous multi-projection-techniek ondersteunt. Deze feature van de GeForce GTX 1000-kaarten moet voor een flinke prestatiewinst bij vr-weergave zorgen.

Nvidia heeft tijdens de E3 bekendgemaakt dat Obduction gebruik kan maken van smp. De game komt op 26 juli uit en vermoedelijk is het daarmee het eerste spel dat de techniek van de nieuwe GeForce-kaarten kan benutten. De game wordt uitgebracht op Steam, GOG, in de Mac App Store en in de Oculus Store. Bij de introductie is de vr-versie niet beschikbaar voor de HTC Vive, meldt de ontwikkelaar. Dat lijkt erop te wijzen dat Vive-ondersteuning wel volgt op een later moment.

De  GTX 1080 en GTX 1070 zijn de eerste en momenteel enige videokaarten die smp ondersteunen. Volgens Nvidia levert de techniek een groot prestatievoordeel op bij vr-games. Dat komt omdat het beeld voor vr-weergave door de vervorming van de lenzen in feite te groot gerenderd wordt. Met simultaneous multi-projection is het mogelijk om alleen de benodigde pixels te renderen. In theorie levert dit een snelheidsverdubbeling op. De techniek is onderdeel van de gameworks- en vrworks-sdk van Nvidia en gamemakers moeten het implementeren willen gebruikers hier voordeel van zien.

Ontwikkelstudio Cyan begon in 2013 een Kickstartercampagne voor de spirituele opvolger van Myst. Er werd ruim 1,3 miljoen dollar opgehaald. Destijds was het plan om de game eind 2015 uit te brengen, maar dat is uitgesteld. Het is een avonturenpuzzelgame in first-person perspectief die wordt gemaakt met Unreal Engine 4. Het spel gaat 29,99 dollar kosten, een europrijs is nog niet bekend.

Moderatie-faq Wijzig weergave

Reacties (89)

Voor de Myst-liefhebbers met een Vive: geen ondersteuning bij de release.
Dat is wel jammer, want dat verkleint ook de kans dat er uiteindelijk (wanneer de Touch uitkomt) VR-controllers ondersteund zullen worden. Ik blijf nog even dromen over Obduction met controllers :9~

Oeh, en de gebroeders Miller spelen weer rollen in het spel. Ik ben benieuwd of ze dat weer op filmpjes van 128x96 met 15 fps voor een green-screen gaan doen. :+
is smp dan dat de uiteindelijke berekening voor video output ineens aan het einde gesplit wordt in 2 output signalen met een vaste displacement?
Nee, SMP staat voor Simultaneous Multi Projection. Om een beeld te rasterizen projecteer je de 3D modellen op een viewport. Die viewport beschrijft als het ware de parameters van de projectie. Voor stereoscopic rendering (dus het renderen van dezelfde scene als gezien door 2 verschillende ogen) heb je feitelijk 2 viewports. Met een traditionele rendering pipeline moet je die na elkaar renderen. Dit heeft dus als gevolg dat je 2x alle draw commands moet issueën naar de GPU, die 2x alle vertices moet transformeren, 2x de triangle setup moet doen en alles 2x moet rasterizen.

SMP verandert natuurlijk niets aan het rasterization gedeelte, want dat moet nou eenmaal nog steeds 2 keer, maar het kan wel voordeel halen uit het feit dat hij de polygonen met dezelfde materials parallel aan elkaar rasterized, en de texture cache daardoor beter benut wordt.
ja twee view ports die samen een pipeline delen dan toch? dus de helft zo grote viewport? dus weer minder zwaar? of... en kunnen ze niet om en om een viewport eruit gooien dan, of het eind frame van een port dupliceren met vaste displacement om de afstand tussen de ogen te simuleren? of 2 cameras in de engine mee programmeren zou ook moeten kunnen waar je in 3ds max bv maar 1 port ziet terwijl het later op het in tweeen gesplit kan worden om 1 beeld te renderen en 1 te extrapoleren om rendering kracht te besparen. of bv 1 port heeel erg straks en scherp en de andere wat minder om te mixen zonder dat het brein het door heeft, ach wie weet wat de toekomst allemaal brengt :) zat manieren voor vooruitgang denk ik.
dus de helft zo grote viewport
Die opmerking snap ik niet. Uiteindelijk heb je gewoon twee rendertargets waar je naar rendert: 1 voor je linkeroog, en 1 voor je rechteroog. In het geval van 3d monitoren zijn die dan bijv. beide full HD. SMP verandert hier niets aan.
en kunnen ze niet om en om een viewport eruit gooien dan
Dat is wat er momenteel gebeurt zonder de SMP feature. Dan render je gewoon alles dubbel. Dus heb je 2x zoveel draw commands en de GPU moet 2x zoveel vertices processen. En hij kan niet profiteren van het feit dat de texturecache gevuld is voor die tweede set triangles.
een port dupliceren met vaste displacement om de afstand tussen de ogen te simuleren
Die techniek bestaat al heel lang. Crytek demonstreerde 'm jaren terug al. Probleem daarmee is wel, een verandering in perspectief is lastig te faken, zeker als er iets vlak voor je ogen langs beweegt. Want dan kan het ene oog bijvoorbeeld wel de achtergrond zien, maar de andere niet. Aan de hand van 1 plaatje kun je moeilijk verzinnen wat er achter dat object hoort te staan. Je kan het natuurlijk wel combineren: alles vanaf een bepaalde draw distance render je 1 keer en daar pas je een reprojection filter op toe. Alles wat dichtbij is render je daadwerkelijk twee keer, en dat superimpose je op de twee verschillende achtergronden die je dan hebt.

Veel interessanter is overigens niet het stereoscopische gedeelte. Voor VR moet je een fish-eye bolling toepassen, die de distortion van de lenzen in de hmd corrigeert. Door deze bolling heb je niet dezelfde pixel-dichtheid in het midden als aan de randen van het scherm. Eigenlijk wil je in het midden juist op een veel hogere resolutie renderen, maar dat is lastig te bewerkstelligen met een enkele viewport. SMP maakt het mogelijk om de viewport op te delen in meerdere facetten, elk met hun eigen projectie. Op deze manier render je op elk punt nagenoeg op de juiste pixeldichtheid, zodat je geen nutteloos werk loopt te doen danwel een overall blurry resultaat krijgt.

[Reactie gewijzigd door .oisyn op 17 juni 2016 01:51]

SMP maakt het mogelijk om de viewport op te delen in meerdere facetten, elk met hun eigen projectie.
En ik was er dus (onterecht) vanuit gegaan dat daar slimme algoritmes voor waren ingebakken in de gpu/drivers die dat zouden bewerkstelligen zonder tussenkomst van de game. Helaas blijkt dat niet het geval...
Ow ik kreeg iedere keer het idee dat smp iets was wat nVidia automatisch toepaste zonder dat de game er iets aan hoeft te doen... Dit verklaard wel een hele hoop en maakt de techniek gelijk een stuk minder interessant...
Waarom minder interessant?

Ik kan me voorstellen dat VR-devs deze sdk gewoon inbakken in hun software. Heb niet het idee dat dat moeilijk zal zijn.
Omdat dit weer van die nvidia-only technieken zijn waarmee ze hun marktaandeel misbruiken. Voor gamers met meer hart voor gamen dan voor nvidia is dit per definitie een zeer slechte ontwikkeling -- en daarom niet interessant.

Het is hetzelfde als met die oculus die ook met exclusives de markt probeert te 'winnen'.

Je kan er je schouders voor ophalen, maar uiteindelijk gooi je er gigantisch mee je eigen ruiten in.
Groot verschil: Oculus benaderde studios met geld om exclusives te kopen. Nvidia zette gewoon een geweldig systeem op de markt en het is aan devs om te beslissen of ze het willen gebruiken of niet. Niemand die klaagt dat Oculus' SDK alleen met de Oculus Rift werkt.
Klopt, we klagen dat het alleen met Nvidia kaarten te gebruiken is.

Dat is wat mij betreft het grote verschil tussen AMD en Nvidia.
TressFX / Freesync open standaarden. Nvidia PhysicX en Gsync. Gesloten Nvidia only standaarden. Zo zijn er nog veel meer voorbeelden waarbij Nvidia alles gesloten voor zichzelf houd en AMD veel opener is.

Je hebt helemaal niets aan een vendorspecifieke standaard.
Daar schiet je als consument helemaal niks mee op. Vandaar ook dat ik van ganser harte hoop dat die nieuwe 4000 serie van AMD serieus marktaandeel gaat krijgen.
Dat is wat mij betreft het grote verschil tussen AMD en Nvidia.
TressFX / Freesync open standaarden
Wat natuurlijk een wassen neus is, want TressFX performt een stuk slechter op nVidia hardware omdat het gemaakt is voor de GCN architectuur :).
Je hebt helemaal niets aan een vendorspecifieke standaard.
Eveneens heb je bijna niets aan een standaard als die voor verschillende vendors zo verschillend werkt dat je er alsnog een kluif aan hebt om alles te optimaliseren voor verschillende vendors.

[Reactie gewijzigd door .oisyn op 17 juni 2016 00:38]

Klopt, we klagen dat het alleen met Nvidia kaarten te gebruiken is.

Dat is wat mij betreft het grote verschil tussen AMD en Nvidia.
TressFX / Freesync open standaarden. Nvidia PhysicX en Gsync. Gesloten Nvidia only standaarden. Zo zijn er nog veel meer voorbeelden waarbij Nvidia alles gesloten voor zichzelf houd en AMD veel opener is.

Je hebt helemaal niets aan een vendorspecifieke standaard.
Daar schiet je als consument helemaal niks mee op. Vandaar ook dat ik van ganser harte hoop dat die nieuwe 4000 serie van AMD serieus marktaandeel gaat krijgen.
Logisch want met het huidige marktaandeel heeft een vendor exclusive feature voor AMD weinig nut. Ontwikkelaars gaan het dan gewoon niet omarmen. Zie bijvoorbeeld Mantle en TrueAudio. Hoe goed een feature ook is, de userbase die er gebruik van kan maken is te beperkt om er tijd in te stoppen.

Nvidia doet het anders. Die hebben de userbase en reiken vervolgens zowel de tools als de support aan om hun api te gebruiken. Ze verkopen een stukje gemak aan ontwikkelaars. Dat is vanuit het oogpunt van een ontwikkelaar een stuk aantrekkelijker.

[Reactie gewijzigd door sdk1985 op 17 juni 2016 23:21]

Nvidia zette gewoon een geweldig systeem op de markt en het is aan devs om te beslissen of ze het willen gebruiken of niet.
nou, nee. nvidia smijt ook gewoon met marketing geld, wat ze gebruiken om de marketing mensen zo ver te krijgen dat ze tekenen om nvidia only technieken gaan gebruiken. de dev's hebben er dan niks in te zeggen, want die hebben ze zo mooi omzeilt.
AMD doet dat helemaal niet inderdaad. Als ik even kijk naar onze recentere games: Tomb Raider (2013), Hitman, Thief, Deus Ex: Human Revolution... Oh, nee, wacht, die waren allemaal gesponsord door AMD 8)7
Allereerst. Bijzonder dat de 'marketing mensen' in staat zijn de 'devs' te omzeilen in de software implementatie.

Probeer jij hier te betogen dat nVidia betaald om games slechter te laten lopen op AMD hardware, maar dat het 'fantastische' AMD dit niet zou doen? En dan dat een aantal door AMD gesponsorde games die ook prima lopen op nVidia hardware, die goed lopen als bewijs ziet voor je complottheorie ...

Dat de genoemde games ook goed werken op nVidia hardware heeft meer te maken met het werk van .oisyn en zijn collega's dan met AMD en hun sponsoring.

Wanneer de ontwikkelaars de mogelijkheid hebben (en niet te vooringenomen zijn over de superioriteit van bepaalde merken) zullen ze proberen de beste ervaring te bieden op alle platformen. Technieken zoals smp, TresFX, Freesync etc. zullen op de ondersteunde hardware een voordeel bieden. Zoals ook functionaliteit in the GPU's en hun drivers. Zie het als features van de verschillende kaarten. Als ze ondersteund worden bieden ze voordelen.
Bijzonder dat de 'marketing mensen' in staat zijn de 'devs' te omzeilen in de software implementatie.
wat is daar bijzonder aan? gebeurt zo vaak dat marketing met exclusiviteitscontracten bepaalde technologie op legt aan andere afdelingen.
Probeer jij hier te betogen dat nVidia betaald om games slechter te laten lopen op AMD hardware, maar dat het 'fantastische' AMD dit niet zou doen?
ik kan niet anders concluderen dat dat dat waar is. van crysis met 'worlds most graphically advance concrete block', tot de cape van batman die vele male meer polygons bevat als dat hij pixel ruimte op het scherm in neemt, tot de shaders van meer als 3000 regels voor de hond in COD ghost, tot de nodeloos hoge tessellation op hairworks.

en van AMD kan ik geen enkel voorbeeld bedenken wat ook maar in de BUURT komt van wat nVidia met enige regelmaat doet.
Dat de genoemde games ook goed werken op nVidia hardware heeft meer te maken met het werk van .oisyn en zijn collega's dan met AMD en hun sponsoring.
nu probeer je dingen om te draaien. ik zegt niet dat AMD er voor zorgt dat het goed werkt op nvidia, ik zeg dat AMD nvidia geen stro breed in de weg legt, waar dat andersom wel het geval is.

Het met regelmaat enorme verschil tussen nvidia en AMD bij gameworks games in vergelijking met games waarbij geen sponser is of AMD als sponsor is zegt gewoon genoeg.
En dan dat een aantal door AMD gesponsorde games die ook prima lopen op nVidia hardware, die goed lopen als bewijs ziet voor je complottheorie ...
nee wat ik zie als bewijst is het feit dat door AMD gesponsorde game niet slechter werken op Nvidia hardware als games zonder sponsor, maar dat games met nvidia als sponsor wel regelmatig slechter werken op AMD als games zonder sponsor.

dus:
AMD als sponsor : niks aan de hand.
geen sponsor: niks aan de hand
nvidia als sponsor : mogelijk slechte performance bij AMD. (en oude re nvidia kaarten)

hoeveel duidelijker moet het zijn?

[Reactie gewijzigd door Countess op 17 juni 2016 14:08]

Mwa er is op Google genoeg bewijs te vinden dat Nvidia studios betaald om Nvidia Only software te gebruiken.
Ook krijgen Studios die Gameworks gebruiken gratis ondersteuning met het bouwen van de game zelf en niet alleen voor Gameworks.

nvidia is niet zo heilig als je denkt.

Als alle studios morgen gewoon LiquidVR en GPU Open gaan gebruiken dan komt het naar mijn idee helemaal goed.
Beetje negatieve kijk op het verhaal. Nvidia innoveert door een mogelijke verdubbeling van de performance in VR, en jij ziet dat als misbruik van marktaandeel?

Dat AMD deze techniek niet heeft moet je AMD aanrekenen, niet Nvidia. Wat je nu krijgt is dat mensen met een Nvidia kaart gewoon betere performance zullen hebben in bepaalde games.
Ben ik niet helemaal met je eens. Als AMD dit ook wil hebben krijg je dus 2 technieken die devs ook in hun games moeten stoppen wat weer ten nadele van de dev is, en dat je dus met games, zoals in het artikel, daar geen gebruik meer van kan maken als er in de toekomst wel een AMD oplossing voor is.
Wat Nvidia had moeten doen is een standaard neer moeten zetten die iedereen kan gebruiken. Net als BramT al zegt, is dit WEER zo'n Nvidia only dingetje waar je als AMD user nu niet, maar in de toekomst ook geen gebruik van kunt maken. Wat je wel als Nvidia user met bijv Freesync kan doen, omdat dat als open standaard op de markt is gezet.

[Reactie gewijzigd door Crp op 16 juni 2016 18:55]

Natuurlijk hadden ze dat kunnen doen, maar het is een bedrijf dat winst wil maken. Je kan een bedrijf toch niet aanrekenen dat ze hun product beter willen maken dan dat van de concurrentie.

Aangezien het hier om zo'n grote performance winst gaat zou ik niet verwachten dat als het AMD was het wel open zou zijn. Freesync vind ik toch wel een ander verhaal.

Het is aan de devs om het te implementeren, niemand verplicht het ze.

[Reactie gewijzigd door Sartsj op 16 juni 2016 20:32]

Aangezien het hier om zo'n grote performance winst gaat zou ik niet verwachten dat als het AMD was het wel open zou zijn
aangezien AMD nagenoeg alles wat ze doen tot een open standaard verheft zie ik geen enkele reden om aan te nemen dat AMD dat hier niet gedaan zou doen.
maar het is een bedrijf dat winst wil maken.
kan zijn, maar dan niet met mij als klant. Consument kan gewoon stemmen mijn zijn portemonnee en dat doe ik dan ook.

als ze beide winst willen maken maar de ene dat wil doen ten koste van de gamers markt, en de ander dat wil doen door die markt te stimuleren en toegankelijker wil maken dan is de keuze snel gemaakt.
Het is mooi om zo te denken, maar helaas werkt de wereld niet zo...

Het feit dat nVidia dit zo kan doen en tevens ook verreweg het grootste marktaandeel heeft bewijst dat ze geen enkele reden hebben om niet proprietaire techniek te maken/ontwikkelen.

Je kan het trouwens ook omdraaien, AMD maakt van hun ontwikkelde technieken open standaarden om op die manier klanten voor zich te winnen. Hetzelfde zie je in wezen ook tussen Windows <-> Linux, al is dat misschien niet de beste vergelijking, maar ook daar heeft de eerstgenoemde het grootste marktaandeel. Of neem bijvoorbeeld iOS en Android of zelfs het complete patenten systeem wat dat betreft.
Je zou het enigszins zelfs moreel verwerpelijk kunnen noemen door zo de markt te controleren, maar in onze maatschappij waar het allemaal om geld draait is dit hoe de wereld in elkaar steekt. De wereld zou een betere plek zijn als wel alles met elkaar deelden en het gezamenlijke streven hebben naar progressie en het verbeteren van de kwaliteit van leven voor iedereen. Om dit te veranderen zullen we een behoorlijke omslag moeten maken, maar goed dat is een geheel andere discussie. :Y)

Persoonlijk kies ik altijd voor datgene dat het beste bij mijn gebruik en wensen past (en momenteel is dat nVidia) en wat VR betreft heeft nVidia waarschijnlijk ook de voorkeur voor diegene die het zich kunnen veroorloven, mede dankzij dit soort technieken.
Op dit moment zou het zeker goed zijn als AMD met een serieuze tegenhanger komt van deze GTX1000 serie kaarten zodat die prijzen niet zo achterlijk hoog zijn als nu. 8)7

[Reactie gewijzigd door R0KH op 16 juni 2016 23:16]

Het feit dat nVidia dit zo kan doen en tevens ook verreweg het grootste marktaandeel heeft bewijst dat ze geen enkele reden hebben om niet proprietaire techniek te maken/ontwikkelen.
er komt gelukkig steeds meer weerstand tegen. mensen worden wakker.
Het is mooi om zo te denken, maar helaas werkt de wereld niet zo...
hoezo werkt de wereld zo niet? ik ben toch vrij om te kiezen en zal daarom nooit een nvidia kiezen zoals ze zo blijven proberen de game markt te verzieken. Dan werkt de wereld toch echt wel zo.

Dat jij je daar niet druk om maakt wil toch niet zeggen dat ik dat niet moet doen? hoe meer mensen dat wel doen hoe beter het is voor PC gaming in het geheel.
Je kan het trouwens ook omdraaien, AMD maakt van hun ontwikkelde technieken open standaarden om op die manier klanten voor zich te winnen.
en dat is dus wel de manier om dat te doen. Niks dwingen en gamers met oudere kaarten of die van de concurrent benadelen maar gewoon een goede standaard neer zetten die PC gaming vooruit helpt.
GTX1000 serie kaarten zodat die prijzen niet zo achterlijk hoog zijn als nu.
nog een goede reden om nvidia links te laten liggen zou ik zeggen.
Het is jouw eigen goed recht om met deze argumenten niet te kiezen voor nVidia net als dat het mijn goed recht is om te kiezen voor de voor mij beste optie en dat kan dus ook nVidia zijn. ;)

In deze 'vrije' markt mag elke fabrikant zelf bepalen wat en op welke manier ze hun producten op de markt brengen, ze worden vanzelf wel beoordeeld en afgestraft als ze de markt niet goed bedienen en gezien de cijfers doet nVidia het blijkbaar vrij goed momenteel. Iedereen die het niet zint hoe nVidia de markt bedient kan dus kiezen om niet voor dit merk te gaan.
Het is niet zo dat er een persoon kan bepalen wat een fabrikant wel en niet mag/moet doen (ook al zou dit potentieel misschien beter zijn voor de wereld) en dat is maar goed ook want juist dan krijg je hele vervelende scenario's.

Ik zou zeggen; laat iedereen lekker zelf kiezen wat ze willen aanschaffen. :Y)
Ik zou zeggen; laat iedereen lekker zelf kiezen wat ze willen aanschaffen.
dat zou ik zeker doen, maar nvidia is nog steeds zeer schadelijk voor de PC markt bezig dus ik ga me daar zeker niet stil over houden.
Op dit moment zou het zeker goed zijn als AMD met een serieuze tegenhanger komt van deze GTX1000 serie kaarten zodat die prijzen niet zo achterlijk hoog zijn als nu. 8)7
Laatste stukje volgt uit het feit dat er nog nauwelijks winkels zijn met voorraad. De best beschikbare founders edition is nu te koop in 10 winkels waarvan er 1 geen voorraad heeft en 1 langer dan 5 dagen. Bij de custom kaarten is het nog veel dramatischer.

Kwestie van vraag/aanbod momenteel. Daar kan AMD weinig aan veranderen.

Het ziet er überhaupt naar uit dat AMD de komende tijd niet in het hogere segment mee gaat doen. Net als dat ze bij de cpu's al een tijd niet meedoen met het hoogste segment. Of dat nu ook echt zo bij GPU gaat plaats vinden is nog even afwachten tot de GTX 1070 serie daadwerkelijk goed leverbaar is. Daarna kunnen we pas oordelen over wat AMD daar tegenover zet. Daar is het nu nog veel te vroeg voor omdat dit gewoon een paper launch is van Nvidia.
Als je denkt dat games momenteel niet hoeven te dealen met NV- of AMD-specifieke zut zit je er falikant naast. Deze feature verandert daar echt he-le-maal niets aan.
Nounou.. Verkeerd opgestaan vanochtend? Beetje nuance kan geen kwaad he.

Dat ze er rekening mee moeten/mogen/kunnen houden klopt; maar (te) vaak wordt dat ook nagelaten of gewoon verkeerd gedaan: vandaar o.a. de noodzaak voor die 'gameready' drivers iedere keer. Daar worden aan beide kanten fouten gemaakt.

En deze feature veranderd exact dit: we hebben weer zo'n vendor-lockin feature erbij (weer van nvidia). Volgens mij is dat toch iets anders dan "echt he-le-maal niets".
Nounou.. Verkeerd opgestaan vanochtend? Beetje nuance kan geen kwaad he.
Er valt niets te nuanceren, je zit er gewoon naast :). Als ik zo'n reactie als de jouwe lees dan zeg ik daar wat van, en dat doe ik to the point. Heeft niets te maken met mijn humeur.
Dat ze er rekening mee moeten/mogen/kunnen houden klopt; maar (te) vaak wordt dat ook nagelaten of gewoon verkeerd gedaan
Als ik kijk naar de games die wij in het verleden hebben uitgebracht voor de PC, dan is het steevast zo dat het gros van de graphics optimization tijd zit in het optimaliseren van de graphics pipeline voor specifieke hardware door hardwarematige of driver-verschillen. En dan hebben we het over dat deel dat gewoon volgens de standaard API (DirectX) doet wat het moet doen. Dat is gewoon een feit waar je niet omheen kan, en wat ook logisch is, want de ene GPU is de andere niet. Elke serieuze developer heeft daar dus sowieso werk aan, en over het algemeen gewoon in samenspraak met mensen van AMD en nVidia. Die hebben wij dan ook regelmatig over de vloer.

Dan komt er een feature die voor behoorlijke performance-improvements kan zorgen. Een feature die bovendien met enkele regels code te implementeren is, serieus, het is echt een nobrainer. Dan lees ik een reactie in de trant van "oh boehoehoe weer een feature die zorgt voor een splitsing van de markt" (ik parafraseer uiteraard). Dan denk ik bij mezelf: man, je hebt echt geen idee waar je het over hebt :).

Bovendien, voor zover ik weet is de OpenGL extensie waarmee je deze feature aan kunt spreken redelijk generiek opgezet. Niets staat AMD in de weg om dezelfde feature te implementeren in hun drivers en hardware. DirectX wordt een ietwat ander verhaal, want die kent geen extension model, dus dan zul je sowieso moeten aanpoten met vendor-specifieke API's (wat momenteel sowieso al gebeurt om dingen te kunnen doen die niet geëxposed worden door DirectX, denk aan instrumentation voor SLI).
vandaar o.a. de noodzaak voor die 'gameready' drivers iedere keer.
Helemaal niet "vandaar". Elke game boort andere usecases aan. Als nVidia en AMD hun drivers niet speciek tailoren voor iedere game, dan gooi je gewoon performance weg. Het is een wisselwerking tussen de developers van de game en die van de drivers.

[Reactie gewijzigd door .oisyn op 17 juni 2016 00:16]

Je hebt geen idee van waar ik wel en geen verstand van heb. Als ik geen conclusies of je humeur mag trekken uit een berichtje, doe dat dan ook niet over mijn kennis aub. Dat jij/jullie altijd alles netjes en goed implementeren neem ik gelijk aan en super dat jullie dat doen, complimenten.

De strekking van mijn 1e bericht ging over het feit dat er weer een vendor-specifieke feature bij is gekomen. Dat amd die ook kan implementeren is niet echt relevant: er zijn zat vendor specifieke functies die beide kunnen ondersteunen, maar in de praktijk gebeurt dat simpelweg niet.

Jij bekijkt de zaak vanuit het perspectief van de developer. Ik ben hier gewoon de ordinaire consument.

Waar het om gaat:
In plaats van het kopen van een videokaart op basis van specs/prijzen, gaan we een kant op waarbij je de kaart moet uitzoeken op basis van de games die je wilt spelen gebaseerd op de gebruikte 'vendor-features'. Naar mijn bescheiden mening is dat toch niet de richting die we op moeten willen.
Jij bekijkt de zaak vanuit het perspectief van de developer. Ik ben hier gewoon de ordinaire consument.
Als je kijkt vanuit het perspectief van de consument dan kijk je gewoon naar het resultaat van deze feature in games. In plaats daarvan ga je bepaalde aannames doen over hoe developers hun werk gaan doen, en daaruit probeer je vervolgens een conclusie te trekken waar je als consument last van gaat hebben. Maar dat kun je dus niet doen zonder het developers-perspectief erbij te betrekken. En dan is het wel van belang dat dat perspectief is gebaseerd op juistheden.
Naar mijn bescheiden mening is dat toch niet de richting die we op moeten willen.
Je snapt dat dat een richting is die we vanaf dag 1 in GPU-land al hebben he? Eerst had je multitexturing, toen hardware T&L, de per pixel pipeline, etc., etc. Technieken die vroeger bij introductie allemaal vendor-specifiek waren, maar nu gewoon redelijk standaard zijn. Dat zal met deze feature ook gebeuren. Straks komt er vast een DirectX update waarin dit zit, en dan kun je het op een standaard manier aanspreken. Kan nu overigens al in OpenGL, de naam van de extensie is niet geprefixed met NV. Het is gewoon een zinnige feature voor VR, en niets staat AMD in de weg om het ook te implementeren.

Nu heb je een korte periode waarbij je er alleen van kan profiteren op nVidia hardware. Net zoals dat je ook alleen echt kunt profiteren van async compute op AMD hardware. Waaruit ook meteen maar weer blijkt dat het niets boeit of iets een standaard is of niet, want ookal zit async compute gewoon in DirectX, op nVidia werkt het niet al te best. Het resultaat voor de consument is voor de twee verschillende features echter identiek: beide werken alleen goed op een specifieke set hardware.

Tot slot:
Als ik geen conclusies of je humeur mag trekken uit een berichtje, doe dat dan ook niet over mijn kennis aub.
Waar lees je dat je dat niet mag doen?Ik leg alleen uit dat mijn humeur er niets mee te maken heeft :). Bovendien zei ik letterlijk wat ik bij mezelf dácht. Ik insinueer dus niet dat jij dat niet hebt. Ik vind je conclusies nogal voorbarig allemaal.

[Reactie gewijzigd door .oisyn op 17 juni 2016 01:36]

Omdat dit weer van die nvidia-only technieken zijn waarmee ze hun marktaandeel misbruiken.
Voor gamers met meer hart voor gamen dan voor nvidia is dit per definitie een zeer slechte ontwikkeling
AMD mag Gameworks gebruiken/ondersteunen hoor, maar dat willen ze (natuurlijk) niet.

Je gaat immers niet met de tech van de concurrent lopen adverteren, en ze lijken veel meer te halen uit de zielige houding die ze de laatste tijd richting Nvidia aannemen, jullie zijn groot en wij zijn klein en das niet eeerliiijk... :'(

AMD kan best wat beter hun best doen om mee te komen met de concurrentie, als je je er een beetje in verdiept zal je leren waarom er zo'n verschil in performance is bij sommige elementen van Gameworks (heel kort; omdat Nvidia door hun architectuur met dat sommige geometrie (bijv haar) nou eenmaal sneller is dan AMD, zelfs vergeleken met nieuwere AMD hardware die in het algemeen dan weer sneller is dan Nvidia)
[...]


AMD mag Gameworks gebruiken/ondersteunen hoor, maar dat willen ze (natuurlijk) niet.
Daar klopt niets van. GameWorks is juist closed source en proprietary, in tegenstelling to tot bijvoorbeeld GPUopen, het gratis open source alternatief van AMD.
Tress FX is op de kaarten van BEIDE fabrikanten sneller als hairworks!
Maar een stuk sneller op AMD dan op nVidia. Toch gek, je zou bijna zeggen dat TressFX erop ONTWORPEN is om slecht te draaien op nVidia's hardware.

[Reactie gewijzigd door .oisyn op 17 juni 2016 01:37]

Nee dus!

Enkel net na release was nvidia langzamer, maar omdat het en open standaard is en hij niet is gemaakt om slecht te werken op nvidia hardware werkt tress fx nu op beide even goed.

Nvidia kan gewoon normaal optimaliseren voor AMD technologie, terwijl dat andersom heel anders ligt.

[Reactie gewijzigd door Countess op 17 juni 2016 08:19]

Enkel net na release was nvidia langzamer
En dat is dus direct een tegenstelling op een opmerking die je in een andere post maakte, namelijk dat AMD developers geen features laat implementeren die slecht werken op nVidia hardware. TressFX is daar gewoon het perfecte voorbeeld van. Dat het nú goed werkt is fijn, maar daar hadden gamers ten tijde rond de release van de game natuurlijk niets aan.
o god....

serious? jij ziet echt het verschil niet tussen een nieuwe techniek waarbij nvidia enkel nog wat optimalisatie werk te verrichten heeft de eerste maand en een techniek die vanaf de grond af aan is ontworpen om enkel goed te werken op nvidia's laatste generatie hardware, en dus nooit lekker zou lopen op oudere nvidia kaarten of AMD kaarten van die generatie?
Dat zijn insinuaties. Het gaat er niet om of ik het verschil zie, het gaat erom of jouw conspiracy theory klopt.
niks conspiracy, gewoon hard concurreren, maar wel op zo'n manier dat ik er voor kies het niet te steunen.

en de keuzes zijn OF nvidia is incompetent toen ze kozen voor 64x tessellation terwijl het geen visueel verschil met 16x opleverde, OF ze kozen moedwillig voor 64x wetende wat de impact was op AMD hardware en hun eigen oudere hardware.

en je kan veel zeggen over nvidia maar incompetent is er daar niet een van.

blijft optie 2 over.

en dan natuurlijk ook geen optie geven de tessellation wat lager te zetten in drivers of game, wat AMD wel doet.

[Reactie gewijzigd door Countess op 17 juni 2016 14:58]

Omdat een game maker het niet kan maken dat een spel alleen speelbaar wordt op een GTX1070 of GTX1080

dit kan zijn om dat een spel het vereist, maar ook dat je zonder deze techniek op geen een andere kaart acceptable framerates kan produceren

Dan zullen ze niet veel exemplaren van hun spel verkopen namelijk

[Reactie gewijzigd door Sinester op 16 juni 2016 18:33]

Ik zie deze technologie dan ook voorlopig niet op grote schaal toegepast worden.

VR markt is nog erg klein en hiermee sluit je een hoop AMD user buiten. Uiteindelijk zorgt dat alleen maar voor kleinere verkoop aantallen.
AMD sluit zijn eigen users buiten door geen kaart te hebben die kan concurreren met de 10x00 kaarten en dus geen VR alternatief te bieden. Wie VR wil wordt naar NVIDIA gedreven.
Je mist mijn punt:
Als je als ontwikkelaar zijnde zwaar leunt op deze techniek kan je dat een hoop potentiele kopers (AMD users) kosten. Het is dan verstandiger om in te zetten op technieken die beide kaarten ondersteunen. Je doelgroep word dan groter. :)

[Reactie gewijzigd door ChojinZ op 16 juni 2016 22:52]

Als je als ontwikkelaar zijnde zwaar leunt op deze techniek kan je dat een hoop potentiele kopers (AMD users) kosten.
Nonsens. Je maakt een basis implementatie, en daarna voer je een relatief simpele optimalisatie door voor de Pascal architectuur. Het is niet dat omdat je gebruik maakt van SMP, de basisimplementatie ineens niet meer werkt.
Ik heb in het verleden meerdere malen games links laten liggen omdat ze een voorkeur voor GPU's hadden. Dus in de praktijk gebeurt het wel degelijk...
Dat is je goed recht, maar mijn punt is dat je onder het verkeerde artikel reageert, want deze feature heeft niet die uitkomst.
of, als je niet een pro-nvidia bril op hebt, nvidia prijst zichzelf uit de VR markt door niks tegenover AMD's 470 en 480's te zetten en enkel overdreve dure kaarten op de markt te zetten binnen een paar maanden compleet omvergeblazen worden door VEGA en nvidia's tegenhanger voor het grofweg het zelfde geld.
of, als je niet een pro-nvidia bril op hebt, nvidia prijst zichzelf uit de VR markt door niks tegenover AMD's 470 en 480's te zetten en enkel overdreve dure kaarten op de markt te zetten binnen een paar maanden compleet omvergeblazen worden door VEGA en nvidia's tegenhanger voor het grofweg het zelfde geld.
Wie in de VR markt stapt kiest nooit voor een 470/480, dat kunnen de kaarten niet aan. En omvergeblazen door vega? Net zoals fury alles ging wegblazen? of bulldozer? Of Kaveri? Volgens mij wordt Vega gewoon weer een rebrand zoals we gewoon zijn van AMD.
een rebrand... op 14nm... met 17 miljard transistors...?

als je dan echt helemaal niks van vega af weet waarom trek je dan je mond open?

en je gaat nu beweren dat nvidia geen 1080Ti gaat introduceren die beduidend sneller is een 1080? of denk je dat die veel meer als 700 euro gaat kosten?

beide zou natuurlijk schandalig slecht zijn.

ik ga er enkel vanuit dat nvidia niet zo slecht is, en dat dus de huidige 1080 way overpriced is.
at kunnen de kaarten niet aan.
natuurlijk, daarom krijgen ze ook overal het stempel VR ready... 8)7

[Reactie gewijzigd door Countess op 17 juni 2016 14:37]

Je bedoeld de RX480? Zelfde performance als de Fury voor 200 dollar?
Dat hoorde ik eerder ook blijkt meer R9 390X/GTX 980 niveau te zijn, nog behoorlijk maar niet bijster spannend zo'n 10/15% hoger dan instap (GTX 970). Of ze moeten ook SMP hebben oid anders kan je dit spel op low/medium spelen wss, aangezien SMP een gigantische boost geeft.
die cijfers die ik heb gezien stellen hem gelijk aan overclockte 390x/980's en gelijk aan de nano en dus ook de fury.

en zelfs met jouw cijfers, 15% sneller voor meer als 1/3de minder geld? Ik teken hoor.

en dan lijkt hij volgens wccftech ook nog aardig te overclocken (1.4-1.5ghz) en krijgen we voltage control. Iets waar je bij nvidia tegenwoordig een soldeerbout voor moet pakken.

Al klopt hier maar de helft van dan is het een extreme goede deal.

[Reactie gewijzigd door Countess op 17 juni 2016 10:41]

1/3 van de prijs klopt niets van GTX 980 TI kost bijv ¤500 die is nog een flink stuk sneller dan de Fury en de RX480 zal ¤250 kosten (8GB).
Wccftech moet je nooit iets van aannemen ze roepen 50 keer wat dan zal er vast wel 1 keer iets van kloppen.
Ik verwacht wel een goede deal maar niet dat je broek er van afzakt, niet een premium VR ervaring wat AMD zegt.
Oh verwijs je naar die kaart die nog niet op markt is? En al zeker niet voor 200 dollar.
De kaart is voor 200 dollar aangekondigd. 200 dollar voor een kaart die ent zo snel is als niet sneller dan een Fury. Waarheid is hard. Leer er mee leven
Word gewoon een setting natuurlijk: SMP Y/N
snap ik, maar ze zullen dan de game zo moeten maken dat hij ook goed draait op kaarten die niet in de GTX10x0 serie vallen, wat dan meteen het hele nut van SMP teniet doet
Behalve dat dit niet zomaar met de standaard technieken kan nu kan je de 2 viewports met zeer weinig performance verlies tekenen wat grote voordelen heeft.
Of ze vereisen dan gewoon een GPU die krachtiger moet zijn als ze geen SMP ondersteunen. Ik snap dat dat momenteel een beetje zuur is, daar nVidia sowieso al de bovenkant van de markt bedient. Maar over een aantal jaar, als VR een beetje meer ingeburgerd raakt (laten we even aannemen dat dat gebeurt), kun je nog steeds goed uit de voeten met je dan oude GTX 1070. Al ligt het natuurlijk voordehand dat AMD op termijn met een vergelijkbare feature komt.

[Reactie gewijzigd door .oisyn op 16 juni 2016 20:23]

Waarom zou je er überhaupt een setting van maken? Support de GPU het, dan staat het gewoon aan, anders niet. Niet iets om de gebruiker mee lastig te vallen.
Je kunt als videokaart vendor niet zomaar 2 camera standpunten genereren in een game engine, dat moet erin zitten. Deze techniek is wel de toekomst als het gaat om beelden genereren voor 2 ogen. Game devs moeten wel gek zijn om het niet toe te passen, als ze serieus zijn over VR, en als het implementeren makkelijk genoeg is.
Zo kwam het wel iedere keer over als ik de stukken en press van nVidia las...
Als je nVidia moet geloven is het iets wat gebeurt in de polymorph engines van de gpu...
Er werd nergens ook maar 1 woord gerept dat het daadwerkelijk geïmplementeerd moest worden in de game...
Nu is het eigenlijk niets meer dan hairworks en physx... Een leuke gimmick, maar ik betwijfel ten zeerste of het echt zo'n vlucht gaat nemen als je beweert...

Zeker aangezien sony ook druk bezig is met vr voor de ps4 die deze nVidia only techniek natuurlijk nooit gaat ondersteunen, dus ports die het gaan ondersteunen zullen waarschijnlijk ook schaars zijn...

Daarnaast is de pc markt al erg klein in verhouding tot de totale gaming markt laat staan het aantal gamers met een nVidia 10x0 serie...
Heeft deze techniek zich nog totaal niet bewezen... En weet niemand of AMD niet met een vergelijkbare techniek komt (heeft?) zoals ze ook hebben gedaan met freesync.

Ook AMD zet in op vr met de 400 serie, al is er nog weinig concreets over bekend...
Natuurlijk moet de game er specifiek op aansturen, hoe weet de kaart anders waar de twee viewports zich bevinden ten opzichte van elkaar? Dit hangt af van de stand van je hoofd en je IPD. Ik vind het wel logisch dat de game hierop aangepast moet worden. En volgens .oisyn hieronder is dat niet moeilijk.

Ik denk trouwens dat dit binnen no time in de SDKs van Oculus en Vive zit. Ik heb nu een 970 icm de Rift en ik zou de extra performance goed kunnen gebruiken.

[Reactie gewijzigd door GekkePrutser op 17 juni 2016 00:50]

Dat hoeft in principe helemaal niet. Waarom zou je 1 viewport niet op kunnen delen in meerdere? Zoals bijvoorbeeld bij een multimonitor setup.
De game krijgt alleen een resolutie mee, geen hoeveelheid monitoren of de hoek daartussen. De GPU/drivers weten in ieder geval hoeveel monitoren er zijn en bij SMP kan je in de drivers ook de hoek aangeven tussen de monitoren.

Toen ik dit stuk las bij tomshardware
This piece of logic takes the geometry data and processes it through as many as 16 projections from one viewpoint. Or it can offset the viewpoint for stereo applications, replicating geometry as many as 32 times in hardware and without the expensive performance overhead you’d incur if you tried to achieve the same effect without SMP.
ging ik er (onterecht) vanuit dat de viewport opgedeeld zou worden in meerdere kleine licht aangepaste. Gezien de kaart al in het bezit is van geometry data leek het me aannemelijk dat die andere viewports ook berekend konden worden middels een offset of een set aan predefined algoritmes.

Het hele doel van SMP is namelijk dat je niet helemaal opnieuw de geometry hoeft op te bouwen en alleen een andere viewport hoeft te creëren die vervolgens naar de rasterizer wordt geduwd.
En als je die geometry al hebt leek het mij niet geheel onwaarschijnlijk dat de GPU deze ook nog kan manipuleren zonder dat de game daar weet van heeft, vergelijkbaar met postprocessing wat ook gedaan kan worden als de game het niet ondersteund.
Ik denk trouwens dat dit binnen no time in de SDKs van Oculus en Vive zit. Ik heb nu een 970 icm de Rift en ik zou de extra performance goed kunnen gebruiken.
Jammer genoeg is dit een hardware feature van de 10x0 serie en zal dus nooit backwards compatible zijn met de vorige generatie kaarten...

[Reactie gewijzigd door Spekkie88 op 17 juni 2016 11:16]

De game krijgt alleen een resolutie mee, geen hoeveelheid monitoren of de hoek daartussen
Dit is onjuist. De game kan weldegelijk informatie krijgen over hoeveel monitoren er zijn. Voor technieken als EyeFinity, waarbij de monitoren een enkele viewport vormen, zijn specifieke API calls van vendors als AMD. Natuurlijk kan de driver ook gewoon zeggen: er is 1 monitor met deze resolutie. Punt is dat de game dan gewoon 1 groot viewport rendert, niet meerdere met verschillende kijkhoeken.
Gezien de kaart al in het bezit is van geometry data leek het me aannemelijk dat die andere viewports ook berekend konden worden middels een offset of een set aan predefined algoritmes.
Het probleem is dat de game (tegenwoordig) niet meer zegt: dit is mijn projectiematrix. Dat zijn gewoon willekeurige waardes in een constant buffer, die door een willekeurige shader worden geïnterpreteerd om matrixvermenigvuldigingen mee te doen. Zonder enige vorm van instrumentatie heeft een driver echt geen idee wat je aan het doen bent.

Kijk, uiteindelijk kan het allemaal natuurlijk wel. De game doet API calls die over het algemeen voorspelbaar zijn (voor die specifieke game). Met handmatige analyse kan men erachter komen wat men precies aan het doen is, zodat de driver vervolgens een vertaalslag kan maken. Maar dit is dus heel veel handwerk per game, het gaat niet gewoon out of the box werken. Het is veel minder werk en veel efficienter als de developers het gewoon zelf inbouwen.

[Reactie gewijzigd door .oisyn op 17 juni 2016 11:43]

Makkelijk of moeilijk maakt niet zoveel uit denk ik, Nvidia stuurt wel een leger knappe koppen naar hen toe die helpen met het implementeren. :)
De implementatie is een no-brainer. In plaats van het na elkaar renderen van meerdere viewports, doe je dat nu gewoonweg in 1 keer door die meerdere viewports aan de API aan te bieden. Hooguit een paar regels code :)
Ik hoop dat het standaard in Unreal en Unity komt, en dus voor de dev 0 lines code :)
De developers die games maken voor die engines ja. Het aantal games dat niet op een van die engines draait is vele malen groter dan het aantal games dat dat wel doet :)
Oculus?

Die zo'n beetje elke game exclusief opkopen, zodat ie niet voor de Vive kan verschijnen?

;(
vind het wel beetje overdreven allemaal hoor, xbox en playstation doen al jaren niet anders.
wat een drogreden. 'het gebeurt al jaren zo dus is het goed.'
niemand is blij met door geld geforceerde exclusives. sommige mensen hebben er mee leren leven.
PC's zijn een open platform, waarop bijna alles mogelijk is en dit willen we graag zo houden.
de PC community steekt gewoon heel anders in elkaar, wij accepteren niet zomaar alle bullshit die gedaan wordt door grote bedrijven. als software of hardware te duur is of niet bied wat we willen, zoeken we een alternatief. deze keuze is wat het PC gamen maakt.
waarom hoef je op PC niet te betalen om online te kunnen? omdat wij het niet pikken als Valve, Microsoft of welk software bedrijf dan ook ons daarvoor zou laten betalen.
daarnaast is een gameconsole iets heel anders dan een VR-headset. een VR-headset is randapparatuur. je zou het toch ook heel gek vinden als jouw spel alleen werkt met monitor X of Y?
Je mist het punt en maakt compleet kromme vergelijkingen. Je game werkt toch gewoon op andere kaarten? Er is hier niets exclusiefs aan, je hebt enkel een feature die het spel sneller maakt op NVIDIA kaarten.
ik reageerde niet op het artikel, maar op wat Navi te zeggen heeft over Jeroennemans reactie.
ik heb het dus ook niet over dat deze techniek alleen op Nvidia werkt, maar over het feit dat Oculus veel games opkoopt voor de Rift.
ik neem aan dat mijn reactie nu beter te begrijpen is. :)
ik ben het wel met je eens dat het niet erg is zolang het ook kan draaien op AMD.
Nee console exclusives, daar moeten we blij mee zijn... :+
Als jij een Panasonic TV koopt mag jij Halo spelen anders niet...

Gebeurd inderdaad al jaren zo ja....
Laat dat een van de grote redenen zijn waarom consoles inferieur zijn aan een pc. Die praktijken zijn 100% anti-consument en vallen niet goed te praten hoe je het ook bekijkt. Oculus zit ook die richting op te gaan en ik hoop dat mensen er niet intrappen. Als je VR dood wilt voordat het gemeengoed is ga vooral je gang.
Tjaa die Zuckerberg is een boef !
Facebook wil alles en iedereen en alles kunnen volgen zelfs wat ze doen op hun VR apparaat. Dat is volgens mij de reden dat ze Vive kapot willen maken zodat alleen zij nog overblijven.
Kost wat geld nu door iedereen om te kopen maar dat winnen ze later terug.
Slechte situatie als je het mij vraagt.
Vind dit zo over reactie natuurlijk is het exclusief oculus zal geld betalen aan devs om VR te implementeren zodat hun concurenten er ook winst mee heeft. De devs hadden waarschijnlijk geneens VR ingebouwd als oculus hun niet zou betalen. Want de best verkochte VR game heeft maar iets van 40k sales en dat is super weinig als je je investment wilt terug verdienen.
Wat is er zo speciaal aan deze techniek, zit dit in de software? En zal amd dezelfde optimalisatie kunnen bieden?
Ze maken gebruik van de unrealengine 4, dus dan denk ik dat dit eigenlijk wel gewoon standaard zal zijn als een VR-game met UE4 is gemaakt.. En zal me niet verbazen als unity en de Cryengine ook redelijk snel zullen volgen..
Hoe gaaf de graphics er ook uit zien...op den duur raak je verzadigd van al de eye candy. Net als superduper hq 3d movies in de bios.
Waar ik op zit te wachten is een game waar spelers zelf een hoop content aan kunnen toevoegen en dat op een high-end engine.
Myst! Ik hoef geen VR, maar meer Myst O+

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True