Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: VR-Zone

Volgens VR-Zone zullen alle pipelines van de nVidia G80 zowel een pixel als een vertex shader hebben. Dit wordt ook wel een unified shader architectuur genoemd. Dit is op zich een grote verandering van architectuur voor nVidia, daar de huidige architectuur gebaseerd is op een architectuur waarin een aantal pipelines met vertex shaders zijn uitgerust en de rest met pixel shaders. Met het toepassen van unified shaders stapt nVidia dus in de voetsporen van ATi die voor de R500 Xenos (Xbox 360) ook gebruik maakt van een unified shader architectuur. De opvolger van de huidige GeForce 7800 GTX zou volgens de site nog volgend jaar moeten uitkomen.

Moderatie-faq Wijzig weergave

Reacties (46)

Misschien een domme vraag maar heeft deze nieuwe shadertechniek nog voordelen ten opzichte van de oude die ze gebruikten?
het voordeel is dus dat je je hele kaart altijd kan gebruiken. Als de software veel pixel-shaders nodig heeft, staan je vertex-shaders nu nix te doen, en andersom natuurlijk..

De game ontwerpers moeten daarom altijd rekening houden met het aantal (Verwachte) beschikbare shaders, en de verhouding er tussen. Verder is dit een mooie manier om er voor te zorgen dat je kaart in alle benchmarks beter uit de bus komt, vaak wordt in een benchmark maar één type tegelijk getest, zodat ze een bottleneck kunnen vinden. Met aparte pipelines werkt dit prima, maar met gecombineerde pipelines wordt dit lastiger. JE krijgt dus 2x het maximale benchresultaat, terwijl dit niet tegelijk uit te voeren valt.
kunnen beide dan zo eenvoudigweg worden samengevoegd?
want als elke pipeline beide aankan, lijkt het mij net dat in het ideale geval wel alle pipelines gebruikt worden, maar dat elke pipeline op dat moment maar voor de helft gebruikt wordt, en dus zeer inefficient bezig is
Ik heb begrepen dat elke pipeline gewoon een soort van reken-unit krijgt die zowel pixel shader berekeningen als vertex shader berekeningen kan uitvoeren.

Op deze manier kan men met een gelijke hoeveelheid transistors op meer gebieden goed presteren.
Een videokaart op 2 monitoren 2 verschillende benchmarks laten draaien?
Ok, je hebt dan wel een hele dikke pc nodig met onwijs veel geheugen :9 en een vette dual opstelling :Y)
De opvolger van de huidige GeForce 7800 GTX zou volgens de site nog volgend jaar moeten uitkomen.
Waarschijnlijk samen met ATI's R600, ook een unified shader architectuur.

Maar eerst krijgen we nog R580 & G75 als tussenstop.
En de R520? Of gaat Ati in +- 1,5 jaar tijd 3 kaarten uitbrengen?
Ja;
-R520 in september
-R580 in Q4 2005
-R600 in Q2 2006
VR-Zone vermoed dat NVIDIA de G80 zal lanceren wanneer ATI hun R580 uitbrengt.

Maarja ATI moet eerst hun R520 nog uitbrengen en dat blijkt niet echt te vlotten. Zal waarschijnlijk slechts 16 pipes hebben ipv de eerder verwachte 24.
VR-Zone begint op The Inquirer te lijken.

Die uitspraak van ze slaat echt helemaal nergens op.

G80 is bedoeld voor eind 2006, evenals R600.
R580 is gepland voor begin 2006.

Verder beweren ze dus dat het G80 design klaar is en dat ze wachten tot het juiste moment. Maar als dat design al klaar is, waarom gebruiken ze dan het oude G70 design voor de PS3?
Het zou niet meer dan vanzelfsprekend zijn dat je dan dat krachtiger G80 design voor de PS3 gebruikt.
maar is het dan ook niet zo dat elke pipeline langzamer wordt omdat hij meer data moet vervoeren? :?

Misschien een domme vraag maar ik heb dus niet echt veel verstand van dat pipeline gedoe :)
De pipelines van een unified shader architectuur zijn minder krachtig dan de huidige pipelines, maar ze zijn wel efficiënter.

Programmeren ervoor is echter lastiger (dan bedoel ik de drivers; niet het game), er moet constant rekening gehouden worden wanneer er pixel & vertex shaders nodig zijn.
Bv, je speelt een game, en je loopt in een straat waar enkel pixel shaders nodig zijn, dan ga je een huis binnen, en zijn plots vertex shaders nodig (ik zeg maar wat), dan moeten pixel shaders zich plots als vertex shaders gaan gedragen. Ga je het huis buiten, weer andersom, ...
De pipelines hoeven helemaal niet aangepast te worden zo als jij zegt, de shader opcodes van de vertex shaders en pixel shaders kunnen naast elkaar bestaan. Van daar ook geen nieuwe Shader Model.

En ervoor programmeren is ook niet lastiger, gewoon het zelfde zo als altijd, als programmeur hoef je je zelf geen zorgen te maken over dat soort dingen.
sorry, maar dit klinkt echt als complete onzin... klok en klepel en zo

je voorbeeld klinkt ook een beetje onzinnig.. daarnaast hoeven pipes nooit aan te passen. 't enige dat verandert is de shader code, maar die veranderen toch al continu voor zo'n beetje iedere mesh die door de pipes wordt gejaagd.
ja, nu hoeft elke pipeline niet te wachten totdat de data uit een andere klaar is. Ze zullen dus continu op 100% capaciteit kunnen draaien. Er stond laatst een interessant artikel over de voordelen van deze manier van shading tov de oude manier. Ik zal de link eens even proberen te zoeken. Maar de hoofdzaak was dat de piijplijnen nu dus niet hoeven te wachten totdat er uit de ene pijplijn een vertex klaar is en uit de ander een pixel om deze samen te voegen.
Sins Wanneer heeft de R520 unified shader architectuur. Dat zou toch pas bij de R600 komen :?
Inderdaad. De R500 die voor de Xbox 360 bestemd is, heeft al wel unified shaders, maar de R520 zover ik weet nog niet. (Foutje in het artikel? :? Of super-interessante nieuwe info? :9~ )

Edit:
Foutje dus. ;) Midnightfastfix, m'n complimenten. :P
Aan de ene kant geen verrassend nieuws, aan de andere kant weer wel.

Het is al lange tijd duidelijk dat ATI en Microsoft beiden op de unified shader toer zijn gegaan. Zowel voor de Xbox360, maar ook voor WGF2.

In die zin heeft Nvidia eigenlijk geen keus en zullen ze wel mee moeten, anders zijn ze sterk in het nadeel bij hun WGF2 kaart. In die zin is dit nieuws dus totaal niet verassend, en redelijk logisch.

Wat het wel verrassend maakt is dat Nvidia desondanks steeds heeft volgehouden dat ze niets in een unified architecture zien en dat ze dat ook niet willen doen voor WGF2. Zelfs als MS en ATI beiden wel unified gaan.

Heeft Nvidia ineens het licht gezien en zijn ze plotseling van strategie veranderd, of is het gerucht uit de lucht gegrepen en alleen maar gebaseerd op datgene wat die site logisch lijkt?
WGF2 zegt helemaal niet dat unified shader architecture verplicht is. Ze werden helemaal niet gedwongen door MS. WGF is 3d programming API, heeft niks met hardware te maken.

Ik denk dat je het verschil niet kent tussen een unified shader programming language (=WGF) en een unified architectuur op hardware niveau. Je hebt het ene voor het andere niet nodig.

Nvidia heeft nooit gezegd dat nooit unified gingen gaan, Je haalt dat nieuwsbericht volledig uit zijn context. Dave Kirk heeft gezegd dat een unified architectuur niet nodig was voor de RSX, het ging niet over PC hardware, het ging over de ontwikkeling van de playstation GPU.

Nu was het maar een kwestie van tijd voor nvidia ook unified ging, niemand die daar ooit aan getwijfeld heeft.
@aval0ne:
Ik beweer dan ook nergens dat WGF2 stelt dat een Unified architecture verplicht moet zijn in hardware. Je moet me niet altijd woorden in de mond proberen te leggen die ik niet gezegd heb.

Verder heeft Dave Kirk heeft in dat interview wel degelijk over PC hardware en niet alleen over de RSX. Sterker nog: driekwart van dat interview gaat over PC gaming, en maar 1 kwart over RSX !! (lees het artikel nog maar eens overnieuw)
Het gedeelte over UA gaat volledig over WGF2 en heeft dus niets met consoles te maken.
Ik haal dus helemaal niets uit zijn context. Jij doet dat!

Wat betreft de twijfel of Nvidia ooit unified zal gaan:
"Right now, I think the 7800 is doing pretty well for a discrete architecture?

So what about the future?

"We will do a unified architecture in hardware when it makes sense. When it's possible to make the hardware work faster unified, then of course we will. It will be easier to build in the future, but for the meantime, there's plenty of mileage left in this architecture."
Dat is dus een overduidelijke indicatie dat G80 geen UA zal hebben.
Maar aangezien dat niet glashard er in staat kunnen ze hier makkelijk later op terugkomen.

Wat betreft dat stukje PR dat de API van WGF2 niet de hardware bepaald. Dat is natuurlijk maar de halve waarheid.

De API heeft namelijk wel degelijk veel invloed op het design van de hardware. Als je hardware niet aansluit bij de API dan is de performance gewoon shit en je vervolgens verkoopt je product niet goed. (Denk even terug aan de 5800 Ultra)

Je kan die twee dus niet volledig los van elkaar zien.

Veel developers wachten met smart op een unified API. Ze kunnen dan namelijk in 1 shader, zowel vertex als pixel code gebruiken. Voor bepaalde effecten is dat essentieel.
Als je zulke shaders in non-unified hardware gaat gebruiken dan creeer je problemen. De hardware moet namelijk die shader gaan analyzeren en bepalen welke gedeeltes dan in de pixel shaders uitgevoerd moeten gaan worden en welke gedeeltes in de vertex shaders. Vervolgens moet die data weer gecombineerd worden voor de rest van de shader code.
Dat is in principe natuurlijk best mogelijk, maar het geeft een stuk overhead en maakt de boel een stuk complexer.

En extra complexiteit en overhead is nou eenmaal ongunstig voor je prestaties. Dat is een simpel feit waar niemand omheen kan.

Nou is het aan de andere kant natuurlijk wel zo, dat niet alle spellen dan ineens allemaal van die shaders gaan gebruiken die zowel vertex als pixel code in dezelfde shader hebben zitten.
Dus je hebt een goede kans dat je in het eerste jaar dat WGF2 uit is er nog weinig last van hebt. Het zou mij dus ook niet echt verbazen als Nvidia de G80 daarom nog niet unified maakt, maar bv de G90 wel.
Ik beweer dan ook nergens dat WGF2 stelt dat een Unified architecture verplicht moet zijn in hardware. Je moet me niet altijd woorden in de mond proberen te leggen die ik niet gezegd heb.
Zal ik jezelf dan even quoten?
Het is al lange tijd duidelijk dat ATI en Microsoft beiden op de unified shader toer zijn gegaan. Zowel voor de Xbox360, maar ook voor WGF2.
In die zin heeft Nvidia eigenlijk geen keus en zullen ze wel mee moeten, anders zijn ze sterk in het nadeel bij hun WGF2 kaart.
Je wil dus zeggen dat zonder een unified architectuur nvidia "sterk in het nadeel" is. Right?
Ik zeg dus dat dit niet is, een unified architectuur is geen vereiste voor (een goede) WGF (compatibele kaart).
Je zegt dat ATi en MS de unified shader toer opgaan, je gooit dus een software ontwikkelaar (MS met WGF)even op dezelfde hoop met een hardware bouwer (ATI met unified architectuur) terwijl beide totaal verschillende zaken zijn.
Het komt in ieder geval bij over alsof je niet weet dat WGF perfect zonder een unified architectuur kan. Excuses als dat niet je bedoeling was.

Over dat interview met Kirk verwijs ik je naar de link van het interview: http://www.bit-tech.net/bits/2005/07/11/nvidia_rsx_interview/4.html
Kijk eens naar de directory. I rest my case.
Je mag mijzelf rustig quoten. Je geeft daarmee alleen maar nog duidelijker aan dat ik gelijk heb als ik stel dat jij me woorden in de mond probeert te leggen die ik nooit gezegd heb.
In die quote staat namelijk nergens dat ik beweer dat WGF2 stelt dat UA verplicht moet zijn in hardware.

En als je nou eens mijn bovenstaande post zou lezen dan zou je begrijpen waarom je software en hardware niet volledig los van mekaar kan zien.
En als die uitleg te diep gaat voor jou, vergelijk het dan eens met cpu's.
Apple gaat over op Intel cpu's. Volgens jou moet dat geen enkel probleem zijn want software en hardware staan immers totaal los van elkaar. En toch voorziet iedereen daarbij grote problenen, en moet je een stuk emuleren wat je performance kost. Zie je dan wel in dat software en hardware geen totaal gescheiden verhalen zijn?
Als je nou van tevoren er in je software (API) rekening mee houdt dat je makkelijk wilt kunnen porten, dan kun je het redelijk hardware onafhankelijk maken. Maar MS is nou niet bepaald een bedrijf dat zich daar ooit druk om heeft gemaakt bij DirectX. (En alles wijst er op dat dat bij WGF2 niet anders zal zijn)

En wat betreft dat interview. Als je nou in plaats van te kijken naar de directory nou eens het artikel zelf gaat lezen? Dat lijkt me wat handiger, want dan maak je jezelf niet zo publiek belachelijk!

Die hele pagina gaat alleen maar over WGF! Er is geen enkele regel in die pagina van het interview dat over consoles gaat! Het gaat alleen maar over PC hardware op die pagina!
Hoe kan je dat nou in godsnaam ontkennen???

Ik weet echt niet wat ik daar verder op moet zeggen. Het staat er gewoon zwart op wit dat het over WGF en WGF hardware gaat en dat is dus PC hardware.

Of denk jij soms dat WGF een onderdeel is van de xbox360??

Mede tweakers, help eens even Aval0ne te laten beseffen dat dat gedeelte over PC hardware gaat.
WGF2.0 moet niet unified zijn, MS raad het enkel aan. Dus als nVidia een non-unified WGF2.0 kaart neerzet die prima presteert, is er niks aan de hand.
Maar nVidia heeft al eens geweken van de MS standaard (NV30 remember) en wil dat geen 2de keer meemaken, dus nemen ze het zekere voor het onzekere en ontwerpen ze een gpu met een unified architectuur, zoals MS het aanraadt.
Het zou ook wel dwaas zijn ook van nVidia als ze niet WGF2.0 en USA gingen ondersteunen. Niemand koopt dan straks zo'n nVidia kaart meer omdat ze niet al het moois kunnen laten zien van Windows Vista. En Microsoft geeft zelf al aan dat Vista vooral is gemaakt voor een compleet vernieuwde user interface, die ook vooral grafisch veel vernieuwd is (gebruikt dus ook daadwerkelijk de videokaart voor eyecandy op de desktop te berekenen.). nVidia zal dus wel moeten, ook al worden ze niet vrolijk van WGF2.0 en USA (wie weet hebben ze wel gelijk?), maar ze worden gewoon gedwongen.

Dat ze dus ineens van strategie veranderen is niet vreemd. ATI deed dat bv ook met SM3.0. ATI vond het absoluut niet nodig het te implementeren, toen kwam nVidia met hun succesvolle 6800 serie...en jawel mét SM3.0. En jawel...nu komt ATI in hun R520 mét SM3.0. Zoals je zelf al zegt: niet echt verassend dus, en toch ook weer wel ;)
ATI is helemaal niet ineens van strategie veranderd.

Ze hebben van het begin af aan gezegd dat SM3 nog niet nuttig was bij kaarten van de X800/6800 generatie omdat die dingen er gewoon niet snel genoeg voor waren. Maar dat ze SM3 zouden gaan implementeren op het moment dat het daadwerkelijk nuttig zou zijn. Wanneer de hardware snel genoeg zou zijn om er echt gebruik van te maken.
En dat moment is dus met de R520/7800 generatie kaarten aangebroken.

Nu met de 7800GTX zie je ook stapels gebruikers en reviewers toegeven dat SM3 op de 6800 eigenlijk niet bruikbaar was (te langzaam), maar dat het bij de 7800 nuttig word.

Dan wat betreft Nvidia en WGF2. Nvidia heeft eigenlijk hetzelfde gezegd als ATI bij SM3. Zodra UA nuttig is, zullen we het gaan gebruiken.
Het verschil met ATI is dan dat Nvidia steeds heeft gezegd dat zij het nog niet nuttig vinden voor de G80 generatie kaarten. En dat het misschien voor latere generaties nuttig zal zijn.
In het interview met David Kirk wordt daar nogmaals naar gehint.

Maar dit gerucht zou dus betekenen dat ze nu anders denken over het moment waarop het nuttig wordt.
En dat vind ik dus raar, want er is de laatste 6 maand volgens mij niets veranderd waardoor ze ineens anders over dat moment zijn gaan denken.

Of het zou zuiver vanuit PR motieven moeten zijn. UA wordt nu gehyped en misschien voelen ze zich daarom gedwongen om mee te gaan?
(er vanuit gaande dat het gerucht uberhaupt klopt, want zo betrouwbaar vind ik het niet)

Overigens geloof ik er niets van dat het voor de interface enige impact zou hebben. De functies waarbij een unified shader echt handig is kom je in spellen tegen en niet in een GUI.
Nu met de 7800GTX zie je ook stapels gebruikers en reviewers toegeven dat SM3 op de 6800 eigenlijk niet bruikbaar was (te langzaam), maar dat het bij de 7800 nuttig word.
Ik denk dat SM3 zeer bruikbaar is in de 6800 reeks. Neem Splinter Cell, een SM3 game. Niet te spelen op ATI hardware met alle eye candy, wel op 6800 reeks. Prestaties zijn niet geweldig maar het is wel perfect speelbaar en dus bruikbaar.
Neem alle toekomstige SM3 games, gamers met een ATi kaart (X850 en lager) kunnen deze niet spelen, terwijl een nvidia 6800 gamers deze wel gaan kunnne spelen. Weer met bescheiden prestaties maar ze kunnen ze wel spelen.
Een "slechte" implementatie van SM3 die toch toelaat van SM3 games te spelen op bescheiden resoluties, is beter dan geen implementatie.
Tja, fanboys heb je altijd. Maar ik doel op mensen die nog een klein beetje objectief kunnen blijven in dit soort zaken.
En als zelf jij, die de grootste nvidia fan op de FP is, al toegeeft dat de prestaties "niet geweldig" zijn (maar nog wel speelbaar), dan zegt dat al genoeg....

Maar onafhankelijke reviews zijn er ook heel duidelijk in: HardOCP:
Splinter Cell: Chaos Theory also showed us what the GeForce 7800 GTX could do for your gameplay experience. Until now, HDR performance has been slow. The GeForce 6 series were the first series of graphics cards to support a FP16 framebuffer, but they were slow at it so they didn’t allow for high resolutions. With the GeForce 7800 GTX, this is no longer the case.
Met HDR en SoftShadows aan was het niet speelbaar volgens hen. (min fps < 25)
En dan blijft alleen parallax mapping nog over als de enige feature die SM3 dan nog toevoegd in Splinter Cell.

Tja, je hebt dan gebruik gemaakt van SM3 in het spel, maar kun je het nog serieus nuttig noemen?

Bij Beyond3D zie je hetzelfde. Zelfs op 1280*1024 zijn de gemiddelde framerates al te laag. Zowel bij FarCry HDR als bij Splinter Cell HDR.


Wat wel ontzettend jammer is van de 7800GTX is dat ie niet tegelijkertijd HDR en MSAA kan gebruiken. Juist de mensen die voor hoge beeldkwaliteit gaan, zijn geinteresseerd in HDR en MSAA. En dan niet één van twee, maar allebei.
Veel mensen laten HDR daarom maar uit omdat ze niet meer zonder AA kunnen.

Volgens jouw redenatie was zelfs de DX9 functionaliteit op de Geforce5200 FX nog zinvol. De meerderheid denkt daar toch wel wat anders over.
ohoh wat een misverstand weer: SM3 heeft niets met HDR te maken.
Waarom heeft nVidia niet de G80 i.p.v. G70 voor de playstation 3 genomen. Nu heeft de playstation 3 al een achterstand op Xbox 360 op het moment dat ze uitkomen.
een dedicated gamescomputer zoals de ps3 zal in staat zijn de hardware beter te benutten.
buiten dat is de ps3 gpu niet een standaard G70 maar een speciaal voor dat systeem ontworpen chip.

waarschijnlijk zal de ps3 meer uit de G70 weten te halen dan een pc uit de G80.

pc ontwikkelaars moeten rekening houden met meerdere gpu architecturen, dat is opzich al zeer inefficient.
buiten dat is het duur om een gpu helemaal binnenste buiten te keren, het kost mankracht om alles uit te zoeken.
vervolgens komt alweer het volgend model uit.
dus op pc's wordt maar een klein deel van de features van de gpu's gebruikt. meestal zijn het de features die ook in directx zijn geimplementeerd want niemand kan die dingen nog rechtstreeks aanspreken.

op consoles is het anders.
daar is hewt verstandig om het onderste uit de kan te halen en daar wordt in geinvesteerd.
verder werkt de gpu gezellig saampjes met de rest van het systeem dus kan je zo'n gpu veel efficienter voederen.

het zal dus denk ik nog geen ramp zijn voor de consoles als de pc gpu's verder groeien.
wat je zegt klopt precies.

In een xbox zit een geforce 3, maar die xbox laat doom beter zien dan wanneer je een geforce 4 hebt, met 12 keer meer werkgeheugen, en een processor die 4 keer zoveel megahertz heeft.
In de Xbox zit dacht ik een soort GF3~4 achtige chip.
En kijk eens naar de reso, op 800x600 met weinig effecten is mijn PC toch echt wel stukken sneller dan die Xdoos
In normale applicaties, maar in games niet. Dat werk geheugen zorgt er voor dat je veel textures kan inladen en daarmee heeft de videokaart het minder moeilijk en kan dus beter graphics afleveren.
In de Xbox zit inderdaad een NV2a GPU wat een GeForce4 gebasseerde GPU is.
De reden dat Nvidia voor de PS3 de G70 heeft genomen heeft weinig tot niets hiermee te maken.

Sony was helemaal niet van plan een dedicated gpu van een third party in de PS3 te stoppen.
Laat in de ontwikkeling van de PS3 hebben ze echter moeten constateren dat dat toch noodzakelijk was om een goede prestatie neer te zetten.
Op het laatste moment is Nvidia er dus bij gehaald.

Voor Nvidia was er daardoor geen tijd meer om een compleet nieuw ontwerp te maken. Ze moesten dus een bestaand ontwerp van de plank nemen en daar op doorborduren.
En dat was dus automatisch het G70 ontwerp. (waar ze toen al heel ver mee waren)

Met de voor of nadelen van unified shaders had dat dus niets te maken.
Nog een zeer interessant detail uit het bronbericht is toch wel dat de G80 een kloksnelheid van rond de 1Ghz gaat hebben en op 90nm gaat gebakken worden !
dat de G80 een kloksnelheid van rond de 1Ghz gaat hebben

Dit staat er niet, er staat alleen dat deze archtectuur geschikt is voor een snelheid van 1Ghz.

Of de G80 werkelijk 1Ghz wordt hangt helemaal af van het productie prucedee.
In dit stadium moet je niet teveel waarde aan hoge getalletjes hechten, meestal vallen die heel wat lager uit.
Geschikt voor 1Ghz, dus waarom zouden ze de kaart dan niet op 1Ghz klokken? Geschikt is geschikt zou ik denken, als de kaart niet op 1Ghz zal draaien noem ik dat "niet geschikt" op 1Ghz.
Lager of hoger, mij maakt hiet niet uit. Sneller en vetter zal het op zeker wel worden ! :)
Stel ik mij nu de vraag: hoe kun je deze apart aanspreken ? moet dit speciaal aangegeven worden in de maps of compileren ze deze mee met de engine ? Lijkt me moeilijk om daar als programmeur niet aan te hoeven denken. (ook al zullen driver een soort 'standaardmode' hebben id toekomst).
Mooie vooruitgang trouwens, en moedig van nvidia om met een achterstand te beginnen imo. :)
Stel dat nVIDIA gaat werken aan een SLI 2.0 technologie, waarmee het mogelijk wordt om twee verschillende grafische kaarten te koppelen, één met alleen maar pixel shaders en één met alleen maar vertex shaders.

Makkelijk zat! :)
Dit zou kunnen leiden tot misvertanden, want als het de 2e kaart geen unified shaders ondersteund heb je kans dat je er ongelijkheden kunnen ontstaan mbt pipelines->vertex en shader!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True