Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties

Nvidia heeft tijdens de Computex-beurs in Taipei de GeForce GTX 980 Ti-videokaart aangekondigd. De nieuwe videokaart is voorzien van dezelfde gpu als de Titan X, maar dan met twee uitgeschakelde sm-units. Daarnaast introduceerde Nvidia Gsync voor laptops.

De GTX 980 Ti beschikt net als topkaart Titan X over de GM200-gpu, die gebaseerd is op de Maxwell-architectuur. In tegenstelling tot de Titan X beschikt de 980 Ti niet over 3072, maar 2816 cuda-cores en is het geheugen geen twaalf, maar zes gigabyte groot. De kloksnelheden van gpu en geheugen komen wel overeen; de gpu tikt standaard op 1000MHz en heeft een boostclock van 1075MHz. Het gddr5-geheugen heeft een effectieve snelheid van 7010MHz en communiceert via een 384bit brede bus.

Tweakers heeft de nieuwe videokaart al kunnen benchmarken en daaruit blijkt dat de 980 Ti ruwweg 30 procent sneller is dan de GTX 980. De GTX 980 Ti krijgt een adviesprijs van 750 euro en Nvidia heeft aangekondigd dat de adviesprijs van de GTX 980 daalt van 549 dollar naar 499 dollar, wat omgerekend en inclusief btw op 550 euro neerkomt.

Nvidia GTX 980 TiNvidia GTX 980 TiNvidia Gsync-laptops

Naast een nieuwe videokaart kondigde Nvidia ook Gsync voor laptops aan. Gsync synchroniseert de verversingssnelheid van een beeldscherm met dat van een game, wat haperingen en tears in het beeld voorkomt. De functionaliteit was aanvankelijk alleen beschikbaar op beeldschermen die van een speciale gsync-module zijn voorzien, maar Nvidia brengt de technologie nu ook naar gamelaptops. Daarbij selecteert Nvidia de panelen die fabrikanten voor de laptops mogen gebruiken. Gsync is volgens Nvidia op laptops redelijk eenvoudig te implementeren, omdat laptopschermen niet over een scaler beschikken en de gpu dus direct het paneel kan aansturen. Gigabyte, Asus, MSI en Clevo zullen de eerste fabrikanten zijn die Gsync op gamelaptops toepassen.

 GTX 980GTX 980 TiTitan X
Gpu GM204 GM200 GM200
Cuda-cores 2048 2816 3072
Sm-units 16 22 24
Transistors 5,2 mld 8 mld 8 mld
Texture units 128 176 192
Rops 64 96 96
Kloksnelheid 1126MHz 1000MHz 1000MHz
Boostfrequentie 1216MHz 1075MHz 1075MHz
Geheugengrootte 4GB 6GB 12GB
Geheugenbus 256bits 384bits 384bits
Geheugensnelheid 7GHz gddr5 7GHz gddr5 7GHz gddr5
Bandbreedte 224GB/s 336GB/s 336GB/s
Tdp 165W 250W 250W
Moderatie-faq Wijzig weergave

Reacties (39)

Sorry jongens,vergeet G-Sync in laptops.
What this means is that in order for G-Sync to be available, Optimus (NVIDIA’s ability to switch from the integrated CPU graphics to the discrete NVIDIA graphics) will not be available. They are, at least for now, mutually exclusive. As a refresher for Optimus, the integrated GPU is actually the one that is connected to the display, and when Optimus is enabled, the iGPU acts as an intermediary and is the display controller. The discreet GPU feeds through the iGPU and then to the display. Due to the necessity of the GPU being directly connected to the display, this means that Optimus enabled notebooks will not have G-Sync available.

Obviously this is a big concern because Optimus is found on almost all notebooks that have GeForce GPUs, and has been one of the big drivers to reasonable battery life on gaming notebooks. However, going forward, it is likely that true gaming notebooks will drop this support in order to offer G-Sync, and more versatile devices which may use the GPU just once in a while, or for compute purposes, will likely keep it. There is going to be a trade-off that the ODM needs to consider. I asked specifically about this and NVIDIA feels that this is less of an issue than it was in the past because they have worked very hard on the idle power levels on Maxwell, but despite this there is likely going to be a hit to the battery life. Going forward this is something we'd like to test, so hopefully we'll be able to properly quantify the tradeoff in the future..
TL;DR: Om G-Sync in laptops te laten werken moet de GPU direct met het beeldscherm verbonden worden, waardoor Nvidia's Optimus technologie niet meer werkt. Optimus maakt het mogelijk om te switchen tussen de energiezuinige ingebouwde GPU, en de krachtige Nvidia GPU. Zonder optimus moet de Nvidia GPU continu draaien om het beeldscherm aan te sturen, ook als al die kracht helemaal niet nodig is. Hierdoor gaat het stroomverbruik flink omhoog, waardoor de accuduur veel korter zal zijn en er meer hitteproductie en lawaai in laptops aanwezig is.
De 750Ti verbruikt maar 4 watt om een desktop weer te geven, de intel gpu doet z'n werk ook niet voor niets. Het zal weinig verschil maken.

Een paar jaar terug kon je nog een hoop winnen met optimus, maar gpu's zijn zuiniger geworden bij lage belastingen.
Dat hier 'maar' 6 GB in zit tegenover de 12 in de Titan terwijl de kaart zelf amper lagere specs heeft geeft wel aan dat zoveel geheugen bij de Titan meer om de show gaat dan dat het echt zin heeft.
Maar voor de toekomst zou ik toch liever die 12GB hebben. Vooral als je bedenkt hoe slordig sommige developers tegenwoordig met RAM en VRAM omgaan doordat de next gen consoles zoveel snel geheugen hebben.

[Reactie gewijzigd door Fleximex op 1 juni 2015 00:37]

Het is inderdaad door de slordigheid.
Is simpelweg tezien aan hoeveel VRAM The Witcher maar verbruikt..

Ultra settings:
3840x2160 = 1732 MB
• 2560x1440 = 1276 MB
• 1920x1080 = 1106 MB
• 1600x900 = 1043 MB
http://www.techpowerup.co...ysis/The_Witcher_3/3.html

[Reactie gewijzigd door SmokingCrop op 1 juni 2015 00:41]

Niet alle games zijn de Witcher. GTA V is weer een heel ander verhaal. Daar haal je met gemak 3GB. Als ik nu een kaart zou kopen zou ik toch echt minimaal 4GB VRAM willen. Zeker met het oog op 4k monitoren en VR gadgets.
12GB is idd overkill tenzij je meerdere schermen 4k gaat spelen. Maar die krijg je ook nooit vlot vol gerenderd met een enkele TitanX.
Het kan wel toegevoegde waarde bieden bij specialistische taken die zich goed parallel laten uitvoeren. Bijvoorbeeld Folding@Home
Oh, zeker. The witcher is maar een voorbeeld van hoe het kan en zou moeten zijn.
De realiteit is echter helemaal anders met VRAM waardes die dubbel zoveel zijn bij andere games met gelijkaardige graphics.
"Gelijkaardige graphics". Wat is gelijkaardig? Veel spellen hebben MSAA als optie. Zet je 2xMSAA aan dat vreet dat al flink wat VRAM extra, dat kan zo meer dan 500 MB VRAM opeten. Zet je 4xMSAA aan dan komen er nog enkele honderden MB VRAM verbruik bij. En bij 8xMSAA kan er zelfs meer dan een gigabyte extra VRAM verbruikt worden. The Witcher 3 heeft geen MSAA optie en verbruikt daardoor gelijk een stuk minder VRAM op ultra settings.

Verder worden er bij GTA 5 bijvoorbeeld veel meer NPC's gerendered, en ook veel meer verschillende karaktermodellen. Ook veel meer auto's e.d, die ook allemaal andere modellen hebben. Dan laadt je simpelweg veel meer modellen in je VRAM. The Witcher 3 zet hier enkele monsters tegenover met allemaal hetzelfde model (meestal wordt je aangevallen door een groep van identieke monsters), en een handjevol mensen hier en daar. Bij GTA V kun je wat meer The Witcher 3 kant op gaan door Population Variety helemaal omlaag te gooien naar het minimum. Dan laadt je niet zoveel verschillende modellen in je VRAM en is het verbruik veel lager.

Verder is het een zaak van hoeveel verschillende textures je in het geheugen laadt, en hoe groot die textures zijn. The Witcher 3 gebruikt toch veel dezelfde textures, waardoor het VRAM-verbruik niet zo superhoog is.

Niet dat The Witcher 3 slechte graphics heeft. Nee integendeel, het spel ziet er fantastisch uit. Ik wil alleen maar aangeven dat het goede redenen heeft waarom andere spellen meer VRAM verbruiken. En dat het volkomen onredelijk is om van andere developers te eisen dat het VRAM verbruik zo laag is als bij The Witcher 3.

Wil je meer inzicht in wat voor soort opties veel VRAM vragen, kijk dan eens hier naar: http://international.down...1920x1080-with-labels.png

[Reactie gewijzigd door dusty-2011 op 1 juni 2015 21:06]

De ene game is de andere niet. Je zou ultra setting COD mapje maken in het Louvre. De Mona lisa texture zal niet zoon probelem zijn.
Maar die doeken muur groot van dicht bij. En een gang vol met die dingen.
16K textures. DX11.2 ( mip map ) tiled resources is dan erg handig.
Gta 5 is daarnaast ook vol met bugs, vooral gta online, mijn video geheugen en gewone ram loopt binnen de kortste keren vol waarna de game crashed. Men noemt dit ook wel een memory leak...
Yep, zoiets bij mij ook. Heb GTA V, op de hoogste instellingen, met een GTX 970 op iets minder dan 3 GB VRAM en als ik aan het gamen ben en nog Google Chrome aan heb staan crasht de game na een tijdje omdat mijn 8 GB DDR3 RAM te vol begint te worden de game vanzelf, na heel veel stuttering te hebben gehad...
Maar voor de toekomst zou ik toch liever die 12GB hebben. Vooral als je bedenkt hoe slordig sommige developers tegenwoordig met RAM en VRAM omgaan doordat de next gen consoles zoveel snel geheugen hebben.
Mja maar de PS4 heeft toch ook maar 8 GB system ram die ook door de videokaart wordt gebruikt, zal gemiddeld voor videobewerkingen niet meer van overblijven dan de 6 GB die de 980 Ti heeft of mis ik nou iets?
Ja maar als de PS4 versie van een game 6GB gebruikt en de textures daar gelijk staan aan 'medium' settings op PC. Dan kan de PC versie door hogere resolutie en 'high' of 'ultra' textures er overheen. Niet dat dat snel kan gebeuren.

En misschien verbruikt een bepaalde game op ultra al 6GB aan vram. En dan komen er mods met nog betere textures. Dan loop je tegen een limiet aan.

Dat is nu nog niet het geval, maar in de toekomst zie ik zoiets best gebeuren. Daarom liever die 12GB.
Daarom liever die 12GB.
There ain't no such thing as a free lunch.

Met andere woorden: je betaalt altijd voor iets. Als het niet linksom is, dan is het rechtsom. 6GB extra DDR5 is niet gratis. En dus zul je er als consument voor moeten betalen. 6 GB DDR3 is al zo'n 80-90 euro. Ik denk dat die extra 6GB DDR5 zo maar je kaart 150 euro duurder kan maken. Denk je echt dat je je geld dan goed besteed ? Vooral als je weet dat 99% van alle games de komende 3 jaar echt niet meer dan 6GB vram zullen gebruiken ?

En dan is er nog iets.
Sommige benchmarks hebben al laten zien dat de gtx980ti *sneller* is dan de Titan X. Zelfs met precies dezelfde kloksnelheden. Hoe is dat nou mogelijk, zul je denken ? Dat extra vram maakt hem juist sneller.

Moderne nVidia kaarten hebben een base-clock en een boost-clock. Een soort van automatisch overclocken. Hoe ver je nVidia-kaar uit zichzelf boost hangt af van verschillende dingen. Temperatuur. Maximum ingebakken waarden. Etc.

Maar een factor voor de boost-frequency is de TDP. De kaart zorgt er voor dat hij niet meer dan een bepaald aantal watt zal verbruiken. (170W, 200W, 250W, hangt af van de kaart). Hoger voltage geeft meer verbruik natuurlijk. Maar hogere frequency geeft meer verbruik ook. Als je aan de max TDP zit, zal de kaar zichzelf iets terugklokken.

Geheugen gebruikt stroom. En dat is niet verwaarloosbaar. Die extra 6GB vram van jou zullen het stroom verbruik omhoog doen gaan. En de Titan X zal eerder aan zijn max TDP zitten. En daarom zal de Titan X een minder hoge boost-frequency halen dan een kaart met minder vram. Resultaat: de gtx980ti zal sneller zijn dan een Titan X, zelfs wanneer ze dezelfde frequency hebben.

Veel plezier met je extra 6GB vram.
De reden dat kaarten met meer geheugen in de praktijk langzamer zijn is omdat er een stuk grotere latency aan gekoppeld zit dan normaal met 4GB of 6GB in dit geval.

De Titan X is ook eerder een kaart dat in GPU Computing ingezet kan worden en totaal niks te zoeken heeft in game-land. Echter zijn er altijd nog een scala aan mensen die gerust 1000 dollar voor een videokaart neer willen knallen.

Je bent wel futureproof met inderdaad 12GB, maar geen enkele game kan die 12GB op dit moment adresseren. Leuk dat je textures op kunt slaan. Maakt dat je game ook beter?
Dat futureproof is ook maar relatief. Tegen de tijd dat spellen die 12Gb gebruiken is de GPU te traag.
Quote: De Titan X is ook eerder een kaart dat in GPU Computing ingezet kan worden en totaal niks te zoeken heeft in game-land. Echter zijn er altijd nog een scala aan mensen die gerust 1000 dollar voor een videokaart neer willen knallen.

Dit klopt niet, de Titan X is de eerste Titan die echt helemaal met een gaming/graphics mindset is gebouwd.

Bron: http://www.anandtech.com/...orce-gtx-titan-x-review/2

It’s this graphics “purification” that has enabled NVIDIA to improve their performance over GK110 by 50% without increasing power consumption and with only a moderate 50mm2 (9%) increase in die size. In fact in putting together GM200, NVIDIA has done something they haven’t done for years. The last flagship GPU from the company to dedicate this little space to FP64 was G80 – heart of the GeForce 8800GTX – which in fact didn’t have any FP64 hardware at all. In other words this is the “purest” flagship graphics GPU in 9 years
Dat future proof houd dit in.

Als 12GB langzamer is dan 6gB lever je nu iets meer performance in.
Maar als game ruim over de 6GB gaat gebruiken maakt performance een veel extreme performance duik.

Het problem is dat het nu gewoon een grote gok is hoe toekomstige games geheugen gaan gebruiken. Kan tegen vallen dan is 980Ti beter.
Of TitanX vooral als je de kaart wat langer gaat gebruiken.
De binnen het jaar upgrader 6GB ruim genoeg.

Diegene die om 5 jaar of meer een high-end bak koopt om er lang mee klaar te zijn. Veel sysmem en Gkaart met veel vram.

Wat mij opvalt in mijn geval is dat ik mijn hardware toch wel redelijk wat langer gebruik dan reguliere upgrader en de systemen met meeste mem maar langzamer. Toch langer blijf gebruiken omdat ze langer mee komen. Dan snellere PC die door mem gebrek toch langzamer is.
Welke toekomst heb je het over ? over 3 jaar misschien ? maar dan is die videokaardt zelf alweer traag en oud en kun je niet eens spellen(dan nieuwe spellen) op ultra spelen op bv 1440p
Ja die trager maar een kaart die over limiet gaat zakt de performance extremer in. Dus mindere drang of nood om te upgraden.
High-end nu is over 2 jaar midrange.
Is de Gsync module nu in de laptop effectief een hardware implementatie, of een software implementatie?
Zou wel erg vet zijn bijvoorbeeld dat alle 900M gebruikers hun laptop met gsync kunnen gebruiken aan de hand van een driver update
yup dat zou idd vet zijn maar ik denk dat de laptops zoals in het artikel ook staat met andere schermen gemaakt moeten worden.
dus als je een laptop hebt met een 900m serie maar een niet ondersteund scherm ben je dus genaaid. en voor de laptops die met g sync uit komen zijn de prijskaartjes denk ik toch wel weer 100 of 200 euro duurder. anders worden de laptops zonder g sync niet verkocht. dus heel erg mooi dat ze het implenmenteren maar ik denk niet dat het voor bestaande laptops komt.
Hoe nuttig is Gsync eigenlijk? Ik zit op een 144hz scherm en weet zeker wat tearing is, maar op mijn 144hz scherm heb ik in geen enkele game vSync aanstaan, en ook gewoon geen screen tearing. Lijkt mij dat Gsync heel erg overbodig is?
mischien staat toevallig v-sync in de drivers aan, dan word het geforceerd ;)
Ik weet zeker dat v-sync uit staat, want zodra ik het uit zet merk ik gelijk dat ik inputlag krijg met m'n muis :P
Ik heb zelf net een nieuwe monitor gekocht, en keek toen eerst naar Gsync monitoren, want geen tearing is natuurlijk prachtig.

Toen zag ik echter de kleine lettertjes, en dan vooral dat het enkel met fullscreen games werkt.

En dus niet met Windowed, of Windowed 'fullscreen'.

Ik speel alleen maar windowed fullscreen, en never nooit 'echt' fullscreen - dus voor mij bleek het totaal overbodig te zijn.

Hangt dus van de persoon af en 'hoe' je spellen speelt, of je er iets aan hebt.

Oh, nieuws van deze week:

"Desktop users will also have the chance to use G-Sync in windowed mode with an upcoming driver update. Previously, G-Sync was limited to fullscreen mode, which allowed Nvidia to completely control the refresh rate of a game and control it at a variable rate up to 144 Hz. The Windows desktop would normally refresh at a static rate, like 60 Hz, but the update allows Nvidia to override that static rate and drive the refresh of Windows at the same rate as the game. Nvidia says there's no performance difference between G-Sync in fullscreen and windowed mode. I briefly demoed Grand Theft Auto 5 running in a window, and it did seem to run just as smoothly in a window as it did in fullscreen."

[Reactie gewijzigd door Seven_PRX op 2 juni 2015 16:45]

Ik weet echt wel wat een G-Sync doet hoor, ik vraag alleen gewoon wat het nut ervan is, aangezien ik dus totaal geen screen tearing ervaar op mijn 144hz scherm, lijkt mij het gewoon geen nut hebben dus.
Als je een 144Hz scherm hebt, en je hebt 144 fps bij ieder spel, dan inderdaad, heeft G-Sync geen nut. Echter weinig mensen hebben een system dat zo krachtig is dat het alle spellen op 144 fps kan spelen.

Dan zou je ULMB (Ultra Low Motion Blur) kunnen aanzetten. Dat komt mee met alle 144Hz G-Sync monitoren. (Er zijn ook 75Hz G-Sync monitoren, die hebben het meestal niet). ULMB zorgt er voor dat je scherm minder wazig is als dingen op je scherm bewegen. Goed voor snelle online shooters, waar iedere milliseconde telt. Hoe sneller en hoe scherper je tegenstanders ziet, hoe beter je het zult doen in die games.

Maar terug naar G-Sync.
G-Sync werkt als je 1) een fps hebt tussen de 40 en 100. En 2) je fps niet constant it. Dat laatste is eigenlijk in alle games het geval. Behalve als je fps >144 is, dan maakt het niet uit.

Als je geen G-Sync (of FreeSync) hebt, dan ververst je scherm iedere 16,6 milliseconden het beeld. Je scherm wil dan iedere 16.6 milliseconden een nieuw frame van je videokaart hebben. Als je GPU net te traag is, en pas na 17+ milliseconden het nieuwe frame kan aanleveren, dan is het te laat voor scherm. Je scherm zal dan gewoon het vorige beeld nog een keer laten zien. M.a.w. als je <60 fps hebt, dan zul je soms 1x een beeldje zien, en soms 2x. Als je fps onder de 30 dropt, dan zul je zelfs soms 3 keer hetzelfde beeldje achter elkaar te zien krijgen. Die mix van sommige beeldjes 1x, en andere 2x of meer, dat zorgt voor stotterend beeld. Niet vloeiend.

Als je een 144Hz scherm hebt, dan is het precies hetzelfde, alleen niet iedere 16.6 milliseconden, maar iedere 7 milliseconden. Omdat de tijd van een beeldje op het scherm korter is, zal de stotter iets minder merkbaar zijn. Maar hij is er nog steeds.

G-Sync is een feature van je scherm. Dan kan je scherm een beeldje net zo lang laten zien als het zelf wil. Niet precies 16.6 ms of 7 ms. Maar ergens tussen de 7 en 33 milliseconden. Het scherm wacht dan gewoon totdat je GPU het volgende frame aanlevert. En laat dat dan direct zien. Je hebt dan geen dubbele frames meer. En dus geen stotter. Veel vloeiender.

Het is een effect dat je gezien moet hebben om goed te begrijpen. Ik heb hier 3 dagen een G-Sync monitor gehad (monitor ging terug: te veel backlight bleeding). Je bent er zo aan gewend. Maar als je weer terug moet, dan merk je direct de stotter als je niet constant een fps hebt die gelijk is aan je monitor's refresh-rate.
uiteraard is het leuk, maar we moeten oppassen dat het niet een marketingterm word.
Hmm, met een prijs van 750 wordt dit dus gepresenteerd als een prestige-model als ik het goed begrijp. Nogal een verschil met de ~350 die ik ergens in 2011 voor mijn GTX 580 heb betaald. Krijg toch het gevoel dat ze aardig misbruik maken van de prijs van de 'absolute top' modellen als de Titan en Titan X. Daarbij vergeleken lijkt al het andere goedkoper, maar eigenlijk krijg je met een GTX 980 nog een 'mainstream' chip (GM204).
Als het je niet bevalt, dan koop je em toch niet ?

BTW, het lijkt me sterk dat je slechts 350 euro voor een gtx580 hebt betaalt in 2011. Weet je het zeker ? We kunnen nog steeds oude prijzen nakijken hier, met dank aan Pricewatch. Zie bv hier het prijsverloop van een Asus gtx580.
pricewatch: Asus ENGTX580/2DI/1536MD5
Gemiddelde prijs was zo'n 450 euro. Minimum prijs was 400 euro (een paar keer eventjes).
Zelfs het goedkopere merk Point Of View kwam amper onder de 400 euro in 2011.
pricewatch: Point of View GTX580

[Reactie gewijzigd door gryz op 1 juni 2015 02:00]

24 augustus 2011, een EVGA GTX 580 met een totaalprijs van 390,95 bij SiComputers.nl. Dus inderdaad, het was iets meer dan 350 en het was in de tweede helft van het jaar. Maar nog wel een groot verschil met die 750 van nu!

Verder mag je hem van mij best kopen hoor, daar niet van - het maakt natuurlijk helemaal niet uit wat ik vind voor wat jij doet met je geld. Ik vind het alleen een indicatie van een trend die al langer aan de gang is: steeds meer 'prestige' producten voor gigantisch hoge prijzen aanbieden, om zo ongemerkt de oude top steeds duurder te maken.

[Reactie gewijzigd door Mitsuko op 1 juni 2015 09:57]

Mijn broertje heeft ook een 580GTX voor +/- 350 gekocht destijds, was een actie waarbij het btw bedrag er als korting af ging.

750 a 1000 euro voor een videokaart vind ik overigens wel erg overdreven, of gamen moet je enige hobby zijn, maar zelfs dan liever een PS4 + 10 extra games dan 1 videokaart (en dan nog niet eens de rest van de pc en games).

[Reactie gewijzigd door bones op 1 juni 2015 07:44]

Ik heb een stom vraagje, maar is het ongeveer een beetje bekend wanneer Gsync voor de Asus laptops uitkomt? Ik sta op het punt om de G751 laptop aan te schaffen, maar ik weet niet of het te moeite waard is om te wachten totdat de Gsync versie er is.
In de nieuwe driver release notes staat het volgende:
"With a multitude of new features for desktops and notebooks, in addition to performance optimizations, support for the new $649 GeForce GTX 980 Ti"
Als ik dit met de huidige koers bereken kom ik op 595 euro... Wel een erg groot verschil met 750 euro, iemand een idee hoe dit komt?

Edit: oeps, btw vergeten.. 720,-

[Reactie gewijzigd door Cowamundo op 1 juni 2015 14:43]

In hoeverre gaan recente kaarten DX12 ondersteunen? Dit soort kaartjes koop je niet voor een klein jaartje namelijk :)
NVIDIA's Fermi, Kepler en Maxwell-based GPUs,
Intel's 4th generation (and newer) Core processors
AMD's Graphics Core Next (GCN) based GPUs.

Al kan wat Nvidia betreft alleen Maxwell waarschijnlijk volledig gebruik maken van alle DX12 features.
Van het AMD en Intel kamp zou ik dit niet weten.

[Reactie gewijzigd door Cowamundo op 1 juni 2015 17:55]

Ok nice, geen reden dus om deze niet aan te schaffen :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True