Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 94 reacties

Een deel van de mogelijke specificaties van de Nvidia GeForce GTX 960 is online verschenen. Ook zijn afbeeldingen van kaarten van fabrikanten gepubliceerd. Daarnaast is er een nieuwe aanwijzing dat het topmodel van de nieuwe Radeon-lijn high-bandwidth memory krijgt.

De specificaties van de GTX 960 zijn verschenen op Videocardz, dat de details van diverse sites vandaan haalde. De GTX 960 bevat de op 28nm geproduceerde GM206-gpu met 1024 cudacores en zou over een geheugenkloksnelheid van 1753MHz gaan beschikken. Dat is de helft van het aantal cores dat de GM204 van de GTX 980 heeft. Verder zijn er 32 rops en waarschijnlijk 64 tmu's.

De hoeveelheid gddr5-geheugen zou 2GB betreffen, maar mogelijk zijn er 4GB-varianten op komst. Zoals eerder gespeculeerd, lijkt de kaart een 128bit-interface te krijgen, terwijl de tdp 120W zou kunnen bedragen. Naast de specificaties zijn ook nieuwe afbeeldingen van de GTX 960 van Gigabyte, Inno3D en KFA2 verschenen.

GTX 960 pre-release afbeeldingenGTX 960 pre-release afbeeldingenGTX 960 pre-release afbeeldingenGTX 960 pre-release afbeeldingenGTX 960 pre-release afbeeldingenGTX 960 pre-release afbeeldingen

Tegelijkertijd zijn nieuwe details over de komende Radeon-generatie online gekomen. Op de LinkedIn-pagina van AMD's system architect manager, Linglan Zhang, staat dat hij de hand heeft gehad in ''s werelds eerste 300W 2,5D discrete gpu die gebruikmaakt van een gestapelde die met high bandwidth memory en een silicium interposer'. Geruchten over AMD's gebruik van gestapeld dram-geheugen doen al bijna een jaar de ronde. SK Hynix startte de levering van 2,5D hbm in november vorig jaar.

Op het profiel van asic-ontwerper Ilana Shternshain staat dat hij 'verantwoordelijk is voor de full-chip timing methodology and closure voor AMD's chips als die voor PlayStation 4, de Radeon R9 290X en de R9 380X'. Deze laatste wordt omschreven als de grootste van de 'King of the Hill'-producten. Onduidelijk is of de R9 380X over hbm gaat beschikken of dat het daarbij om bijvoorbeeld een R9 390X gaat.

Moderatie-faq Wijzig weergave

Reacties (94)

's werelds eerste 300W 2,5D discrete gpu-soc
Snap ik het nou verkeerd, of staat hier dat die GPU 300W verstookt?
Als het zo is, succes met koelhouden :|
Jup, inderdaad. Is tegenwoordig toch een enorm hoog TDP met al die die shrinks die plaatsvinden. En die 2,5D, waar slaat dat op?
Dat ligt tussen 2D en 3D, is een bepaalde manier van het maken van een chip.
Zie het als een tussenstap van de 'gewone' silicium transistor en de 3D transistor die Intel nu al een aardige tijd in de research heeft. (bronnen even gechecked, dat is weer wat anders) die en 2 silicium die's die op elkaar zijn 'geplakt'. 2,5D is nog met materiaal tussen de die's in om de die's van elkaar te scheiden.
http://en.wikipedia.org/w...t#3D_ICs_vs._3D_packaging

Het is een bepaalde manier van chip on chip stacking, dit scheelt ruimte (en daardoor zijn er ook hogere snelheden mogelijk) maar is moeilijk te maken.

@hieronder, dat is inderdaad bijvoorbeeld stacked memory :)

Owja:
De TDP van een GPU is voor de gehele kaart zelf, dus ook zijn eigen stroomvoorziening en andere zaken. Vandaar dat dit vaak wat hoger ligt dan normale CPU's, gezien die van de CPU alleen uit gaan. (Kan ik fout hebben)

[Reactie gewijzigd door Fordox op 14 januari 2015 10:56]

2,5D dat zal de stacked memory wel zijn denk?
Bekijk het als volgt:

In 2D heb je een chip waarbij de transistoren allemaal op één vlak liggen en zo met elkaar verbonden zijn.
In 3D heb je transistoren in alle dimensies en verbindingen in alle dimensies zonder beperkingen.

De 2.5D techniek gebruikt 2D transistor vlakken maar stapelt die op elkaar. Er zijn nauwelijks verbindingen tussen de vlakken en ieder vlak is nog als zodanig te onderscheiden. Het gaat dus efficiënter met ruimte om dan 2D maar is nog niet zo flexibel als 3D.
Dat lijkt me stug. Als ik kijk naar anandtech GPU dan komt de EVGA 970 FTW niet boven de 290W. Waar zij hun 300W vandaan halen is mij een raadsel aangezien de 960 minder zou moeten verbruiken.

edit: Het gaat over de Radeon GPU en niet over die van NVIDIA

[Reactie gewijzigd door Jacco011 op 14 januari 2015 10:19]

En die 290w is het hele systeem, niet alleen de kaart. Je neemt daarin ook de load op de CPU mee.

[Reactie gewijzigd door Thekilldevilhil op 14 januari 2015 11:42]

Volgens mij is dat het maximum van de PCI-e spec. De slot zelf mag maximaal 75 watt gebruiken, een 8 pin PCI-e connector 150 watt en een tweede connector 75 watt.
Er zijn ook videokaarten met 2 8 pin PCIe connectors (bv de R9 295X2), die zijn dan wel niet volgens de officiële spec en mogen dat dan niet adverteren op de doos, maar het werkt wel en er is geen reden waarom die niet verkocht mogen worden. Er is dus eigenlijk geen limiet, ze zouden ook een videokaart kunnen maken met 4 8 pin PCIe connectors die 675W kan verstoken als ze dat gekoeld krijgen.
Dat gaat over AMD's R9 380X.

"Tegelijkertijd zijn nieuwe details over de komende Radeon-generatie online gekomen."

Wel even lezen voor je comment ;)
Van wat ik gelezen heb zijn mensen behoorlijk teleurgesteld in de 960, hij zou iets onder 770 performance zitten. Persoonlijk had ik wel 3GB verwacht. Nou maar hopen dat de prijs goed meezit, anders lijkt dit me geen 'goed' product.
Ik zelf ben niet teleurgesteld. Dit omdat ik verwacht dat er nog een sneller middel op de plank ligt met meer cores en een grotere membus. Ik denk zelf dat nvidia eerst deze versie uitbrengt omdat ze nog teveel oude voorraad hebben waar ze vanaf willen zoals de 770 of omdat ze willen zien hoe en of AMD reageert. De reden dat ik denk dat er nog een snellere 960 komt is omdat het verschil te groot is met de 970.
Zou goed kunnen, maar als deze kaart meer dan 220 kost is het denk ik verloren zaak. 1 maandje doorsparen en je hebt de 10x betere 970, die het ook in de toekomst langer vol zal gaan houden. Daarnaast zijn de 7950/280x in de zelfde prijs catagorie, en meer toekomstbestendig ivm 3GB.

Dat gezegd, liever die zuinige 960 dan een 280(x) in mn htpc, want logisch.
Klopt, ik denk dat hij rond de 200 zal zitten en dan een tientje of twee zal zakken binnen een maand. Ik denk zelf dat AMD met pricedrops komt, iets wat niet goed voor ze is.
Ik blijf erbij dat de AMD kaarten atm beter zijn voor (Goed gekoelde, grote) desktops. Nv heeft met deze kaart wel een prachtige ITX kaart/htpc kaart neergezet, zonder dat je meteen hoeft te grijpen naar dure custom koeling of zelfs wc.
Waarschijnlijk krijg je die waterkoeling er al standaard bij -> project Hydra. 300 Watt op een single GPU is bijna niet met lucht te koelen. AMD's r9 290X zat op +- 250 watt en dat was al een wandelende vulkaan, ook met aftermarket koelers.

Bron over de "Hybrid Cooling": http://videocardz.com/523...-r9-390x-cooling-pictured
ze rekenen hier volgens mij het hele systeem. niet alleen die videokaart. lijkt me wel heel erg veel voor 1 kaart.
Waar heb jij het over? Ik had het iig over de 7950(70)/280(x).
Dat snap ik ook wel, maar daar ging dit 'gesprek' niet over, dus loze informatie, en een rare comment.
AMD kaarten beter zijn op dit moment?

Nee hoor, ik denk eerlijk gezegd dat AMD de wedstrijd al verloren heeft, of zij moeten met iets nieuws komen en ik denk dat dat niet zal gaan gebeuren.
Wat ik zei, net als bij robin, heb ik het over de 7950/280(x) vs. de 960.
Misschien net als toen met de GTX5xx serie, brachten ze ook eerst de GTX560 uit en toen de TI die veel beter was en nog steeds redelijk mee kan komen.
Voor zo'n 175-220 (various vendors and coolers) denk ik dat het een goede kaart voor dat geld gaat worden.
Als hij op hetzelfde niveau presteerd van de GTX770 dan ja, is hij trager en kost hij 220 dan komt hij in het vaarwater van de 290 die 240 kost en er gehakt van maakt.

Denk dat de kaart goed zal presteren op 1080p (met max 4aa), maar hoger dan dat wil je niet door de 128bits bus. Omdat je met de delta color compression meegerekent maar een bandbreedte van +/- tussen 125GB/sec en 146GB/sec hebt. Als het 128bits gerucht klopt :p.
Je zag op hogere resoluties de GTX770 al moeite hebben en die heeft effectief 224.3GB/sec aan bandbreedte wat een heel stuk meer is. Ik hoop echt dat de GTX960 met een 192bits bus komt; Anders ben je op hogere resoluties beter af met een 280x of GTX770.
Ik heb precies hetzelfde. Het verbaast mij dat NVidia op deze "midrange" kaarten nu nog 2GB krijgen. Qua GPU power zijn ze krachtig genoeg om 1440p, surround 1080p of tot op zekere hoogte 4K gaming mogelijk te maken, maar het gebrek aan VRAM (in combinatie met de 128bit bus) is wat hier het grootste probleem is. Zelfs de uitgaande midrange AMD kaarten, de R9 280 en R9 280X, hebben al 3GB, waarom houdt NVidia vast aan die 2GB?

Op dit moment zit ik met eenzelfde probleem. Mijn GTX670 is overclocked meer dan snel genoeg voor surround gaming (net zo snel als een GTX 770), maar je ziet het VRAM snel vollopen en bij het bereiken van de 2GB keldert de FPS ineens.

Het is voor NVidia te hopen dat de GTX960 erg scherp geprijsd wordt, anders denk ik dat mensen nog altijd beter af zijn met een oudere R9 280X of R9 290.
de GTX960 mag niet te goed zijn, want dan verkopen ze minder GTX970 kaarten
als het prijsverschil tussen de 2 te groot is komt er zeker weten een GTX960ti met 3GB

het leuke aan deze GTX960 vind ik wel het lage TDP (vermoedelijk slechts 1 6pins)
Begrijpelijk, maar mijn inziens is het logischer om dan 3GB aan te houden en de GPU zelf minder krachtig te maken. Ditzelfde doet AMD, met 4GB op de topend kaarten, 3GB op de midrange en 2GB op de lower end tot midrange kaarten. De manier van NVidia vind ik dan niet fijn, met standaard 2GB op de midrange kaarten met alleen een enkele mogelijkheid op een 4GB variant, die dan flink duurder is (een 4GB variant van een GTX760 kost al bijna evenveel als een R9 290).

Daarnaast, hoe komt er zeker weten een GTX960Ti? Bij de GTX7xx serie is er ook geen GTX760Ti en als we het verhaal aanhouden van "zorgen dat de GTX970 relevant blijft", betwijfel ik of ze tussen de GTX960 en GTX970 nog een kaart plaatsen.

Maar wie weet, ik laat me verrassen. Echter ben ik meer benieuwd naar de aankomende AMD kaarten en daarbij hoe FreeSync zich gaat ontwikkelen. In de laatste twee generaties had AMD bijna altijd een betere prijs/performance ratio, zeker in de 150 tot 300 euro regionen (waar denk ik de meeste kaarten van worden verkocht). De enige grote troef die NVidia op dit moment heeft is het lage verbruik (en dus minder warmte en geluid), wat goed uitkomt bij het steeds populairder worden van m-ITX systemen.
Er was wel een GTX 760Ti, maar die was alleen te krijgen op de OEM markt en die zat wel ongeveer in het midden tussen de GTX 760 en 770 (http://en.wikipedia.org/w...orce_700_.287xx.29_series).

Voor de retail markt hield een GTX 760Ti weinig steek want het verschil tussen de GTX 760 en GTX 770 is redelijk klein (http://www.anandtech.com/bench/product/1038?vs=1037). Het verschil in prestaties is maar 5-10 fps, ze hebben evenveel vram, een even grote geheugenbus, zijn gebaseerd op dezelfde chip (GK104) met 25% uitgeschakelde cuda cores bij de GTX 760 (een beetje zoals de GTX 980 en GTX 970).

De GTX 960 daarentegen zou significant trager zijn dan de GTX 970, met de helft vram, een geheugenbus die half zo groot is (en ik geloof dat de 4GB GTX 960 daardoor gelimiteerd gaat zijn) en 40% minder cuda cores. Er is dus meer plek tussen de 960 en 970, en ik denk dat we daar dus wel iets mogen verwachten, maar dat Nvidia nu even afwacht wat AMD gaat doen.

De GTX 7xx generatie was een tussengeneratie omdat de 760 en 770 eigenlijk varianten waren van de 670 en 680, daar zat ook niets tussen. Met de 9xx generatie zijn er nu alleen maar nieuwe videokaarten dus is er meer potentieel te spreiden.
Idd, qua snelheid prima, vram loopt achter. Natuurlijk moet er ergens een con aanzitten, anders zou de 970 niet meer verkopen. Ik snap het wel, van Nv, maar ben wel teleurgesteld.
Dan zou ik alsnog voor de 960 kiezen omdat deze de Maxwell architectuur gebruikt en dus energie zuinig is. Ook omdat hij minder geluid produceert vanwege het lage verbruik.
Precies, deze komt zeer waarschijnlijk in mijn Silverstone SG05 ITX kast te zitten, handig zo'n pc'tje om elders eens een potje te spelen. Dan is mijn line-up voorlopig wel compleet, dikke game-pc, small game-pc en een htpc.
De 960 zal wel tussen de 200 en 220 euro gaan kosten, net als de GTX 660 bij release voor tegen de 210 euro over de toonbank ging. Ook toen hadden we een 660ti, en ook nu zal die gewoon weer langskomen.

Je hoeft hiervoor niet helderziend te zijn natuurlijk, same shit different name.

Vwb de 2 of de 3GB... ik denk niet dat je op midrange nog veel hebt aan meer dan 2 GB, behalve voor SLI. Misschien dat het de volgende gen, of bij de refresh, al anders zal zijn, maar voor nu kun je met 2GB op midrange prima uit de voeten, max settings en textures zit er toch niet in voor een 960.

[Reactie gewijzigd door Vayra op 14 januari 2015 11:26]

Hangt er vanaf - het is een zeer goede kaart voor doeleinden anders dan high-end gaming gezien dat het enorm zuinig is. Maar dan moet de prijs wel lekker laag blijven.
ik heb het al eerder aangehaald en doe het hier nu weer ik vindt het een mooie kaart en misschien wel een kans hebber om mijn GTX560Ti te vervangen maar die " lijkt de kaart een 128bit-interface" lijkt me zo weinig :( ik wacht dus nog even op wat goede benchmarks en de prijs tot ik me conclusie trek.
Hier staan "gelekte" benchmarks... of ze waar zijn weet ik natuurlijk niet:
LINK

Edit: Volgens die test, zou de GTX960 net iets minder presteren dan de GTX780

[Reactie gewijzigd door Devroet op 14 januari 2015 10:49]

Dat is een filmpje uit september 2014. Lijkt me niet heel betrouwbaar.

Op Videocardz, wat ook de bron is van bovenstaande artikel (klik op 'verschenen'), staat een complete lijst met 3D Mark scores etc. Performance zou ongeveer gelijk zijn aan de R9 280/285.
Als het 1e benchmarks zijn zou het kunnen, de time to market zou best 4 maanden kunnen zijn. Maar wat je zegt, of het heel betrouwbaar is weet ik niet.

Ik wacht wel op Toms Hardware ;)
In deze theoretische benchmarks wordt helaas gebriuk gemaakt van een hogere bus width (minstens 192bit). Erg betrouwbaar maakt dat het niet.
De 900 serie werkt anders dan voorheen, waardoor de interface kleiner kan terwijl de performance beter is.
Maxwell maakt efficient gebruik van memory compressing. Daardoor wordt de geheugen interface minder zwaar belast. Ook denk ik dat de gtx 960 niet zo'n hele sterke GPU heeft, en dus ook niet veel van de geheugenbus zal vragen. Bij de gtx 980 ging het ook goed met 256 bit, dus we gaan het zien.

Hier nog wat meer over maxwell's "Third generation Delta Color Compression":
http://www.anandtech.com/...-geforce-gtx-980-review/3
Naast deze GTX 960 komt er, volgens de huidige rumors, ook een GTX 960 Ti model met mogelijk wel een grotere geheugenbus. Ook is inderdaad compressie toegepast, zoals eerder al gezegd. Het lijkt mij goed om nog eventjes af te wachten, voor benchmarks en een mogelijke Ti. :)

[Reactie gewijzigd door Laurent op 14 januari 2015 11:07]

Ik vond die 3 slots coolers op de gtx 980's al overdreven, maar ze installeren ze dus ook op een 960, wat een onzin, ding verbruikt maar 120W.
Hoho wacht even, NVidia meet TDP als gemiddeld verbruik, dus een 960 zal gemiddeld 120W verbruiken als je em belast (met spellen oid). Voor zware dingen als Furmark etc gaat ie daar leuk overheen, en kun je 150-170W verwachten.
(AMD meet TDP als maximaal gemiddeld vermogen, dus dat valt altijd hoger uit. Dat betekent ook dat die minder snel over hun limieten heengaan, tenzij je gaat overklokken).

Verder is een 3-slots koeler prima als je toch maar 1 GPU hebt, het koelt veel stiller, het geeft meer ruimte voor extra frisse lucht (op elkaar gepakte koelers doen het echt slechter), en het kost amper meer euros. Ik vind het wel prima.
Nee, TDP=max verbruik bij maxwell, de kaart past snelheden en voltages aan om daar aan te voldoen. Wel kunnen fabrikanten een hoger tdp instellen.

http://www.techpowerup.co...A/GeForce_GTX_980/24.html
184 ingame, 190 furmark.
Heel even een stomme snelle vraag. Is het verstandiger om 2 GTX 960 of 1 GTX 970?
Je bent bij de meeste games veel beter uit met één high-end card dan met twee mid-range kaarten. De redenen geeft TerrorDanny hierboven al aan.
Duhh gtx 970
Er zijn hoop dingen waarom je geen sli moet nemen
1 is duurder dan 1 goeie kaart
2 vebruikt 2x zoveel dus je moet al een grotere voeding hebben als je die niet heb.
3 er zijn weinig games die sli en cfx goed ondersteunen
4 processors lager dan 2011-3 die kunnen geen 200% gpu geven beter gezecht je 2e kaart kan maar 50% werken dus je 2e kaart is 2x zo duur in prijs performance verhouding.
5 de gtx960 heeft 2gb vram en gtx 970 4gb

Dus neem een 970 of wacht tot 380x uit is misschien is die wel beter

Ps. Dit kan je beter op het forun vragen bij componenten advies dan hier

[Reactie gewijzigd door TerrorDanny94 op 14 januari 2015 14:48]

op die foto's zie ik alleen maar 2 slots koelers, wat zie ik niet wat jij wel ziet ?
sorry, bedoel 3 fans.
Liever 3x een trage fan, dan één tornado.

Wat ik wel onzinnig vind, is dat de PCB een stuk korter is dan de koeler bij het reference model, terwijl daar dus maar één fan in zit. Langere heatpipes, ja leuk, maar daar hadden ze wel wat anders op mogen verzinnen.

Compacter met dezelfde koelprestaties is prima, wat mij betreft met 6 fans, maar een kaart 5cm langer maken gaat wel een beetje ver.
Die lange koeler heeft niets met de heatpipes te maken, de blower moet naast het PCB staan om effectief te werken, alle lucht kan maar in één richting over het PCB naar buiten geblazen worden. Bij open videokaarten gaat de lucht alle kanten op, dus dan kunnen de fans er bovenop.

De meeste GTX 960's zullen wel korter zijn, maar ik denk dat die Gigabyte G1 Gaming hetzelfde PCB gebruikt als de GTX 970 en daarom zo'n oversized koeler heeft. Gigabyte zal vast ook wel een kleinere variant uitbrengen, dat hebben ze bij de GTX 970 nu ook al gedaan.
waarom zou je het pcb groter maken om een grotere koeler te installeren?
Dit zou een perfecte mini-ITX kaart zijn! Een lekker kort kaartje met een laag TDP.
Echter hoop ik nog wel dat er een gtx 960 ti verschijnt. Nu is het gat tussen de gtx 970 en 960 best wel groot.
"Echter hoop ik nog wel dat er een gtx 960 ti verschijnt. Nu is het gat tussen de gtx 970 en 960 best wel groot."

Dit! Ik wacht ook nog wel op meer informatie en hoop dat die gtx960ti er komt want die leek me echt wel interessant.
Kort kaartje? Hoop dat je dat sarcastisch bedoeld :)
Hij heeft een kort PCB. Dan hoeven bedrijven als MSI en Asus alleen nog maar een kleine koeler te ontwerpen, en kunnen ze gewoon het reference PCB gebruiken. Dat scheelt hopelijk wat in de prijs en de tijd tot release.
Het PCB is helemaal niet lang, het is de stockcooler van nVidia die het ding zo lang maakt. Dit idee hebben ze al eerder toegepast en bij dit cooling design (airflow naar buiten de kast) kun je ook weinig anders.

Dus third parties of aftermarket coolers zetten meestal gewoon een fan 'bovenop' het PCB en niet ernaast, dus dan zou de kaart ineens een stuk korter zijn.

[Reactie gewijzigd door A Lurker op 14 januari 2015 10:19]

Kijk maar naar de foto van de achterkant met het PCB. Het is dat de reference cooler zo lang is, maar met non-stock coolers kan dit een kort kaartje worden. Overigens zijn er al meerdere modellen van de 970 beschikbaar met een even kort PCB, dus kan je ook gewoon voor de 970 gaan.
Dit zou een perfecte mini-ITX kaart zijn! Een lekker kort kaartje met een laag TDP.
Ik denk dat Nvidia die niche eerder vult met de GTX750.
Er zit echt een groot verschil tussen de 970 en 960. Voornamelijk de busbreedte, het aantal VRAM en CudaCores. Dan lijkt het me logisch dat zo'n kaart niet meer dan 250 gaat kosten!
Of juist heel logisch dat er nog een gtx 960 ti komt... Ik hoop dat het beide waar is. Een goedkope 960, en dan nog een 960 ti voor +- 250.
Ja precies! :)
Als ze hem voor een goede prijs verkopen, dan krijgen ze hem wel verkocht.
Eerlijk gezegd had ik gehoopt dat amd eindelijk het stroomverbruik op de kaarten terug kon brengen. Dat is de hoofdreden dat ik in het nvidia kamp zit momenteel. De eerste leaks van de captain jack chip maakte mij hoopvol maar nu lees ik weer 300w dat is veel te hoog. Hoewel me niet helemaal duidelijk is of ie dit ook daadwerkelijk verbruikt in game. Wel erg tof dat we eindelijk hbm op kaarten gaan zien ben enorm benieuwd hoe de veel hogere bandwidth zich gaat vertalen naar performance in game. De gtx 960 ben ik niet echt in geïnteresseerd die is te low end voor mijn smaak. Voor dat geld (ik gok rond de 250) kan je beter een high end kaart uit een oudere generatie kopen. Dan heb je veel meer performance.
Voor iets meer (50¤) koop je ipv een oudere generatie highend kaart een nieuwe generatie 970GTX met DX12 ik verwacht daarom ook een intro prijs van 250¤ maar deze zal snel zakken naar de 200¤ of gewoon een intro prijs van 200¤, Anders zullen weinig mensen deze kaart kopen omdat je voor iets meer de 970GTX hebt die zichzelf ook nog is makkelijk laat overklokken naar de stock GTX980 snelheid. De reden om dx12 compatibel videokaart te kopen is vanwege de 'grote' upgrade die dx12 met zich mee gaat brengen ('mantle' functies) en de eerste games met dx12 zullen hier door van profiteren met snelheids winst tot gevolg waarbij een oude videokaart alleen maar meer stookt om het zelfde te halen.
De gtx 970 is voor wat extra inderdaad ook een veel betere optie.
Inderdaad deze zou in mijn ogen niet meer dan 200 euro mogen kosten anders is het zonde om daar je geld aan uit te geven.
Alle Nvidia videokaarten vanaf Fermi (GTX 4xx) en alle AMD GCN videokaarten (vanaf HD7xxx) zijn compatibel met DirectX 12. Je hoeft daar dus geen Maxwell voor te hebben, je eigen artikel zegt het zelfs:
NVIDIA will support the DX12 API on all the DX11-class GPUs it has shipped - See more at: http://blogs.nvidia.com/b...-12/#sthash.vL9spXNh.dpuf
Een high end videokaart van de vorige generatie kopen heeft eigenlijk alleen als nadeel dat ze meer verbruiken en dat ze minder goed presteren bij hogere resoluties (en dat de prestaties in het algemeen lager zijn ook natuurlijk, maar je betaalt dan ook minder).
Die Direct X 11 kaarten zullen Direct X 12 draaien in een soort van compatibility mode, die Direct X 11.3 heet. Nieuwe features die uniek zijn voor Direct X 12 en nieuwe hardware vereisen zullen alleen op echte Direct X 12 kaarten werken. Daarvan zijn er op het moment maar 2 op de markt: de GTX 970 en GTX 980.

Zie bijv: http://techreport.com/new...eatures-for-next-gen-gpus

[Reactie gewijzigd door dusty-2011 op 14 januari 2015 15:44]

Lees je toch nog maar eens in over DirectX 12. DX12 is een multigenerationele API, zoals DX11 nu ook al is:
Direct3D 12 in turn will also be making use of feature levels, allowing developers to exploit the benefits of the low level nature of the API while being able to target multiple generations of hardware
(http://www.anandtech.com/...ect3d-113-12-new-features)

Oudere GPU's zullen wel degelijk DX12 ondersteunen, maar niet op alle feature levels. Als er nieuwe feature levels bij komen, moet een nieuwe GPU die ook ondersteunen.

Het dieper aanspreken zoals al gebeurt op consoles of met Mantle kan wel degelijk op oudere GPU's, ze kunnen alleen niet van de nieuwere features gebruik maken die toegevoegd worden met DX11.3 en DX12. Die nieuwe features zijn Rasterizer Ordered Views, Typed UAV Load, Volume Tiled Resources en Conservative Rasterization. Dat zijn maar een paar kleine features tegenover de veel grotere wijziging die DX12 is.

Wat jij zegt over die compatibility mode klopt dus helemaal niet, oudere videokaarten zullen net géén DirectX11.3 ondersteunen, dat doen alleen de nieuwe videokaarten. DX11 gaat verder ontwikkeld blijven worden omdat DX12 meer werk vereist van de ontwikkelaar en daar hebben kleine ontwikkelaars de mankracht of kennis niet voor.

Het is niet onaannemelijk dat er dus later nog versies van DX11 bij komen, en die gaan dan weer nieuwe GPU's vereisen. DX11 of DX12 volledig ondersteunen is dus altijd maar tijdelijk mogelijk.
Het klopt dat oudere kaarten ondersteund worden, alleen:
Unless DX12 contains optimizations for improving GPU performance in ways Mantle doesn’t address, old cards on modern software will only see very small increases.
Er zijn maar een aantal kaarten met hardwarematige DX12 ondersteuning, ik geef je alvast op papier aan dat de wezenlijke verschillen in performance van deze kaarten komen. Maar we zien het pas eind van dit jaar.
Een 290X doet ook bijna 300W, als deze 300W kaart ~40% sneller is is het prima wat mij betreft.
Zal AMD nu vanuit de productie van de PS4 en XBO chips ook kennis hebben opgedaan met nieuwe/andere technieken, die zij weer kunnen toepassen op hun R9 series?
Ik denk niet dat er veel kennis kan opgedaan worden van consoles die nu al aan de start van de desktop GPU markt hangen..

Enige wat ze nog met die console gpu kunnen doen is kleiner en energiezuiniger maken :)
Wat lag de lat laag deze gen, als je dat vergelijkt met de PS3 die zelf monstergame PCs kon evenaren voor 500euro in zijn tijd...

[Reactie gewijzigd door dieter87 op 14 januari 2015 13:40]

Wat lag de lat laag deze gen, als je dat vergelijkt met de PS3 die zelf monstergame PCs kon evenaren voor 500euro in zijn tijd...
Inderdaad een discrete GPU had wel gemogen.
Wat lag de lat laag deze gen, als je dat vergelijkt met de PS3 die zelf monstergame PCs kon evenaren voor 500euro in zijn tijd...
Dat de PS3 monsterpc's kon evenaren is absoluut niet waar. De Cell processor kon je moeilijk vergelijken met gewone x86 processors, dus daar was minder over geweten behalve de marketing die Sony er zelf rond verkocht (en als die Cell processor zo goed was, hadden ze die wel voor meer zaken gebruikt, maar dat viel uiteindelijk toch tegen). De GPU van de PS3 was een bijgeknipt GTX 7800GT, met maar de helft van de rekeneenheden, ook niet wereldschokkend dus. Het 256MB geheugen voor de GPU was wel redelijk courant voor die tijd, maar 256GB RAM geheugen was overduidelijk te weinig, game pc's hadden toen 1-2GB. Zoveel efficiënter is een console niet dat die met 4 keer minder geheugen kan, dan bleek al heel snel hoor.

Misschien dat de PS3 iets meer midrange hardware had dan de PS4 nu, maar monster game pc's evenaren kon die absoluut niet.
Bij mijn weten stond SLI nog in zijn kinderschoenen bij de 7000reeks en was de schaling dan ook om mee te lachen. Dus veel krachtigers bestond niet zonder hopen geld naar te tellen
De CELL processor is net de reden dat ze de vorige gen zo lang hebben kunnen rekken,
dat was echt een gigantische prestatie van IBM, het was verre van enkel een marketingverhaal hoor.

Een console was in 2006 dan ook quasi evensnel als een PC. Je moest echt al ruim 1000 euro uitgeven of meer voor met dezelfde pracht als een PS3 te spelen.
Vandaag ben je met 750euro rond en je kan nu ook rigs bouwen die gemakkelijk 5x de GPUkracht hebben van een console.
Vroeger was dat nog ondenkbaar.

[Reactie gewijzigd door dieter87 op 14 januari 2015 14:18]

De RSX GPU was een halve 7900GT, toen de PS3 hier verscheen (maart 2007) had Nvidia al de 8800GTX en 8800GTS uit, je had geen SLI nodig om een veelvoud van de rekenkracht van de RSX in je pc te hebben.

Cell is niet te vergelijken met x86 zoals ik al zei, in supercomputers is die wel wat toegepast geweest maar de PS3 is zo ongeveer het enige consumentenproduct dat er gebruik van gemaakt heeft. Dat zegt mij iets over het praktische nut ervan, misschien heel krachtig als er op een bepaalde manier voor geprogrammeerd wordt, maar anders niet. De PS3 werd sowieso veel meer gelimiteerd door het minimale geheugen, je processor mag nog zo snel zijn, als die maar 256MB kan wegschrijven, zit die daar toch constant op te wachten.

Dat jij nu beweert dat de PS3 destijds een ¤1000 pc evenaarde, vind ik meer nostalgie met een roze bril op, behalve de processor die je niet kunt vergelijken liepen de consoles gewoon van in het begin ook achter. Als er één ding voor de vorige generatie consoles gezegd kan worden, is het dat het blijkbaar heel moeilijk is om ze geëmuleerd te krijgen
In het artikel staat coreclock van 1753MHz, op de slide van Inno3D staat echter 1178MHz. Dat is nogal een verschil. Of is het een baseclock van 1178MHz met boost tot 1753MHz?
Ik had een beetje verwacht dat de 22nm gebakken werden die gtx 960. Of wachten ze nu expres mee? Tot ze weten wat amd gaat doen. Ik denk zelf dat die gtx 960 een domper word. Omdat amd al met zijn huidige 200serie al op mid range al 3gb vram heeft. Nu denk ik dat amd zelfs gb extra gaat geven. En de 390 en 390x 6gb kaarten uit brengen. Maarja misschien zit ik er wel hellemaal mis. Amd zeg niet zoveel over hun nieuwe gpu's als nvidia. Ik hoop zelf dat amd met de 380x uit komt met een 4gb vram en snelheid van de 290(x). En natuurlijk stukke zuiniger en prijs van een 270 euro zou mooi zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True