Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 113 reacties

Nvidia zou van plan zijn om een GeForce GTX 960 Ti uit te brengen, al is het nog onduidelijk of 'Ti' inderdaad de gebruikte toevoeging wordt. Er is al een oem-editie die Nvidia als Ti-versie zou kunnen uitbrengen.

Die oem-editie heeft tien streaming multiprocessors merkt WCCF Tech op. Dat is de GTX 960 OEM. Deze kaart heeft 1280 Cuda-cores en een 192bit-geheugenbus. De normale GTX 960 heeft een geheugenbus van 128bit en 1024-cores. De kaart zal gebaseerd zijn op de Maxwell 2.0-gpu-architectuur. Het is nog niet bekend wanneer de kaart uitkomt.

Het over het algemeen goed ingelichte Benchlife meldde eerder deze week dat de GTX 960 Ti waarschijnlijk tussen de 1280 en 1408 Cuda-cores zal hebben, waarmee deze kaart gepositioneerd wordt tussen de GTX 960 met 1024 Cuda-cores en de GTX 970 met 1664 Cuda-cores. De prijsklasse waarin de twee bestaande kaarten zitten, ligt tussen de 215 en 350 euro, daarmee lijkt het logisch dat de Ti daartussen gepositioneerd wordt, rond de 250-280 euro, om daarmee de concurrentie met de Radeon R9 380X aan te gaan.

nvidia geforce gtx 960

Moderatie-faq Wijzig weergave

Reacties (113)

Waarom nou een 192-bits geheugenbus, en niet gewoon 256..? (Zoals AMD)
Ik heb zelf de (MSI Gaming) R9 380 4GB, die heeft ook "gewoon" 256 bit..

Dit lijkt me eigenlijk een beetje een bottleneck voor dit soort kaarten, waarbij je hogere bussnelheden juist verwacht, en ook nodig kan hebben met veeleisende, recente titels zoals GTA V
Dat heeft te maken met de geheugen setup van de kaarten, en die verschilt per architectuur. Maxwell is er berucht om geworden met de 970 waarbij de bussnelheid tussen verschillende stukken geheugen varieert. Het is alleen niet ongebruikelijk bij Nvidia kaarten.

De GTX 660 en 660ti bijvoorbeeld, werkten allebei met een dergelijke setup waarbij ook een deel van het geheugen (niet verrassend: 0.5GB) over een gesegmenteerd deel van de bus liep en de rest van het geheugen toegang had tot 128 bit. Daar was het verschil tussen de twee 'delen' dus meer in verhouding als bij de GTX 970, maar ook daar was het merkbaar, vooral in SLI.

AMD hanteert dergelijke setups niet en knalt er altijd een volle geheugenbus in met gelijke 'delen', waardoor elke geheugenchip toegang heeft tot een gelijke hoeveelheid busbreedte. Dat is de reden dat AMD kaarten 'gewoon' 256 bit hebben.

Het verschil in de praktijk is echter zéér klein en in 90% van de 'use cases' niet eens merkbaar. Ik merkte het bijvoorbeeld bij de GTX 660 pas in SLI op volle kracht, een beetje stutter links en rechts. Ook bij de 970 is dat eigenlijk de enige situatie waarin stutter kan optreden.

Meer info, leuk leesvoer:
http://www.anandtech.com/...oring-memory-allocation/2

[Reactie gewijzigd door Vayra op 27 november 2015 17:43]

Het is nu nog niet vaak merkbaar, bedoel je te zeggen. Zodra er boven de 3.5Ghz aan videoram word benut ga je het wel degelijk merken. Gelukkig blijven veel games daar nu nog onder, maar hoelang nog ?
Nee, dat hangt echt van de game in kwestie af en hoe de driver ermee omspringt en het aantal voorbeelden is zéér schaars en gaat vaak over extreme use cases en SLI. Vergeet niet dat hele volksstammen na het 970 relletje als blinde kippen gingen roepen dat elke stutter op die kaart debet was aan die 0.5GB maar dat is natuurlijk niet correct, een GPU en systeem kan om talloze redenen stutter vertonen en zéker wanneer het op zijn tenen moet lopen.
Het hangt uiteraard van de game engine af, maar extreme settings zijn echt niet altijd nodig om het mee te maken:
http://www.pcgameshardwar.../Test-Benchmarks-1151602/
1080p zonder AA noem ik verre van extreem.

De GTX970 in sli draaien is btw vragen om "gratis frame time spikes":
http://i.imgur.com/mhOevfQ.png

[Reactie gewijzigd door Madrox op 28 november 2015 13:10]

Haha jezus, dat zijn lelijke spikes. Er zit in elk geval een regelmaat in :)

Dat Attila er zoveel last van had wist ik niet. Bedankt.

[Reactie gewijzigd door Vayra op 28 november 2015 15:46]

Dat met 660Ti in SLI kan ik beamen. Maar ook bij mindere load. Bijvoorbeeld onder Max Paine maakte ik het mee. Die game vraagt best nog al wat video geheugen en door deze setup merkte je af en toe gewoon frame drops. Dit was te zien doordat GPU load omlaag ging, waarschijnlijk doordat textures niet snel genoeg werden aangeboden.

Toen ik dit artikel las, dacht ik, goede vervanging van mijn 2x660Ti in SLI, maar bij het lezen van 192-bit geheugenbus dacht ik, laat maar.
Dan moeten er direct dubbel zoveel geheugenchips op gesoldeerd worden en die kosten centjes... kennelijk was dat voor de beoogde prijs niet logisch.
Maar dit is toch precies dezelfde prijsklasse als de R9 380X ..
Waarom kan het bij AMD dan wel :?
Nvidia gebruikt bij de Maxwell-generatie een lossless compressie bij het transporteren van textures en andere data over de geheugenbus.

Ook maken ze gebruik van een "groter" L2 cache.

[Reactie gewijzigd door kobus71 op 27 november 2015 17:30]

De R9 380x (gcn 1.2) heeft een vergelijkbare "lossless delta color compression" :P
Kan je niet vergelijken.
Color compressie techniek gebruikt AMD al een jaar of tien.
Alleen heeft AMD daar een nu een mooie naam aan gegeven.

"The end result is that GCN 1.2 introduces a new color compression method for its ROPs, to reduce the amount of memory bandwidth required for frame buffer operations. Color compression itself is relatively old – AMD has had color compression in some form for almost 10 years now – however GCN 1.2 iterates on this idea with a color compression method AMD is calling “lossless delta color compression.”
Lees anders hier:http://www.anandtech.com/...md-radeon-r9-285-review/3
AMD gebruikt een nieuwe delta color compression sinds de R9 285, zoals je zelf al aangeeft :p.

Ook AMD heeft gewoon een L2 cache op zijn chip zitten, deze is uit mijn hoofd niet kleiner dan die van Nvidia.
De precieze reden is natuurlijk moeilijk met zekerheid te bepalen, maar AMD is vaak bereid met lagere marges genoegen te nemen dan Nvidia. Ook zou het kunnen zijn dan AMD op andere punten lagere productiekosten heeft.
Dan vind ik toch dat AMD het op dat punt beter aanpakt..

Wellicht is 256 bij deze kaart wel niet nodig hoor, maar persoonlijk vind ik het tegenwoordig wel een 'must' voor GPU's boven de ¤200,-.

We zullen het zien wanneer deze gereviewed wordt.
De GTX 970 heeft een 224-bit bus. De R9 380X heeft een 256-bit bus. Toch presteert de GTX 970 beter. Je moet niet veel waarde hechten aan deze theoretische specs. Het gaat om de game-prestaties op 1080p en in mindere mate 1440p. 4K wordt door minder dan een 0.5% van de gamers gebruikt, dus dat lijkt me minder relevant dan 1080p. Zelfs 1440p zit volgens mij maar op 1-2% van de gamers.

[Reactie gewijzigd door dusty-2011 op 27 november 2015 21:14]

Maxwell gaat veel efficiënter om met de geheugenbandbreedte dan de vorige Kepler-architectuur en de GCN-architectuur van AMD, waardoor de bandbreedte beter benut wordt en dus niet zo groot moet zijn. Vandaar dat de bijvoorbeeld de GTX 980 toch een pak sneller is dan de GTX 780, ook al heeft deze laatste een hogere busbreedte (384 tov 256 bit) en zelfs meer Cuda-cores (2304 tov 2816).
Misschien zit hij met een 256 bus te dicht bij de 970 qua prestaties en dat wil je als bedrijf natuurlijk niet.
Daarnaast kun je de smallere geheugen bus compenseren met hogere clockspeeds.
Dus dan ga je als bedrijf kijken wat financieel interessanter is, een bredere geheugen bus of hogere clockspeeds.
Als het geheugen GDDR5 is, maakt de geheugenbandbreedte veel minder uit. Mooi voor de marketing natuurlijk, maar via GDDR5 volstaat zelfs 128bit.
Nee, de huidige GPU's worden enorm beperkt door de geheugenbandbreedte, zodanig dat je zelf kunt spreken van een geheugencrisis. Toen GDDR5 op de markt kwam, was dat een enorme sprong voorwaarts, doch sinds die tijd is GDDR5 maar beperkt in snelheid toegenomen.

De enige manier om toch meer geheugenbandbreedte te krijgen is de bus verder paralleliseren en dus bussen van 256, 384 en zelf 512 bit tegenwoordig gangbaar. Nadeel is dat dat voor een verdubbeling van de bus er dubbel zoveel geheugenchips op de kaart gesoldeert moet worden, wat de prijs opdrijft. Goedkope kaarten zitten daarom nog steeds op 128 bit en worden door die bus beperkt (de GPU's zelf zijn de afgelopen jaren wel krachtiger geworden).

HBM is een structurele oplossing voor de geheuegencrisis, we zitten dus hopelijk aan het eind ervan en wellicht is GDDR5 spoedig verleden tijd.

Waar je wel gelijk in hebt is dat GDDR5 een verschil van dag en nacht maakt met DDR3. Ultra low-end kaarten gebruiken nog steeds DDR3 en dat scheelt vaak toch wel een factor 3 of ziets in geheugenbandbreedte.
Maar als we met een geheugen crisis zitten. Waarom is de titan x dan nog steeds sneller als de fury-x? Lijkt mij ook een chip crisis dan.

/edit moet je hele verhaal lezen...

[Reactie gewijzigd door loki504 op 27 november 2015 17:59]

Ik denk dat architectuur hiermee te maken heeft. De titan is inderdaad sneller.aan de andere kant heb je wel een kaart van 1000 pegels tegenover en kaart van 700 pegels. Volgens mij zou je dan eigenlijk de 980ti met de fury x moeten vergelijken lijkt mij. Die zitten qua prijs dichter bij een als ik mij niet vergis.

Wat wel goed is aan nvidia is dat er nog wel wat rek in de chips zit voor overklokken. Dus die kunnen verschillen wegwerken of vergroten.
NOG niet. Maar we zitten ook nog steeds op dezelfde node.
Ik verwacht dat de volgende generatie (high-end) onvoldoende heeft aan GDDR5.
AMD gebruikt vaak nieuwe technieken op een oud, bekend, productieproces. Ik ver wacht dan ook dat Fury meer een probeersel is. Andersom doen ze het overigens ook, zie de 4770 destijds, oude chip, nieuw proces. Maar noot gelijk high-end niet geteste technieken op een nieuw proces.
Hoe bredere weg, hoe meer verkeer erlangs kan gaan. Anders ontstaat er file.
Geldt ook voor Grafische kaarten, door de kleine geheugenbandbreedte is er meer file dan grotere.
Huh? Je bent op de hoogte dat er nu enkel en alleen nog maar GDDR5 gebruikt word, en er nu een overstap gemaakt word naar HBM/GDDR5X ivm bandbreedte te kort? (AMD heeft dit reeds gedaan met Fury)
AMD is minder sterk qua geheugen goed optimaliseren. Nvidia weet met zijn comrpessie 30% meer te doen met hetzelfde. Ze hebben een algoritme gemaakt die gebruik maakt van het feit dat het grootste gedeelte van de pixels per frame onderling niet veranderen en kunnen deze dus in de framebuffer laten. Dit algoritme heeft er dus voor gezorgd dat Maxwell de 30% boost heeft weten te bereiken tegenover dezelfde formaat Kepler GPU's,
Ik weet niet of het 30% is, maar Nvidia lijkt het daar beter te doen, dat weet ik. Maar dat was ook niet wat HMC beweerde :).
Wat ik ermee bedoel is dat omdat AMD over wilt stappen naar een ander geheugen systeem dat het per definite komt omdat gDDR5 niet meer goed genoeg zou zijn.
En dat is ook zo. Nvidia stapt in de volgende generatie ook over.
Geruchten, er komt ook een nieuwe generatie gddr5 geheugen namelijk die dubbele bandbreedte gaat bieden. Feit blijft dat De Titan X bijvoorbeeld nu gewoon de beste kaart is en deze heeft gddr5. De Fury X heeft een megabandbreedte maar lijkt alsnog niks uit te maken.
Nvidia heeft zelf een presentatie gegeven over GDDR5x. Weinig gerucht aan lijkt me. DIe gaat geen dubbele bandbreedte bieden maar gewoon wat meer. HBM(2) kan nog veel meer bandbreedte bieden. Het HBM geheugen bij Fury draait ook maar op 500mhz, itt het doorsnee GDDR geheugen dat op 1.x ghz draait.
Het gaat allemaal alleen maar over een juiste balans. De Fury met HBM betaalt zich op dit moment nog niet uit omdat er gewoon niet méér GPU op die kaart gepropt kan worden. De die is al heel groot en er past eigenlijk gewoon niet meer op... En de Fury heeft daarmee niet genoeg GPU horsepower om die snelle HBM echt te benutten. Beetje weggegooid geld dus, maar leuk voor de e-peen.

De GTX 980ti, gecombineerd met GDDR5 en op Maxwell's arch, doet het beter omdat deze GPU zich beter laat klokken. HBM klokt niet lekker over en de performance winsten blijven achter vanwege een te laag aantal ROPs op de Fury. De GTX 980ti is wat dat betreft veel beter gebalanceerd en omdat het geheugen ook in dezelfde mate overklokbaar is als de core, krijg je er meer performance uit.

Het verhaal dat we naar HBM gaan 'omdat GDDR5 het niet meer redt' is grote onzin. Je kan altijd een nóg bredere bus bouwen. Nvidia bijvoorbeeld heeft nu met Maxwell weer gigantisch veel ruimte om GDDR5 op een bredere bus te zetten, zelfs nu zouden ze nog een Super Titan kunnen maken met 512 bit. Echter kost dat ook weer meer energie en dus is er minder TDP budget over voor een snellere GPU core. Dit is tegelijk de reden dat Maxwell het beter doet, het is zuiniger, en het is ook de reden dat AMD noodgedwongen naar HBM moest kijken want de busbreedte en het verbruik van de big chips zat al op het randje.

Nvidia heeft hier duidelijk de betere kaarten ondanks de ervaring die AMD nu opbouwt met HBM, want stel dat ze het huidige Maxwell naar een HBM variant porten, dan heb je zuinig geheugen en een zuinige core...

[Reactie gewijzigd door Vayra op 28 november 2015 09:37]

hbm heeft trouwens een geheugen bus van 1024 bit :P
dat zorgt voor de enorm hoge snelheden.
ben wel benieuwd wat dat voor de latency doet.
Die is alleen maar beter geworden, het geheugen zit op een interposer rechtstreeks naast de GPU.
http://www.anandtech.com/...radeon-r9-fury-x-review/3
ah oke direct geďntegreerd op de gpu das zeker interessant
Er zijn nog steeds kaartjes op de markt met DDR3 hoor.
Maar die zijn niet current gen, en recente games er mee spelen is ook geen optie.
Een GTX 960 is geen kreupele kaart hoor. Dat ligt dan toch echt aan jou. De kaart presteert op 1080p heel aardig. In de jaren 90 gamede men op 640x480 of lager. Een GTX 960 kan toch wel wat meer aan.
Schijnbaar valt het kwartje niet ......
Mijn GTX970M heeft ook een 192-bits geheugenbus.
Kan GTA5 gewoon goed draaien, op achterlijk hoge instellingen (1 2 3 niet welke preset dat dan is, maar zat op ~5gb VRAM gebruik, dus zal wel richting ultra gaan).

Ook geen last met andere game's, dus blijkbaar is 192bit gewoon voldoende voor huidige titels.
De huidige GTX 960 heeft een 128 bits geheugenbus, en daar is de 128 bits bus juist bij de 4GB versie goed zichtbaar. Het is een best heftige bottleneck.
Ja dat kun je wel, en wie ben jij om dat over hem te zeggen? Klaploper.
Rustig maar, zet er zo'n smiley achter voor een reden. En laptop gpu's en cpu's zijn een andere klasse dan desktop cpu's en gpu's.. dat is toch algemene kennis?
Dat was enigzins zo, maar het blijven gpus op dezelfde architectuur, dus zeerzeker vergelijkbaar. De 980m pakt iets van 80-90% dacht ik?
Zoveel ja, k onderschat ik de kaartjes flink dan.
Net als ik mijn gewone 960 heb aangeschaft..
Ben altijd wel een fan van de ti modellen.
Dan was dit sowieso niks geweest, want het is meer een GTX 970 LE dan een GTX 960 Ti. :p De videochip die in de kaart zal komen en ook in de GTX 960 OEM en GTX 970M zit is een GM204 chip net als in de GTX 980 en 970 alleen met nog meer uitgeschakeld. Het is dus geen opgevoerde GTX 960 maar een gecastreerde GTX 970. ;)
Ik neem aan dat je daarvoor afgaat op de veronderstelling dat de 192 bit geheugenbus niet van een GM206 chip (GTX 960) kan zijn want die is maar 128 bit groot?
Maar misschien is de GTX 960 Ti wel een volledig ingeschakelde GM206 chip en weten we nu pas dat de GTX 960 niet alleen uitgeschakelde Cuda-cores heeft, maar ook een afgenepen geheugenbus.
Heb je een bron hiervoor?
Ik lees hier http://techfrag.com/2015/...unch-in-the-coming-weeks/ een 256bit bus.
Ook voor de rest andere specs.
Ja gewoon nVidia, een GTX 960 is een volledig ingeschakelde GM206, kun je overal wel vinden.
En de GTX970 is weer een gecastreerde GTX980.
Het is evengoed een leuke kaart.

Al doet dat "gecastreerde" anders vermoeden LOL.
-------------------------------------------------------------------
Op Techfrag lees ik andere specs:The new card is said to equip a GPU codenamed GM204-200-KD which has 12 SM activated and thus offers 1536 Shader Processing Units, 96 TMUs and 64 ROPs. On the memory side, the card packs 2 GB of GDDR5 VRAM across a 256-bit interface. The memory clock operates at 1753MHz.

Bron:http://techfrag.com/2015/...unch-in-the-coming-weeks/

[Reactie gewijzigd door kobus71 op 27 november 2015 17:35]

Kan iemand mij uitleggen wat er met een gecastreerde GTX 980 bedoeld wordt. Houd dit gewoon in dat delen van de GPU worden uitgeschakeld. Waarom zouden ze dit doen, kost dan toch gewoon hetzelfde om te produceren?
Let niet op dat "gecastreerde".
Er zijn een aantal cores uitgeschakeld, dit kan ook door de productie komen.
Niet elke chip rolt perfect van de band.
Als er dan een deel van de chip niet werkt kunnen ze hem als nog verkopen.
Hoezo smerig, het beinvloed de prestaties niet en 960TI klinkt een stuk beter dan 970LE. LE heeft wat negatievere smaak dan TI en ik denk dat een gecastreerde 980/970 chip meer potentie heeft dan een 960 met wat hogere clocks.

Het enige dat deze kaart de nek kan omdraaien is de prijs.
En daarom doet NVIDIA dat al veel langer. Mijn vorige kaart was de 650ti... ook totaal andere kaart als de 650. SLI was wel uitgezet... misschien ook bij de 960ti ?
Ik denk net als bij de GTX 960 alleen SLI met 2 kaarten.
Dus met 1 SLI vingertje.
Dan zouden twee nog wel eens een concurent voor de 980ti kunnen zijn? En flink goedkoper... 2 x 960 4gb is al bijna zo snel als een 980, maar net iets goedkoper dan de 980. Performance per euro lijkt heilig in beide kampen.
Als ze met deze specs komen:http://techfrag.com/2015/...unch-in-the-coming-weeks/

Dan is de GTX960 ti ( 1536 cores) iets meer dan een halve GTX980ti ( 2816 cores).
Eigenlijk is het een halve Titan X ( 3072 cores )

Het hangt denk ik wel af van de resolutie waar je op gamed.
Op hogere resolutie zal een GTX980ti sneller zijn om het hogere vRAM. Maar op 1080p zou je best gelijk kunnen hebben.
Die grafische kaarten laten mij altijd juist passief gekoeld. :+

Maarja, zo gaat dat nou eenmaal altijd met electronica.
Kijk, hier zaten nou heel veel tweakers op te wachten! Eindelijk is het gat gedicht tussen de 970 en 960 :).
Ik zit eerder te wachten op Pascal & Artic islands.
Die gaan waarschijnlijk toch niet eerder komen dan dat TSMC of GloFo naar de 16/14nm kunnen gaan. En dat duurt nog wel even.

Tot die tijd is een midrange kaart tussen de 960 en de 970 bij Nvidia denk ik wel heel gewenst. Vooral omdat juist AMD in die pricerange redelijk wat keuze heeft.
Lijkt me heel stug, de 980 komt alweer uit zomer 2014, en nvidia houd meestal zo'n anderhalf jaar aan tussen generaties. Bovendien zitten ze nog steeds op 28nm dus een 20nm chip zou ook al een hele vooruitgang zijn, anders kunnen ze nog lang wachten...
20nm is enkel beschikbaar voor low-voltage chips zoals smartphones en dergelijke. 20nm high-voltage wordt misschien wel helemaal geskipt, omdat AMD en Nvidia hebben aangekondigd dat ze liever ietsje langer wachten (tot 2016) en dan gelijk de sprong naar 16nm maken. http://www.extremetech.co...ab-investment-report-says

Nvidia is daarin nou eenmaal volledig afhankelijk van de chipbakkers. Ze kunnen wel nieuwe architecturen op oude procedé's hangen maar dat gaat ook niet enorm veel verschil opleveren.
Bij AMD is het nog veel erger trouwens, het uitblijven van kleinere procedé's is misschien wel de hoofdreden waarom het zo slecht gaat met het bedrijf.
Het finfet process is toch behoorlijk vooruit gegaan dit jaar hoor, je bron is nog van begin 2015.

http://www.globalfoundrie...t-generation-amd-products
http://wccftech.com/tsmc-...-nvidia-pascal-gp100-gpu/
Dat klopt inderdaad. Op 14/16nm in ieder geval, zoals in je eigen bronnen staat.

20nm wordt toch echt overgeslagen (dat wisten ze al begin dit jaar, niet heel gek dat de bron van begin 2015 is :P) en daarom duurt het wat langer voordat Nvidia met nieuwe GPU's komt, daar reageerde ik ook op.
En daarom is het dus ook zo stil bij AMD: ze kunnen wel 28nm CPU's gaan bouwen maar die gaan het echt niet halen bij Intel's 14nm CPU's. Totdat TSMC/Glofo een productieprocede klaar heeft liggen voor AMD's CPU's en GPU's moeten ze wachten.
Shit net een Geforce GTX 960 4GB gekocht een paar maanden terug :-(

Als ik dit eerder wist had ik nog even gewacht.
Ze kunnen wel nieuwe architecturen op oude procedé's hangen maar dat gaat ook niet enorm veel verschil opleveren..
Wat is dat nu weer voor een rare opmerking. De GTX 680 was op 28 nm gebakken. De GTX 780 was op 28nm gebakken. De GTX 980 was op 28 nm gebakken. Ga je me nu vertellen dat een GTX 980 grofweg hetzelfde presteert als een GTX 680?? Dat is niet overeenkomstig de benchmarks: http://www.anandtech.com/bench/product/1348?vs=1351
Een GTX 980 is grofweg 2 keer zo snel als een GTX 680, en dat terwijl ze beide op 28 nm zijn gebakken. De performance per watt van de GTX 980 is ook veel beter.
De geschiedenis toont dus aan dat een nieuwe architectuur op een oud procedé veel verschil kan uitmaken.
Kijk ook eens naar Intel. Bij iedere introductie van een nieuw procedé worden in eerste instantie de chips vooral zuiniger en nauwelijks sneller. Als ze vervolgens een nieuwe architectuur leveren op dit "oude" procedé worden de processors ineens een stuk sneller. Ook dit geeft maar weer eens je ongelijk aan. De grootste prestatiewinsten volgen vaak uit nieuwe architecturen, terwijl nieuwe productieprocedé's vooral een lager verbruik en daardoor betere performance per watt opleveren. Al laat Nvidia met de GTX 9xx reeks zien dat een betere performance per watt verkrijgen heel goed mogelijk is met een nieuwe architectuur op een oud procedé.

Het is ook bepaald niet zo dat Nvidia's 28 nm chips zijn uitontwikkeld. Stel het 16 nm proces zou jaren uitstel krijgen (zeer onwaarschijnlijk, maar puur hypothetisch) dan valt er nog genoeg te verbeteren. Waar zijn Nvidia's 28 nm chips met HBM2 geheugen bijvoorbeeld?

[Reactie gewijzigd door dusty-2011 op 27 november 2015 21:09]

Ik ook. Maar in een aantal topics waren er heel wat mensen die graag hadden gezien dat het gat tussen de 970 en 960, werd opgevuld.
Eindelijk eens een Nvidia-oplossing om het gat tussen 960 en 970 te dichten.
De 380x is natuurlijk net uit, maar voor de liefhebbers van het Groene Kamp is dat natuurlijk niets. Bovendien is de 380x nog niet goed beschikbaar.

Zou mooi zijn als de 960 Ti behalve zijn specificaties ook qua prestaties mooi tussen de 960 en 970 gaat zitten. Ik denk dat een hoop mensen die binnenkort een nieuwe PC gaan samenstellen daar blij van zullen worden. :)
De R380X is nauwelijks sneller dan de "Factory OC" GTX960.

Kijk er de hw.info review maar op na. Op reference snelheden lijkt het verschil groot, maar zodra je kijkt naar wat je als consument echt kunt kopen is het gat miniem te noemen.

* mompelt iets over testen met referentie kaarten en dikke onzin
Ik heb de review nogmaals doorgenomen en weet eerlijk gezegd niet waar je daarop baseert. De R380X passeert de 970/780 en 290(x) in GTA 1080P ultra. Het gaat de 780 voorbij op The Witcher III (een Nvidia geoptimaliseerde game) op dezelfde resolutie. Er wordt vaak minimaal 6 tot 10+ FPS meer behaald t.o.v. de 960. Alleen een hele zware OC kan de gat een beetje vullen, maar enorm zal dat ook niet wezen (en de 380X kan je ook weer verder overclocken). Ik denk dat het een wijze keuze is om met de 960Ti te gaan, gezien de 380X (volgens de benchmarkresultaten van hw.info) toch aardig sterk is.

Wel kleine notitie: De benchmarkresultaten van de 380X verschillen toch behoorlijk met elkaar (BF4 bijv. bij Anandtec).

Ach ja, buiten dit hele gebeuren, iedereen inmiddels wel dat de beste keuze is om een jaar te wachten tot de echte nieuwe chips er uit zijn...
Good job, je hebt precies de reference kaart resultaten gelezen. Die waarvan ik juist al zei dat ze een vertekenend beeld laten zien.. ;)

Kijk eens op pagina 22.

Plotseling nog maar 3 tot 6 fps verschil _/-\o_
Excuses, de laatste pagina's niet gezien waar dit wordt vergeleken.
Dan moet je ook Factory OC kijken naar de 380X, reference AMD kaarten zijn veel minder populair dan van andere fabrikanten ;)
Heb je de review uberhaupt gelezen?

http://nl.hardware.info/r...nchmarks-asus-en-sapphire

Dit zijn factory OC kaarten tegen elkaar. Dus zowel de R380X als de GTX960.

Waar veel mensen echter naar kaarten zijn vergelijkingen tussen de reference kaarten. Dat is krom.

In een mooie analogie:

Volkswagen verkoopt je een auto waarvan zij zeggen: "Deze doet 200km/u.
Skoda verkoopt je een auto en zegt:" Deze doet 180km/u".

In een fabriekstest blijken deze waardes prima te kloppen.

Als je bij een dealer langsgaat (dus de AIB's voor grafische kaarten), blijkt de Skoda opeens altijd geleverd te worden op een manier dat ie 210 haalt.
De Volkswagen wordt ook niet helemaal hetzelfde geleverd, en haalt vaak 215.

Opeens liggen de auto's in de realiteit een stuk dichter bij elkaar dan de fabriek beweert...
Maar uit deze test blijkt dat de 380x zwaar onder de 970 zit?
Keihard offtopic, maar heb jij wel goed gelezen?. Ik begreep je inderdaad niet, ik meende dat je de review bedoelde en niet een enkele pagina.
Aangezien er van de 380X geen referentiekaart bestaat, hebben we de Sapphire teruggeklokt naar de door AMD aangegeven referentiesnelheid.
Uit de review die jij aanhaalt.

[Reactie gewijzigd door r100 op 27 november 2015 21:02]

Deze GPU met 3GB ram zit in de Zotac SN/NEN 970.
offtopic:
helaas kan ik die in west europa nog niet kopen :(

[Reactie gewijzigd door eL_Jay op 27 november 2015 16:17]

Volgens mij had dit eerder de standaard 960 moeten worden (en voor diens prijs)...
Er zijn 970's voor 340 euro verkrijgbaar, minder als je naar tweedehans markt kijkt en volgens mij heb je dan voor een beetje meer geld wel veel meer videokaart.

Ik heb nu een 960 4GB, omdat ik die kon bemachtigen voor erg weinig, maar ik zag eigenlijk nooit de waarde van de 960 aangezien hij iets van 250 euro kostte.
Dat is weliswaar 100 euro minder dan de 970 maar de prestatie achteruitgang was veel zwaarder dan die 100 euro zou suggereren, verhoudingsgewijs. Dit maakte m.i. de 970 economisch gezien gewoon de logische keuze als je een nieuwe videokaart ging kopen die je weer even verder moest brengen. (uitgaande van standaard retail prijzen)

[Reactie gewijzigd door Alpha Bootis op 27 november 2015 16:18]

Hij kost toch echt nog geen 200 euro;
pricewatch: Gigabyte GV-N960IXOC-2GD

Dus voor 396 euro heb je er twee in SLi, 36 euro meer als een 970 heb je de power vsn een 980 in veel games, als je net die games speelt en in FHD ben je beter af als t op bang for ur buck aankomt...
Ik zit zelf nog op een 650 Ti Boost, die heel anders is als een 650 Ti, die weer volop anders dan de 650. Toch wel vreemd hoe met die nummering omgegaan wordt, in beide kampen. Alleen deTweakers weten het nog. Aantal Cuda's, geheugentype, bandbreedte in bits, etc.

Toch wel vreemd. Voor de gemiddelde consument echt een doolhof. nVidia gebruikt hier het Ti label om de kaart beter te doen lijken, en dat is het ook wel, maar met zoveel series (en varianten erop) heeft de gemiddelde consument er weinig aan.

Niche markt voor gamers dus, voor maximale bang for buck geldt.
Eens, maar gamers zijn toch ook de enige mensen die naar die videokaarten kijken?
Heck, ik ben een gamer en het enige wat mij boeit op het moment dat ik een nieuwe videokaart koop is welke kaart mij voor een x bedrag de beste ervaring gaat geven, op dat specifieke moment dat ik een nieuwe videokaart wil of nodig heb.
En dan kijk ik persoonlijk niet eens naar een spreadsheet met cuda cores maar gewoon naar benchmarkresultaten afgezet tegen de aanschafprijs.
ik wil over een tijdje een game pc bouwen, en mijn vraag is kan ik dan beter voor de 960TI of 970 gaan?
Ligt er natuurlijk aan wat je wil spelen, wat je budget is en wat je verwachtingen zijn. We hoeven jou niet te vertellen dat een 970 alsnog beter zal presteren dan een 960TI.
de GTX970 zal nog altijd sneller zijn dan de GTX960Ti.
dus het ligt aan het budget, persoonlijk zou ik gewoon voor AMD gaan. :)
Mijn glazen bol zegt dat je beter voor een GTX980TI kan gaan dan ben je op de toekomst voorbereid.

Ontopic:
Zou Nvidia een nieuwe chip hebben gemaakt of pakken ze gewoon een verder gecastreerde GTX970? Het is in ieder geval slim dat ze voor een 192-bits bus zijn gegaan, 128-bits was hoogstwaarschijnlijk een bottleneck geweest.
Nvidia has a gap in their price point lineup and according to the source, is preparing to fill it with a new edition to the family – probably based on the GM204 die (cut down).
wccftech denkt er in ieder geval hetzelfde over.

Maar nu is de grote vraag, krijgen we weer hetzelfde verhaal als met de GTX970 dat er een stuk snel geheugen is en een stuk heel traag geheugen. Zouden ze dat ook direct bekend maken of gaan ze weer voor de "marketing fout".
Hmm ik heb geen glazen bol nodig om te zien dat een 980Ti beter op de toekomst voorbereid is dan een 960(Ti)/970 hoor ;).
Beter wachten op de volgende generatie kaarten...
Als je echt voor Nvidia wilt gaan, waarschijnlijk de 970. Betere prestaties overall. (en voor je geld)
Hangt van je budget af natuurlijk.
Je kunt beter een topic aanmaken in het Desktop Aankoopadvies.
thx, ik weet dat het hier ook eigenlijk niet thuis hoort
ligt aan hoe lang 'een tijdje' is maar als dat meer als als een maand of 3 dan zou ik de zomer afwachten en dan een 14/16nm kaart kopen. alles wat je daarvoor koopt is met die generatie gelijk compleet achterhaalt.
Goh de 960ti... wie had dat nou verwacht? (zie de 380x introductie)
De 380x ligt dichter in de buurt van de geforce 960 4gb dan bij de geforce 970. Als de 960ti niet zo'n slurper is als de AMD kaarten en dichter bij de prestaties van de 970 ligt zou deze het nog wel eens beter kunnen gaan doen dan de 380x
En het blijft dus belangrijk dat AMD zo nu en dan iets uitbrengt zodat NVIDIA weer met net iets beters komt. Iets net wat lagere FPS , maar dan wel zuiniger. NVIDIA echt pijn doen kunnen ze toch niet... alleen wakker houden.

[Reactie gewijzigd door AtariXLfanboy op 27 november 2015 16:24]

Volgens mij hebben die gasten nog meer moeite om precies een ontwerp te maken dat qua snelheid in het juiste prijs-segmentje uitkomt, dan dat ze puur gaan voor betere prestaties....jammer die marketing doelstellingen..
Lijkt me een heel logisch besluit om het gat tussen de 960 en 970 op te vullen en de 280x/380x concurrentie te geven in die prijsrange.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True