Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

Geforce GTX 580: Nvidia terug van weggeweest?

Inleiding

Er doen al tijden geruchten over een GTX 580 de ronde. Zo verschenen er benchmarks van een GF100-gpu waarvan alle 512 Cuda-cores geactiveerd waren; de GF100 die de GTX 480 aandrijft, heeft er maar 480. Eind oktober werd duidelijk dat de nieuwe videokaart de naam GTX 580 zou krijgen en niet veel later lagen ook de exacte specificaties op straat. De GTX 580 bleek inderdaad te kunnen beschikken over 512 Cuda-cores, die tien procent hoger geklokt zijn dan bij de GTX 480.

We hebben ons laten vertellen dat de videokaarten al vanaf volgende week daadwerkelijk te koop zijn, maar Nvidia heeft vrij weinig reviewsamples uitgedeeld. Nvidia zou het aantal klein hebben gehouden om de kans op het voortijdige publicaties klein te houden. Daarom ook mochten Nvidia's partners pas op 8 november websites inlichten, en de dag erna mochten de kaarten pas naar de pers worden verstuurd. Asus bleek gelukkig bereid om Tweakers.net een exemplaar uit te lenen, dat we in allerijl aan een serie benchmarks hebben onderworpen. We bespreken verder kort de verschillen met de GTX 480 en we kijken ook even naar het energieverbruik en de geluidsproductie.

In Nederland zouden er bij de lancering tussen de 100 en 200 videokaarten voor de handel beschikbaar zijn, wat in vergelijking met andere introducties een kleine maar substantiële hoeveelheid is. Toch kunnen we tot op zekere hoogte spreken van een paper launch, die vooral bedoeld is om AMD de loef af te steken. AMD komt als alles goed gaat aan het einde van november met zijn nieuwe high-end gpu's en Nvidia wil natuurlijk voorkomen dat alle aandacht naar de concurrent gaat. Pas als AMD zijn nieuwe high-end gpu's heeft uitgebracht, zal het duidelijk worden of het Nvidia is gelukt om vriend en vijand te verrassen.

GTX 580 in detail

We beginnen met een kijkje onder de motorkap van de GTX 580. De kaart blijkt te zijn opgetrokken rond een GF110-chip aan, en dus geen GF100-chip, zoals die voor de GTX 480 en GTX 470 wordt gebruikt. De GF110 is geen compleet nieuwe chip, maar ten opzichte van de GF100 heeft Nvidia de nodige wijzigingen doorgevoerd om de prestaties te verbeteren en het verbruik terug te dringen.

We beginnen maar meteen met the good stuff. De GF110 heeft een kloksnelheid van 772MHz en beschikt, zoals gezegd, over 512 Cuda-cores. De architectuur werd wel aangepast door Nvidia, maar de bouwblokken zijn intact gebleven. Dat betekent dat er zestien Streaming Multiprocessors zijn, met elk 32 Cuda-cores, 4 texture units en een polymorph engine. Op basis van de hogere kloksnelheid en het grotere aantal Cuda-cores kunnen we een snelheidswinst verwachten van ongeveer 12 procent.

De GTX 580 beschikt nog steeds over een 384bit-geheugenbus in combinatie met 1,5GB aan gddr5-geheugen. Per 64bit-geheugencontroller zijn er 8 raster operating units aanwezig, goed voor een totaal van 48 rops. Het geheugen kreeg verder een kloksnelheid van 4000MHz, en dat is acht procent meer dan de 3696MHz van de GTX 480.

Nvidia heeft echter inmiddels laten zien dat er alleen met architecturele aanpassingen al een snelheidswinst is behaald van tussen de vijf en tien procent. Ze gebruikten daarvoor een GTX 580 met 480 geactiveerde Cuda-cores en een op 700MHz geklokte gpu - met andere woorden, een GTX 580 met dezelfde specificaties als de GTX 480. Met een volledige geactiveerde GTX 580 op 772MHz zal de prestatiewinst uiteraard hoger uitpakken.

Nvidia GTX 580 slides Nvidia GTX 580 slides

De snelheidswinst wordt vermoedelijk voornamelijk behaald door de texture filtering units, die per kloktik 4 pixels van texture filtering kunnen voorzien. De GTX 480 kan maar 2 pixels per kloktik bewerken. De benchmarks die Nvidia liet zien, werden gedraaid op 2560x1600 pixels, met 8xAA en 16xAF. Of de winst ook merkbaar is tijdens onze benchmarks, waar veelal 4xAA wordt toegepast, valt nog te bezien.

Energieverbruik en warmteproductie

Misschien nog wel belangrijker dan betere prestaties was Nvidia's streven om het energieverbruik terug te dringen. Bij de GF100-chip had Nvidia heel wat problemen met TSMC's 40nm-procedé, maar uiteraard heeft het bedrijf van zijn fouten geleerd. Het aantal transistors bleef hangen rond de 3 miljard, maar het soort transistors werd her en der wel aangepast. Hierdoor kon de lekstroom teruggebracht worden, terwijl er op andere plekken hogere kloksnelheden mogelijk zijn.

De GTX 480 zou een tdp van 250W hebben, maar het werkelijke verbruik bleek makkelijk richting de 300W te krijgen. De GTX 580 krijgt van Nvidia een tdp mee van 244W, minder dus dan de GTX 480, ondanks meer rekeneenheden en een hogere kloksnelheid. Nvidia voegde daar nog de opmerking aan toe dat er twee chipjes op het pcb zitten die de spanning en de stroomsterkte op de zes- en achtpins-connectors in de gaten houdt. Als er meer dan 300W wordt gebruikt, worden de kloksnelheden aangepast, wat voornamelijk zou gebeuren bij programma's zoals Furmark en OCCT.

Nvidia GTX 580 slides

Verder heeft Nvidia de koeler, mede op verzoek van oem's, radicaal gewijzigd: de GTX 580 heeft geen heatpipes, maar een zogeheten vapor chamber. De heatsink op de gpu bevat een grote, met vloeistof gevulde kamer. De vloeistof warmt aan de gpu-kant op, verdampt, en door condensatie aan de andere kant wordt de warmte aan aluminium vinnen doorgegeven. Dit zou effectiever dan een heatpipesysteem zijn en moet zowel lagere temperaturen als een lagere geluidsproductie mogelijk maken.

Nvidia GTX 580 slides Nvidia GTX 580 Slides

GF110 in cijfertjes

GTX 580 GTX480 GTX470
Videochip GF110 GF100 GF100
Transistors 3M 3,2M 3,2M
Diesize ~ 529mm² 529mm²
Procedé 40nm 40nm 40nm
Technische Specificaties
Cuda-cores 512 480 448
ROP's 48 48 40
Texture units 64 60 56
Kloksnelheid 772/1544MHz 700/1401MHz 607/1215Mhz
Geheugenbus 384bit 384bit 320bit
Geheugen 1536MB gddr5 1536MB gddr5 1280MB gddr5
Geheugensnelheid 4001MHz 3696MHz 3348Mhz
TDP 244W 250W 215W
Lengte 26,67cm 26,67cm 24,13cm
Prijs 479 euro ~360 euro ~ 220 euro

Testsysteem

Het testsysteem werd opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken en als er bètadrivers zijn gebruikt, vermelden we dat. Bij deze review werden de AMD-kaarten met versie 10.10 aangestuurd, terwijl de Nvidia-kaarten van versie 261.00 van de Geforce-drivers gebruik maakten.

Als benchmarks dienden Call of Duty: Modern Warfare 2, Far Cry 2, Stalker: Call of Prippyat, DiRT 2, Alien vs Predator, Dawn of War II: Chaos Rising en Battlefield: Bad Company 2. Ook van deze games werden, voor zover beschikbaar, alle patches geïnstalleerd. Waar mogelijk werden de interne benchmarks van de games gebruikt.

Testsysteem
Moederbord Asus Rampage Extreme III
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 80GB Intel Postville
Videokaarten

Asus GTX 470
Asus GTX 480
HIS HD 5850
AMD HD 5870
Sapphire HD 5970
XFX HD 6870
XFX HD 6850
Asus GTX 580

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit systeem zal bij het uitvoeren van de benchmarks dan ook niet snel een bottleneck zijn. Ook biedt deze opzet de mogelijkheid om videokaarten in sli- en CrossFire-modus te draaien.

Dell U3011Elke game is getest op de resoluties 1920x1200, terwijl Dell Tweakers.net voorzag van een U3011, waarmee we in alle luxe ook op 2560x1600 pixels kunnen testen. De instellingen verschillen per game en worden daarom telkens vermeld. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige in-game-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX. Bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multisampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancymodus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

Furmark & Vantage

Met synthetische benchmarks proberen we een indicatie te krijgen van de prestaties. Voor overklokkers is deze pagina mogelijk interessant om te ontdekken of de GTX 580 in staat is om wereldrecords te verbeteren; na de release van nieuwe high-end kaarten worden immers met regelmaat records aangescherpt.

3DMark Vantage
GPUScore (Punten)
HD 5970
********
26.087
GTX 580
********
24.680
HD 6850 X2
*******
23.464
GTX 460 1GB SLI
*******
21.718
GTX 480
******
19.030
HD 5870
******
18.365
HD 6870
*****
15.969
HD 5850
*****
15.652
GTX 470
*****
15.228

We zien dat de GTX 580 maar liefst 30 procent sneller is dan de GTX 480. Dat is een grote vooruitgang, zeker als in aanmerking wordt genomen dat de kloksnelheid maar tien procent is verhoogd en er slechts 32 extra Cuda-cores zijn. De GTX 580 moet de HD 5970 nog wel voor zich dulden.

Unigine Heaven 2.0 - normal
GPUScore (Punten)
GTX 580
********
1.488
HD 6850 X2
********
1.415
GTX 460 1GB SLI
*******
1.352
HD 5970
*******
1.317
GTX 480
*******
1.220
GTX 470
*****
977
HD 5870
****
816
HD 6870
****
811
GTX 460 1GB
****
767
HD 5850
****
711

In de Heaven-benchmark van Unigine is de GTX 580 heer en meester, door zelfs twee HD 6850's af te troeven. Ten opzichte van de GTX 480 is de videokaart 22 procent sneller.

DiRT 2

DiRT 2 - 1920x1200 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
78,6 / 92,2
GTX 460 1GB SLI
******
+
**
72,3 / 90,0
GTX 580
******
+
*
73,8 / 87,3
HD 6850 X2
******
+
*
72,4 / 82,4
GTX 480
*****
+
*
56,5 / 71,0
HD 5870
*****
+
*
53,1 / 64,8
GTX 470
****
+
*
45,4 / 56,9
HD 5850
****
+
*
45,7 / 55,8
HD 6870
****
+
*
46,3 / 52,6

In DiRT 2 is de GTX 580 fors sneller dan zijn voorganger, met 28 procent hogere minima dan de GTX 480. De HD 5970 en twee GTX 460 1GB-kaarten in sli zijn echter sneller.

DiRT 2 - 2560x1600 - DX11 - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*******
+
*
59,0 / 67,3
GTX 460 1GB SLI
******
+
**
48,9 / 63,6
GTX 580
******
+
**
49,4 / 61,9
HD 6850 X2
******
+
*
51,2 / 61,2
HD 5870
*****
+
*
38,8 / 47,3
GTX 480
****
+
*
35,5 / 46,7
HD 5850
****
+
*
32,1 / 41,4
GTX 470
****
+
*
31,0 / 38,9
HD 6870
****
+
*
31,5 / 38,8

Op 2560x1600 wint de GTX 580 nog meer terrein ten opzichte van de GTX 480. De HD 5970 blijft echter sneller en het tweetal GTX 460's in sli kan de GTX 580 goed bijhouden.

Stalker: Call of Pripyat

Stalker: CoP - 1920x1200 - DX11 - max - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
38,3 / 59,9
GTX 580
*****
+
***
37,3 / 55,5
HD 6850 X2
****
+
***
29,3 / 47,4
GTX 480
****
+
**
32,1 / 46,8
GTX 460 1GB SLI
****
+
***
27,5 / 46,0
HD 5870
****
+
**
36,9 / 37,7
GTX 470
***
+
**
26,7 / 37,6
HD 5850
***
+
*
22,3 / 30,5
HD 6870
***
+
*
23,1 / 28,9

In Stalker: CoP is de GTX 580 weer overtuigend sneller dan de GTX 480. De minimale en gemiddelde framerates zijn tussen 15 en 18 procent hoger. De HD 5970 heeft hier maar een kleine voorsprong.

Stalker: CoP - 2560x1600 - DX11 - max - 0xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
26,5 / 38,1
GTX 580
*****
+
**
24,9 / 35,3
GTX 480
****
+
**
21,2 / 29,5
HD 6850 X2
****
+
**
18,3 / 28,3
GTX 460 1GB SLI
****
+
**
18,2 / 24,9
HD 5870
****
+
*
19,1 / 23,9
GTX 470
****
+
*
17,1 / 23,8
HD 5850
***
+
*
14,9 / 18,2
HD 6870
***
+
*
15,0 / 18,0

Op 2560x1600 weet de GTX 580 zijn voorsprong op zijn voorganger vast te houden, maar niet uit te breiden. Omdat de nieuwe kaart onder andere over meer geheugenbandbreedte beschikt, hadden we dat wel verwacht

Alien vs. Predator

Alien vs. Predator - 1920x1200 - High - 0xAA
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
53,0 / 83,6
HD 6850 X2
****
+
***
42,0 / 69,3
GTX 580
***
+
***
36,0 / 63,1
GTX 480
***
+
***
34,0 / 60,1
GTX 460 1GB SLI
***
+
***
34,0 / 58,8
HD 5870
***
+
**
33,5 / 53,7
GTX 470
**
+
**
23,5 / 42,3
HD 6870
**
+
**
25,0 / 41,4
HD 5850
**
+
**
24,7 / 41,2

Vreemd genoeg is de GTX 580 in AvP maar een paar procent sneller dan de GTX 480. Alleen al de hogere kloksnelheid zou voor een forsere voorsprong moeten zorgen, maar ook de extra Cuda-cores en de extra polymorph engine zouden het verschil moeten vergroten.

Alien vs. Predator - 2560x1600 - High - 0xAA
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
30,6 / 51,7
HD 6850 X2
****
+
***
24,7 / 42,7
GTX 580
***
+
***
22,0 / 39,9
GTX 460 1GB SLI
***
+
***
20,3 / 36,9
GTX 480
***
+
***
20,0 / 36,8
HD 5870
***
+
**
19,0 / 33,0
GTX 470
**
+
**
14,0 / 26,1
HD 6870
**
+
**
13,0 / 25,6
HD 5850
**
+
**
13,7 / 25,4

Ook op 2560x1600 kan de GTX 580 geen indruk maken. Zelfs twee HD 6850's zijn de GTX 580 duidelijk te snel af.

Far Cry 2

Far Cry 2 - 1920x1200 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 6850 X2
******
+
**
91,6 / 119,2
GTX 460 1GB SLI
******
+
**
95,4 / 118,8
HD 5970
******
+
**
84,6 / 109,8
GTX 580
******
+
**
86,9 / 108,8
GTX 480
*****
+
*
73,6 / 93,4
HD 5870
***
+
*
49,8 / 68,3
HD 6870
***
+
*
48,3 / 64,7
HD 5850
***
+
*
43,5 / 59,9

De Far Cry 2-benchmark begint oud te worden en op 1920x1200 hebben de videokaarten er dan ook weinig moeite mee. De minima van de GTX 580 liggen 18 procent hoger dan bij de GTX 480, terwijl de gemiddelde framerate 16 procent beter is.

Far Cry 2 - 2560x1600 - Ultra high - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 6850 X2
******
+
**
65,0 / 85,7
GTX 460 1GB SLI
******
+
**
62,7 / 83,7
HD 5970
******
+
**
61,6 / 81,4
GTX 580
*****
+
**
57,7 / 75,7
GTX 480
****
+
**
49,0 / 63,8
GTX 470
****
+
*
38,9 / 51,1
HD 5870
***
+
*
33,7 / 47,9
HD 6870
***
+
*
33,7 / 46,0
HD 5850
**
+
*
27,4 / 40,3

De GTX 580 is wederom ruim 15 procent sneller dan de GTX 480, maar lijkt wel iets in te leveren ten opzichte van onder andere de HD 5970.

Bad Company 2

Bad Company 2 - 1920x1200 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
******
+
**
61,1 / 83,2
HD 6850 X2
*****
+
**
57,5 / 78,5
GTX 580
******
+
*
62,0 / 73,3
GTX 460 1GB SLI
*****
+
**
54,5 / 69,1
GTX 480
*****
+
*
48,3 / 59,2
HD 5870
***
+
**
37,0 / 52,1
GTX 470
****
+
*
38,3 / 48,1
HD 5850
***
+
*
33,2 / 45,8
HD 6870
***
+
*
33,3 / 44,2

In Bad Company is de GTX 580 ruwweg 25 procent sneller dan de GTX 480, wat zonder meer indrukwekkend is. Opvallend is dat de kaart zelfs een betere minimale framerate heeft dan de HD 5970, die nog wel een hoger gemiddelde op de klok zet.

Bad Company 2 - 2560x1600 - max - 4xAA/16xAF
GPUMinimum » Gemiddelde Score (fps)
HD 5970
*****
+
***
39,0 / 57,5
GTX 460 1GB SLI
****
+
**
32,3 / 46,1
GTX 580
*****
+
**
34,4 / 45,8
GTX 480
****
+
*
29,7 / 38,2
HD 5870
***
+
**
25,3 / 36,3
GTX 470
***
+
*
25,7 / 31,0
HD 6870
***
+
*
22,7 / 30,2
HD 5850
***
+
**
19,5 / 29,7

Op 2560x1600 neemt het verschil tussen de GTX 580 en de GTX 480 af tot ongeveer 18 procent, wat nog steeds het vermelden waard is. Wel moet de GTX 580 nu ook bij de minimale framerates zijn meerdere in de HD 5970 erkennen.

Energieverbruik

Nvidia zou hard gewerkt hebben om het energieverbruik terug te dringen, door op bepaalde plekken gebruik te maken van andere transistors. Op die manier zou de lekstroom lager liggen, zodat er ook minder spanning nodig is om dezelfde kloksnelheden te halen.

Zoals eerder gezegd heeft Nvidia bovendien twee chipjes geïmplementeerd die extreem hoog energiegebruik tegengaan. Met name bij programma's als Furmark en OCCT wordt deze vermogensbegrenzing ingeschakeld, die onder andere kloksnelheden omlaag kan brengen.

Zoals gebruikelijk hanteren we Furmark om het verbruik te meten. Volgens Nvidia is Furmark geen goede manier om het verbruik te meten, omdat dergelijke waarden in spellen niet gehaald worden. Ter indicatie: tijdens het draaien van de diverse benchmarks zagen we regelmatig waarden van meer dan 390W langskomen. Net als in de onderstaande tabellen is dat het verbruik van het gehele systeem, gemeten aan het stopcontact. Wij gebruiken een oudere versie van Furmark, waar de chipjes niet bij ingrijpen.

Vermogensopname systeem - idle
Watt (minder is beter)
HD 5970
**********
136
GTX 480
**********
131
HD 6850 X2
*********
129
HD 5850
*********
129
GTX 470
*********
125
HD 5870
*********
125
GTX 580
*********
120
HD 6850
*********
120
HD 6870
*********
120

Wanneer enkel de desktop wordt weergegeven, verstookt de GTX 580 amper energie. Met de GF110, waarvan de die ruim tweemaal zo groot is als de Barts-chip van de HD 6870 en HD 6850, blijkt ons testsysteem 120W te verbruiken en er zijn maar twee kaarten, beide van ATI, die deze waarde ook weten te bereiken.

Vermogensopname systeem - load
Watt (minder is beter)
GTX 480
**********
427
GTX 580
**********
422
HD 5970
**********
412
HD 6850 X2
*********
376
GTX 470
********
337
HD 5870
********
334
HD 5850
*******
305
HD 6870
*******
286
HD 6850
******
250

Onder load zien we dat de GTX 580 een grootverbruiker wordt. Voor zover wij konden zien werden de kloksnelheden bij deze test niet aangepast. Uiteindelijk zorgt Furmark er dus voor dat het systeem 30W meer verbruikt dan wanneer er 'gewoon' wordt gegamed. Het is echter een prestatie dat de GTX 580, die een stuk sneller is dan de GTX 480, toch zuiniger is.

Geluidsproductie

Naast het energieverbruik werd ook de geluidsproductie op een afstand van 20cm gemeten. In een gesloten behuizing valt het geluid natuurlijk altijd anders uit, maar het doel van deze test is niet zozeer het geven van absolute waarden, maar het maken van een vergelijking met de concurrenten. Daarbij zou de koeler van de GTX 580 beter moeten presteren en dus minder geluid moeten produceren, dankzij de vapor-chamber.

Geluidsproductie systeem - idle
Geluidsproductie (dBA)
GTX 480
**********
42,4
HD 6850 X2
**********
42,2
HD 6850
**********
42,0
HD 6870
**********
42,0
GTX 470
**********
40,5
HD 5970
**********
40,3
HD 5850
*********
40,0
GTX 580
*********
38,7
HD 5870
*********
38,6

In de idle-stand is de GTX 580 erg stil, zelfs nagenoeg onhoorbaar.

Geluidsproductie systeem - load
Geluidsproductie (dBA)
GTX 480
**********
63,5
HD 5970
**********
62,4
GTX 580
*********
59,0
HD 5870
*********
56,3
GTX 470
*********
55,3
HD 6870
*********
54,2
HD 6850 X2
********
53,5
HD 5850
********
52,3
HD 6850
*******
45,1

Onder load doet de GTX 580 wederom bovenin de lijst mee - maar gezien het feit dat de koeler een kleine 250W aan warmte moet afvoeren, is dat natuurlijk niet raar. Wel is de GTX 580 aanzienlijk stiller dan de GTX 480 en dat is goed te horen. Tijdens het benchmarken vonden wij de geluidsproductie van de GTX 580 nog het beste te vergelijken met die van de HD 5870.

Conclusie

De GTX 580 is een stuk sneller dan de GTX 480 en verbruikt minder stroom. Wat ons betreft is de GTX 580 dan ook wat de GTX 480 ruim een half jaar geleden had moeten zijn. Nvidia heeft de lekstromen in de transistors met succes aangepakt, waardoor de gpu op hogere snelheden kan draaien en toch minder energie kan verbruiken. Dat is een prestatie op zich. De nieuwe vapor-chamberkoeler houdt de temperatuur van de gpu netjes binnen de perken, terwijl de fan ook minder werk hoeft te verzetten - het lijkt dan ook niet langer alsof er een stofzuiger in je behuizing zit.

Nvidia heeft daarmee zowat alle kritiek op de GTX 480 aangepakt. De introductieprijs van 479 euro is even hoog als die van de GTX 480 bij zijn verschijnen. Dat is nog altijd stevig aan de prijs, maar in vergelijking met de iets duurdere HD 5970 lijkt de prijs alleszins redelijk. Ten opzichte van twee GTX 460's met 1GB geheugen of twee HD 6850's, die per stuk ruwweg 150 tot 160 euro kosten, lijkt de GTX 580 minder waar voor zijn geld te bieden. Daar staat tegenover dat de GTX 580 over meer geheugen beschikt, geen sli-problemen met zich meebrengt en minder energie verbruikt. Afhankelijk van het spel levert de GTX 580 ook betere prestaties.

De GTX 480 heeft na ongeveer acht maanden in elk geval het einde van zijn leven bereikt en de GTX 580 lijkt een waardige opvolger. Aangezien Nvidia op dit moment geen nieuw productieprocedé kan inzetten, is de GF110-chip vermoedelijk het hoogst haalbare. Het wordt interessant om te zien of de chip zich staande kan houden tegenover AMD's Cayman-chips en de Antilles-kaarten, die net als de HD 5970 twee gpu's op een enkele kaart laten samenwerken.

GTX 580 Asus Nvidia GTX 580 Nvidia GTX 580 Nvidia GTX 580

Reacties (133)

Wijzig sortering
De laatste zin van de review zegt denk ik het meeste over het potentiele succes van deze kaart. Het is af te wachten hoe de Cayman en de Antilles van AMD (Ati) zich zullen verhouden in verbruik, prestaties en warmte met de 580. Uit het product transition plan lijkt *voorzichtig* en misschien op te maken dat de 6970 iets minder zal presteren dan de 5970, mede door de strategische plaatsing van de kaartnummers op de performance y-as. De Antilles gaat hier nog eens ver overheen, al is dat een dual gpu kaart. Als de 580 inderdaad het maximale is wat nVidia aan single-gpu snelheid uit een videokaart weet te persen vrees ik dat de 6 serie van AMD een geduchte concurrent word.
Unigine Heaven 2.1 benchmarks die ik met me eigen pc gedaan heb:
870 i7 stock
4 gb ddr3 dual channel geheugen ( 1600mhz ) stock
zotac gtx 580 stock, 772 mhz clock / 4008 mhz memory cloak / shader clock 1544mhz


Voor de mensen die een iets dieper unigine heaven resultaat willen, hier is die van mij.

Ik vermeld er wel eventjes bij, dat de minimale fps raar berekent worden. gelijk in het begin als de benchmark nog aan het opstarten is wordt direct minimaal vast gestelt, terwijl hij direct na 1 seconden bijvoorbeeld 60fps berekent. Dus minimale moet je niet te serieus nemen.

Unigine Heaven 2.1 - normal tessellation:
dx11
1920x1200
shaders high
anisotropy 1
aa off
full screen

FPS: 61.0 ( gemiddelde fps )
Scores: 1536
Min FPS: 21.0
Max FPS: 133.6

Unigine Heaven 2.1 - extreem tessellation
zelfde instellingen

FPS: 45.8 ( gemiddelde fps )
Scores: 1154
Min FPS: 25.9
Max FPS: 124.4

Unigine Heaven 2.1 - extreem tessellation + 16x anisotropy + 8x aa

FPS: 30.8 ( gemiddelde fps )
Scores: 775
Min FPS: 15.4
Max FPS: 69.3

Unigine Heaven 2.1 - normal tessellation + 16x anisotropy + 8x aa

FPS: 38.9 ( gemiddelde)
Scores: 979
Min FPS: 18.2
Max FPS: 77.7

De temps van de kaart = stressed maximaal hier 79 graden en idle rond de 50 graden.

Vantage scoort hier:

28035 3dmark score.

580 scoort duidelijk beter dan in de tweakers test ( en ik heb er nog is 3 schermen op aan staan )

24000 > 28000 vindt ik een enorm verschil.

[Reactie gewijzigd door Gatygun op 13 november 2010 02:53]

Leuke kaart, die helaas, in de 5970 zijn meerdere moet bekennen

ook voor de prijs hoef je deze kaart niet te halen, een 5970 kost in de pricewatch op dit moment 500-550 euro terwijl de voorganger GTX 480 tussen de 350-450 euro kost

wat zal de gtx 580 dan gaan kosten? dit kan nooit op het prijsniveau van de 5970 zijn, want dan is het nooit verantwoordbaar om de gtx 580 te kopen ipv amd's 5970

Conclusie, leuke kaart, nvidia is goed op weg, maar het is een kaart die niet opweegt tegen de voordelen van amd's 5970
Dan mag je mij de voordelen van de 5970 tov de gtx580 eens opnoemen, energieverbruik onder load is idd ietsje lager, maar je zit nog steeds met een dual-gpu opstelling die ook de nodige problemen met zich meebrengt. Daarbij weet de gtx580 de hd5970 heel aardig te benaderen wat prestaties aangaat, idle verbruik is zelfs lager, ligt er natuurlijk aan hoeveel je games speelt, jij uiteraard 24/7, waardoor de hd5970 voor jou met uitstek de betere keus is.

Al met al een goede concurrent voor de hd5970, maar de eerlijke vergelijking komt natuurlijk met amd's nieuwe 69xx kaarten :)
Zowiezo 15 a 20% sneller, met een lager energieverbruik.
Volgens mij wordt dat al in de review beantwoord. Over de prijs t.o.v. HD 5970 staat in de conclusie:
De introductieprijs van 479 euro is even hoog als die van de GTX 480 bij zijn verschijnen. Dat is nog altijd stevig aan de prijs, maar in vergelijking met de iets duurdere HD 5970 lijkt de prijs alleszins redelijk.
Ik denk dat de prijs/prestatie verhouding van de HD 5970 en de GTX 480 redelijk gelijk liggen. De HD 5970 is iéts sneller, maar ook iets duurder.

Jammer alleen dat het overklok-potentieel van deze kaart nog niet is opgenomen in de review. :9
Ik denk dat de prijs/prestatie verhouding van de HD 5970 en de GTX 480 redelijk gelijk liggen. De HD 5970 is iéts sneller
De 5970 is 10% -25% sneller als ik zo dit artikel lees. De GTX 580 lijkt pas concurrerend als die zo'n 15-20% minder kost als een HD 5970.
Dat lijkt een benodigde prijs van 450 euro of lager te betekenen.

[Reactie gewijzigd door 80466 op 9 november 2010 17:39]

Dat lijkt een benodigde prijs van 450 euro of lager te betekenen.
Het grappige is dat momenteel de HD5970 voor dumpprijzen (~€400) over de toonbank gaat in afwachting van de lancering van Cayman. Dus het zal nog wat lager moeten.
Wat dan wel jammer is voor de vergelijking van tweakers is dat in het ATI-nieuwstopic is gemeld dat de HD5970 een prijsverlaging zal krijgen (rond de 400 is genoemd). Enerzijds leuk om de GTX580 voor de voeten te lopen, maar anderzijds ook gewoon nodig omdat ze de voorraden op willen krijgen voor cayman beschikbaar is en de HD6870 in CF lijkt nu een betere deal.

[Reactie gewijzigd door bwerg op 9 november 2010 19:54]

Op alternate staan er een paar (GTX580) voor ~ 500 euro ;)
Waarom vergelijkt iedereen de 580 met de 5970? Das toch appels met peren vergelijken?
Dual GPU vs. Single GPU.

Okee, qua prijs misschien handig om te vergelijken, maar technisch niet natuurlijk.
Alleen al door de microstuttering en vaak groter verschil tussen minimum en maximum framerate is de 5970 lang niet zo'n goede kaart als de 580.
microstuttering komt alleen voor bij lage framerates, de 5970 is snel genoeg om in de meeste games geen microstuttering te laten voorkomen.
.Sjoerd, Je kunt het zien als appels en peren, maar je moet wel bedenken dat het beide fruit is!

Beide zijn videokaarten, die hetzelfde doel hebben. Wat dat betreft kun je ze dus wél vergelijken.

Vooral als het in zowel geld, als in prestatie een boel uitmaakt, dan kun je natuurlijk voor het één dan voor het ander kiezen.
Omdat de 580 in de prijsklasse van de 5970 zit, wat ze concurrenten maakt. Als je concurreert met een technisch beter product dan heb je al verloren.
Okee, qua prijs misschien handig om te vergelijken, maar technisch niet natuurlijk.
En welk criterium gebruik jij als je iets gaat kopen? Ik wil minstens X techniek erin hebben? Of kijk je wel eens naar de prijs? ;)

Uiteraard kijk je naar de prijs en als voor dezelfde prijs een andere kaart vergelijkbare prestaties levert slaat het nergens op om die niet te vergelijken. Als ze technisch gelijk moeten zijn kan je ook zeggen dat ze niet vergeleken moeten worden omdat de geforce CUDA-cores heeft en de radeon niet. Who cares als je het verschil niet merkt? En als je het wel merkt, dan weeg je dat mee maar vergelijk je ze toch wel...

[Reactie gewijzigd door bwerg op 9 november 2010 20:10]

Waarschijnlijk omdat de 580 de nieuwste kaart van nVidia is en de 5970 de snelste kaart van AMD uit de vorige generatie

Interessante vergelijking
Mooie kaart, leuke specs.
Hoger dan de GTX480 zoals verwacht.
Alleen weer energieverbruik valt zwaar tegen.
ben ik toch nog blij dat ik de HD5870 heb, stukken slomer, maar hij slurpt vele malen minder :)
De 'aller-snelste' kaart, zal altijd het 'aller-meeste' energie verbruiken. Simpelweg omdat je als je een snelle kaart hebt die minder gebruikt, je er weer een nog snellere kaart van kan maken door er meer stroom op te zetten.
Nee, ik vind dat je hier fout zit!
Nvidia is niet bepaald zuinig bezig..
Hun maakte de GTX480 om de HD5870 af te troeven, wat ze lukte. maar wel voor 100W meer, en een kaart die telkens rond de 100C loopt. terwijl de 5870 75C of minder heeft.

Toen de tijd dat de 5870 uitkwam was dit ook de snelste, maar hij gebruikte niet het meest.
Ik kan je vertellen dat de GTX 480 bij stress test bij mij niet boven de 80 C komen, dus wat jij verteld over een kaart die telkens 100c loopt, waar bazeer je die gegevens op?(ik heb er hier namelijk 1 in me pc ;)). Ze zijn best wel goed bezig door de gpu sneller, koeler en zuiniger te maken. Alleen had ik stiekem toch wel gehoopt dat ze de HD5970 gingen verslaan :(
Wat voor stress test doe je dan? Het maakt nogal wat uit of je een zware game draait of furmark. Bij de laatste wordt de kaart een stuk warmer.

En dan is er nog de balans tussen temperatuur en fanspeed. Je kan je kaart zo koel mogelijk maken door de fan op 100% te zetten maar dan word je gek van de herrie. Mijn 5850 bijvoorbeeld wordt met furmark maximaal 72°C bij 48% fanspeed.

Ik ben trouwens zeer benieuwd of de nieuwe high-end kaarten van AMD aan deze GTX580 kunnen tippen. Ik heb het gevoel dat AMD het iets te rustig aan is gaan doen omdat nVidia wat problemen had, maar deze GTX580 brengt daar verandering in. Als de nieuwe generatie AMD dit niet kan bijbenen is dat toch wel een redelijke blunder imo.

[Reactie gewijzigd door Bonez0r op 9 november 2010 21:26]

Dat is idd een heel ander zicht op mijn videokaart. Hij werd nu 93’ graden max daarna stabiel naar 90.(al moet ik zeggen dat mijn fan filters vol met stof zitten) Alles van mijn kast op low. Ik had eerst een 3dmark03 test ofzo gedraaid, daarbij werd hij niet zo warm en vooral het geluid wat ik zojuist hoorde was aardig hard(nog nooit gehoord uit me pc ;))

[Reactie gewijzigd door pieter vs op 10 november 2010 19:45]

De 'aller-snelste' kaart, zal altijd het 'aller-meeste' energie verbruiken
De 5970 is dus nog steeds de allersnelste kaart en die gebruikt op volle snelheid nog steeds minder dan zowel de GTX 480 als deze nieuwe GTX 580
Lees ipv aller-snelste kaart aller-snelste GPU...
Als de nieuwe cayman gpu van DAAMIT over enkele weken zal gelanceerd worden is deze opmerking weer voorbijgestreefd.
Hij slurpt niet vele malen minder, om precies te zijn: 242W - 188W = 64W. Altijd die oude koeien uit de sloot halen, argument staat op losse poten. Bij de gtx480 was het verbruik relatief gezien idd erg hoog, maar de gtx580 zet op dit moment een heel aardig verbruik neer ten opzichte van de prestaties. Hij weet zowaar bij de hd5970 in de buurt te komen, en dat zonder cf (of sli) profile problemen.

HD5870 is een prima vieokaart maar ga nu niet lopen bashen, dat is zo vervelend, verder leuk dat je er blij mee bent maar daar hebben weinig mensen een boodschap aan denk ik ;)
Als je de load benchmarks in deze review vergelijkt dan is het verschil 88W tussen een GTX580 en 5870. Maar goed, de GTX580 is dan ook een stuk sneller.
een prachtige kaart, absoluut, maar 2 pre-overclockte GTX 460's ( palit sonic platinum ) in SLI zijn sneller en goedkoper.

[Reactie gewijzigd door kevinvandorst op 9 november 2010 16:38]

Behalve als je je stroomrekening meetelt dan...
Die 460s staan er helaas niet bij maar 2 6850s zijn onder load dus een stuk zuiniger dan deze ene monsterkaart van nvidia. In idle scheelt het 9 watt wat je op jaarbasis 20 euro kost (waarschijnlijk nog een stuk minder) als je je bak 24/7 laat idlen (wat je ook niet moet doen met een gamebak). Ben je iemand die grote delen van de dag in game door brengt dan ga je al snel stroom besparen.
Wellicht is deze kaart een leuke verbetering op de 480 maar ik vind het eigenlijk nog steeds een overengineered gruwelding...
Stroomrekening ? Dat ga je echt merken hoor, altijd dat gezeur over energieverbruik van kaarten, geluids/warmte productie vind ik zeker belangrijk... maar energieverbruik... :X
Je vindt warmteproductie wel belangrijk maar energieverbruik dus niet.
Hoe kun je die twee nou los van elkaar zien???
heel simpel, voor de warmte hoef je niet extra te betalen voor de stroom wel maar dat maakt kevinvandorst dus niets uit, echter een koelere kaart die stiller is, dus wel. :)
Dat het een het ander veroorzaakt of gevolg is van, tja dat klopt maar het belangrijk vinden is weer wat anders.
R-v-R bedoelt dat je die stroom volledig in warmte omzet dus als het energieverbruik hoog is zal die ook veel warmte opwekken.
Of je nou 30 watt meer of minder verbruikt boeit geen ene ruk.
Of je uren lang tijdens het spelen (want dat doe je met zo'n kaart) een stofzuiger naast of vlakbij je hebt is veel vervelender.

Lekker belangrijk hoeveel vermogen die vraagt. Pas bij 1000 watt mag de videokaart zich een stofzuiger-vergelijkbaar noemen..... o wacht... een videokaart verbruikt hooguit 442 watt..... dus een lachertje.
Even je auto starten (eenmalig) verbruikt dus al veel meer dan een videokaart in uren.
ik zal je even uit de droom helpen....

een lompe diesel startmotor trekt 200A, gedurende 10 seconden, op 12V, dat is ongeveer 6WH. Als je videokaart 250W gebruikt, heb je dat inminder dan 2 minuten bereikt ;) (de startmotor van een benzine motor is meestal een stuk lichter, en zal dus nog minder energie gebruiken).


ontopic: vel nie dat nvidia dus met 1 chip die performance kan halen... alleen ben ik erg benieuwd naar de nieuwe amd chips, alhoewel ik nog steeds erg pro nvidia ben vanwege de superieure linux drivers.
Stofzuigen duurt doorgaans ongeveer 30 minuten per -aantal dagen-
Ik neem aan dat je meer gamet dan stofzuigt per week, dus je bent appels met peren aan het vergelijken ;)
Zeker nooit begrepen dat meer stroom verbruik zorgt voor meer warmte / geluidsproductie (inkopertje)

Als dat laag is hoef je over het andere ook niet te klagen..
meer warmte hoeft niet meer geluidsproductie te betekenen. Als je bv waterkoeling gebruikt met een flink groot koelblok kan je prima grote hoeveelheden warmte dissiperen zonder veel geluid. Wat betreft de warmte heb je wel gelijk. In principe zet een videokaart alle energie direct om in warmte.
Je kan natuurlijk dat extra geld besteden aan een degelijke voeding waarmee je toch al wat beter zit qua verbruik :D
Dat mag wellicht zo zijn, maar hoe veel verbruiken ze en hoeveel herrie maken ze (wordt namelijk niet meegenomen in de test. Niet iedere game gaat goed om met SLI, zeker niet in multi monitor setups.
GTX 460 1GB in sli verbruikt iets meer dan een GTX 480, dus ook iets meer dan een GTX 580. Houd het op 20W onder load in Furmark. Geluidsproductie zal afhangen van welke kaart je koopt, maar het zal ongeveer evenveel herrie maken als een GTX 580.
20 klinkt lekker weinig XD
20W is ook relatief weinig. Ga in een doorsnee huis maar eens op zoek naar sluipverbruikers, waarschijnlijk kom je dan aan meer dan 20W en dat staat waarschijnlijk ook nog eens 24/7 aan. Die SLI combinatie niet.
Tenzij je 24/7 achter je compu zit en toch niks anders te doen hebt.
hoe lang zou de kaart zijn?
zal ook wel niet gaan passen in de meeste kasten denk ik.

edit
26.7 cm kon ik ergens op google vinden dat valt me nog mee dat zou maar 2 mm langer zijn dan mn gtx285

[Reactie gewijzigd door Goofy1978 op 9 november 2010 18:11]

Weet wel dat het niet het probleem van de kaart is als deze niet in een behuizing past. De fout ligt namelijk bij de behuizing, deze voldoet dan niet aan de ATX standaard. Wanneer een behuizing voldoet aan de ATX standaard, moet het namelijk mogelijk zijn een volledige lengte PCI kaarten te plaatsen, deze loopt van de achterzijde van de behuizing helemaal naar de voorzijde. :)
en wie hadden het ook alweer erover in en vorig topic dat het niet mogelijk was om sneller maar toch zuiniger te zijn?!

Zie je wel.

Nu deze trend volhouden. ben benieuwd hoe zo in sli presteren? Als de scaling net zo goed is als de 460 is en smullen voor gamers (die genoeg geld hebben)

edit:

wow net op guru3d de sli review gezien.

niet normaal gewoon. de scaling is vooral bij de hoogste resoluties van 1.6 tot perfect, op lagere resoluties toch zo'n 1.2 tot 1.6 x sneller dan een enkele kaart.

Wat me verder opviel is dat het toch een aardige heethoofd is met 87 graden voor een enkele en 90 voor een sli setup.

Al met al dus het allersnelste wat er nu (of zometeen) te krijgen is

[Reactie gewijzigd door RKB op 9 november 2010 19:37]

Zuiniger tov van wat ? Tegenover die andere stroomslurpers, juist ja. Reken maar dat het straks weer sneller gaan EN ook weer meer stroom gaat kosten.
Het maakt mij weinig uit wat ik koop ati of nvidia. ik koop gewoon wat voor mij de beste oplossing is, en niet omdat de ene kaart 10 fps meer haalt, en 20 euro op een rekening aan stroom in het jaar bespaar.

Mijn huidige kaart is net overleden voor de 2e keer ( de EN280GTX ) lekker snel kaartje, maja na wat? 3 jaar 24/7 aanstaan is hij dan overleden.

Ben nu dus opzoek naar een andere kaart.

Waarom ik bijvoorbeeld eerder voor de 580gtx zou gaan, inplaats van de 5790 ( de topper van ati op het moment ) is omdat ik geen gezeik wil hebben met de 2x gpu's gelul.

Ik speel namelijk ook nog oude games zoals world of warcraft, die "wat ik me liet vertellen door wat gebruikers" problemen geven met kaarten die in zo'n configuratie staan 2x gpu's op 1 kaart of sli / crossfire setups. ( tenminste performence verliezen ten opzichte van een 1 gpu kaart )

Aangezien catalysme eraan komt, en het grafisch toch wat opgepoetst is, wil ik gewoon met volle videokaart ook world of warcraft kunnen spelen.

Me huidige kaart de 280, komt amper stable neer op 20+ fps in drukke gebieden zoals dalaran. ( draai het op 3 27 inch schermen )

De extra snelheid van zo'n videokaart = dan ook welkom.

Daarbuiten wil ik gewoon op een goede stabiele fps terecht komen "nieuwste games willen spelen" voor het aankomende jaar.

Hoe ik mijn keuze maak is

Ik zoek dus een videokaart die stabiel + vol kan laten draaien op "gedateerde games" zoals wow"( die toch echter wat gpu power wegvreten ). Maar tegelijkertijd ook nuttig zijn voor nieuwste games.

Je kan zeggen wat je wilt, maar met een ati kaart kom ik hier gewoon niet mee uit op dit moment. De 2x gpu oplossing zijn hardstikke leuk. maar ik heb dus liever een stabiele 1x gpu ( die dan maar iets trager is bij nieuwste games ) maar verruit voldoende is + vol gebruikt wordt voor mijn andere oudere games.

Ik ben zeer tevreden met me 280, terwijl mijn maat met zijn 2x ati kaarten. nogal wat problemen heeft ondervonden. Waardoor die overgestapt is naar een 2x op 1 kaart oplossing, wat ook verre van ideaal bleek te zijn ( buiten nieuwste games ).

Ik vindt de 4x0 versie van nvidia wat tegenvallen, vandaar dat ik de overstap niet gedaan had. de 580 versie vindt ik gewoon een goede kaart die overal aan voldoet.

Het is net waar je de kaart voor wil hebben. De videokaarten blijven videokaarten, maar worden zeker niet bij iedereen voor hetzelfde gebruikt.

Zodra ati een fatsoenlijke 1 gpu oplossen maakt, beter, goedkoper is. Zal ik de overstap maken.

Maar de crossfire/sli/2x gpu's op 1 kaart. Vindt ik gewoon geen oplossing.

( ik had voor de 280 een ati kaart, niks geen problemen. totdat ze ineens overstapte naar 2x op 1 kaart principe. Toen was het direct een 280 voor mij. En dat zal nu weer de keuze zijn)

[Reactie gewijzigd door Gatygun op 10 november 2010 20:51]

Ik speel namelijk ook nog oude games zoals world of warcraft, die "wat ik me liet vertellen door wat gebruikers" problemen geven met kaarten die in zo'n configuratie staan 2x gpu's op 1 kaart of sli / crossfire setups. ( tenminste performence verliezen ten opzichte van een 1 gpu kaart )

Je hebt ook gewoon de optie om 1 gpu uit te schakelen voor die oudere games, en lang niet alle games hebben dat probleem. WoW heeft dit wel maar de prestaties gaan echt niet zo drastisch omlaag, ik speelde ook een tijdje met de HD4850X2 WoW en ik kon nou niet echt zeggen dat de prestaties slecht waren.


Zodra ati een fatsoenlijke 1 gpu oplossen maakt, beter, goedkoper is. Zal ik de overstap maken.

Want ATI(AMD) heeft geen fatsoenlijke 1 GPU oplossingen?
Niet voor het een of andere maar voordat Nvidia met de GTX460 kwam had Nvidia geen poot om op te staan tegenover ATI(AMD), ja de GTX480 was sneller dan de HD5870 maar dit was ook gekoppeld aan een ziekelijk hoog verbruik, de GTX580 is nou ook niet bepaald zuiniger, enkel in idle. De GTX580 is misschien dan wel sneller dan de huidige HD58xx en HD68xx serie maar dat wil niet zeggen dat ATI geen fatosenlijke oplossing heeft, denk hierbij aan de aankomende HD6970 kaart die dus denk ik met de GTX580 moet gaan concurreren.
Vergeet niet dat voor Cataclysm Blizzard heel veel werk heeft verricht aan de graphics engine van WoW. Onder andere support ie nu DX11. Je kunt er dus ook wel een beetje vanuit gaan dat ondersteuning voor dual GPUs sterk is verbeterd.

De HD5970 is denk ik een zeer realistische optie voor WoW: Cataclysm op 3 schermen.
Leuke kaart, alleen is ie gewoon bijna een jaar te laat. Deze kaart had het eigenlijk tegen de HD5870 moeten opnemen (wat dan een dikke overwinning voor Nvidia zou zijn geweest).

Op Tomshardware staan ook benchmarks met twee GTX580's in SLI: http://www.tomshardware.c...orce-gtx-480,2781-14.html

Je kan zeggen wat je wilt over deze kaarten, maar de scaling is nog altijd fenomenaal :P
De gtx480 heeft nooit de taak gehad het tegen de hd5870 op te moeten nemen, al was hij wel 10-15% sneller. Hij had eigenlijk een concurrent moeten zijn voor de hd5970, helaas pakte het door problemen met het productieproces anders uit voor de gf100, waardoor hij op clocks en shaders bekort moest worden.

Hij zat een beetje in zijn eigen segment, zwevend tussen enerzijds de gtx470, hd5870 en anderzijds de hd5970
Sorry hoor, maar het lijkt mij niet dat Nvidea een single-gpu tegenover een dual-gpu positioneert. 8)7
Ook als je naar de perfomance kijkt, zie je dat hoewel de GTX480 in de meeste gevallen marginaal beter presteert, de HD5870 en GTX480 elkaar directe concurrenten zijn. Misschien dat dat in de eerste plannen van de gpu zo was (wat nu dus de GTX580 is), maar door de problemen met het productieprocedé had Nvidea weinig keus.
Dat is precies wat ik heb gezegd idd, de originele intentie van nvidia was een single-gpu videokaart neer te zetten die de hd5970 kon evenaren kwa prestaties, en dus een single-gpu versus een dual-gpu. Het was ook vaak genoeg te zien in gelekte slides, maar uiteindelijk hebben ze een compromis moeten maken tussen verbruik en prestaties. Een full-spec gf100 zou dik over de 300W gaan, er is een tijdje geleden een prototype naar voren gekomen die standaard al uitgerust was met een ac cooler, wegens het enorme vermogen wat de kaart had.

Je bent trouwens de eerste die een dual-gpu kaart niet met een single-gpu kaart wil vergelijken, met de gtx580 vs hd5970 ligt het wel erg voor de hand. Gebeurt al langer trouwens: 7950gx2 vs x1900xtx, hd3870x2 vs 8800 Ultra, 9800gx2 vs gtx280, en als meeste recente: gtx295 en hd4870x2 vs gtx480 en hd5870.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Auto

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True