Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Marc Rademaker

Redacteur

Geforce GTX 580: Nvidia terug van weggeweest?

Conclusie

De GTX 580 is een stuk sneller dan de GTX 480 en verbruikt minder stroom. Wat ons betreft is de GTX 580 dan ook wat de GTX 480 ruim een half jaar geleden had moeten zijn. Nvidia heeft de lekstromen in de transistors met succes aangepakt, waardoor de gpu op hogere snelheden kan draaien en toch minder energie kan verbruiken. Dat is een prestatie op zich. De nieuwe vapor-chamberkoeler houdt de temperatuur van de gpu netjes binnen de perken, terwijl de fan ook minder werk hoeft te verzetten - het lijkt dan ook niet langer alsof er een stofzuiger in je behuizing zit.

Nvidia heeft daarmee zowat alle kritiek op de GTX 480 aangepakt. De introductieprijs van 479 euro is even hoog als die van de GTX 480 bij zijn verschijnen. Dat is nog altijd stevig aan de prijs, maar in vergelijking met de iets duurdere HD 5970 lijkt de prijs alleszins redelijk. Ten opzichte van twee GTX 460's met 1GB geheugen of twee HD 6850's, die per stuk ruwweg 150 tot 160 euro kosten, lijkt de GTX 580 minder waar voor zijn geld te bieden. Daar staat tegenover dat de GTX 580 over meer geheugen beschikt, geen sli-problemen met zich meebrengt en minder energie verbruikt. Afhankelijk van het spel levert de GTX 580 ook betere prestaties.

De GTX 480 heeft na ongeveer acht maanden in elk geval het einde van zijn leven bereikt en de GTX 580 lijkt een waardige opvolger. Aangezien Nvidia op dit moment geen nieuw productieprocedé kan inzetten, is de GF110-chip vermoedelijk het hoogst haalbare. Het wordt interessant om te zien of de chip zich staande kan houden tegenover AMD's Cayman-chips en de Antilles-kaarten, die net als de HD 5970 twee gpu's op een enkele kaart laten samenwerken.

GTX 580 Asus Nvidia GTX 580 Nvidia GTX 580 Nvidia GTX 580

Reacties (133)

Wijzig sortering
De laatste zin van de review zegt denk ik het meeste over het potentiele succes van deze kaart. Het is af te wachten hoe de Cayman en de Antilles van AMD (Ati) zich zullen verhouden in verbruik, prestaties en warmte met de 580. Uit het product transition plan lijkt *voorzichtig* en misschien op te maken dat de 6970 iets minder zal presteren dan de 5970, mede door de strategische plaatsing van de kaartnummers op de performance y-as. De Antilles gaat hier nog eens ver overheen, al is dat een dual gpu kaart. Als de 580 inderdaad het maximale is wat nVidia aan single-gpu snelheid uit een videokaart weet te persen vrees ik dat de 6 serie van AMD een geduchte concurrent word.
Unigine Heaven 2.1 benchmarks die ik met me eigen pc gedaan heb:
870 i7 stock
4 gb ddr3 dual channel geheugen ( 1600mhz ) stock
zotac gtx 580 stock, 772 mhz clock / 4008 mhz memory cloak / shader clock 1544mhz


Voor de mensen die een iets dieper unigine heaven resultaat willen, hier is die van mij.

Ik vermeld er wel eventjes bij, dat de minimale fps raar berekent worden. gelijk in het begin als de benchmark nog aan het opstarten is wordt direct minimaal vast gestelt, terwijl hij direct na 1 seconden bijvoorbeeld 60fps berekent. Dus minimale moet je niet te serieus nemen.

Unigine Heaven 2.1 - normal tessellation:
dx11
1920x1200
shaders high
anisotropy 1
aa off
full screen

FPS: 61.0 ( gemiddelde fps )
Scores: 1536
Min FPS: 21.0
Max FPS: 133.6

Unigine Heaven 2.1 - extreem tessellation
zelfde instellingen

FPS: 45.8 ( gemiddelde fps )
Scores: 1154
Min FPS: 25.9
Max FPS: 124.4

Unigine Heaven 2.1 - extreem tessellation + 16x anisotropy + 8x aa

FPS: 30.8 ( gemiddelde fps )
Scores: 775
Min FPS: 15.4
Max FPS: 69.3

Unigine Heaven 2.1 - normal tessellation + 16x anisotropy + 8x aa

FPS: 38.9 ( gemiddelde)
Scores: 979
Min FPS: 18.2
Max FPS: 77.7

De temps van de kaart = stressed maximaal hier 79 graden en idle rond de 50 graden.

Vantage scoort hier:

28035 3dmark score.

580 scoort duidelijk beter dan in de tweakers test ( en ik heb er nog is 3 schermen op aan staan )

24000 > 28000 vindt ik een enorm verschil.

[Reactie gewijzigd door Gatygun op 13 november 2010 02:53]

Leuke kaart, die helaas, in de 5970 zijn meerdere moet bekennen

ook voor de prijs hoef je deze kaart niet te halen, een 5970 kost in de pricewatch op dit moment 500-550 euro terwijl de voorganger GTX 480 tussen de 350-450 euro kost

wat zal de gtx 580 dan gaan kosten? dit kan nooit op het prijsniveau van de 5970 zijn, want dan is het nooit verantwoordbaar om de gtx 580 te kopen ipv amd's 5970

Conclusie, leuke kaart, nvidia is goed op weg, maar het is een kaart die niet opweegt tegen de voordelen van amd's 5970
Dan mag je mij de voordelen van de 5970 tov de gtx580 eens opnoemen, energieverbruik onder load is idd ietsje lager, maar je zit nog steeds met een dual-gpu opstelling die ook de nodige problemen met zich meebrengt. Daarbij weet de gtx580 de hd5970 heel aardig te benaderen wat prestaties aangaat, idle verbruik is zelfs lager, ligt er natuurlijk aan hoeveel je games speelt, jij uiteraard 24/7, waardoor de hd5970 voor jou met uitstek de betere keus is.

Al met al een goede concurrent voor de hd5970, maar de eerlijke vergelijking komt natuurlijk met amd's nieuwe 69xx kaarten :)
Zowiezo 15 a 20% sneller, met een lager energieverbruik.
Volgens mij wordt dat al in de review beantwoord. Over de prijs t.o.v. HD 5970 staat in de conclusie:
De introductieprijs van 479 euro is even hoog als die van de GTX 480 bij zijn verschijnen. Dat is nog altijd stevig aan de prijs, maar in vergelijking met de iets duurdere HD 5970 lijkt de prijs alleszins redelijk.
Ik denk dat de prijs/prestatie verhouding van de HD 5970 en de GTX 480 redelijk gelijk liggen. De HD 5970 is iéts sneller, maar ook iets duurder.

Jammer alleen dat het overklok-potentieel van deze kaart nog niet is opgenomen in de review. :9
Ik denk dat de prijs/prestatie verhouding van de HD 5970 en de GTX 480 redelijk gelijk liggen. De HD 5970 is iéts sneller
De 5970 is 10% -25% sneller als ik zo dit artikel lees. De GTX 580 lijkt pas concurrerend als die zo'n 15-20% minder kost als een HD 5970.
Dat lijkt een benodigde prijs van 450 euro of lager te betekenen.

[Reactie gewijzigd door 80466 op 9 november 2010 17:39]

Dat lijkt een benodigde prijs van 450 euro of lager te betekenen.
Het grappige is dat momenteel de HD5970 voor dumpprijzen (~€400) over de toonbank gaat in afwachting van de lancering van Cayman. Dus het zal nog wat lager moeten.
Wat dan wel jammer is voor de vergelijking van tweakers is dat in het ATI-nieuwstopic is gemeld dat de HD5970 een prijsverlaging zal krijgen (rond de 400 is genoemd). Enerzijds leuk om de GTX580 voor de voeten te lopen, maar anderzijds ook gewoon nodig omdat ze de voorraden op willen krijgen voor cayman beschikbaar is en de HD6870 in CF lijkt nu een betere deal.

[Reactie gewijzigd door bwerg op 9 november 2010 19:54]

Op alternate staan er een paar (GTX580) voor ~ 500 euro ;)
Waarom vergelijkt iedereen de 580 met de 5970? Das toch appels met peren vergelijken?
Dual GPU vs. Single GPU.

Okee, qua prijs misschien handig om te vergelijken, maar technisch niet natuurlijk.
Alleen al door de microstuttering en vaak groter verschil tussen minimum en maximum framerate is de 5970 lang niet zo'n goede kaart als de 580.
microstuttering komt alleen voor bij lage framerates, de 5970 is snel genoeg om in de meeste games geen microstuttering te laten voorkomen.
.Sjoerd, Je kunt het zien als appels en peren, maar je moet wel bedenken dat het beide fruit is!

Beide zijn videokaarten, die hetzelfde doel hebben. Wat dat betreft kun je ze dus wél vergelijken.

Vooral als het in zowel geld, als in prestatie een boel uitmaakt, dan kun je natuurlijk voor het één dan voor het ander kiezen.
Omdat de 580 in de prijsklasse van de 5970 zit, wat ze concurrenten maakt. Als je concurreert met een technisch beter product dan heb je al verloren.
Okee, qua prijs misschien handig om te vergelijken, maar technisch niet natuurlijk.
En welk criterium gebruik jij als je iets gaat kopen? Ik wil minstens X techniek erin hebben? Of kijk je wel eens naar de prijs? ;)

Uiteraard kijk je naar de prijs en als voor dezelfde prijs een andere kaart vergelijkbare prestaties levert slaat het nergens op om die niet te vergelijken. Als ze technisch gelijk moeten zijn kan je ook zeggen dat ze niet vergeleken moeten worden omdat de geforce CUDA-cores heeft en de radeon niet. Who cares als je het verschil niet merkt? En als je het wel merkt, dan weeg je dat mee maar vergelijk je ze toch wel...

[Reactie gewijzigd door bwerg op 9 november 2010 20:10]

Waarschijnlijk omdat de 580 de nieuwste kaart van nVidia is en de 5970 de snelste kaart van AMD uit de vorige generatie

Interessante vergelijking
Mooie kaart, leuke specs.
Hoger dan de GTX480 zoals verwacht.
Alleen weer energieverbruik valt zwaar tegen.
ben ik toch nog blij dat ik de HD5870 heb, stukken slomer, maar hij slurpt vele malen minder :)
De 'aller-snelste' kaart, zal altijd het 'aller-meeste' energie verbruiken. Simpelweg omdat je als je een snelle kaart hebt die minder gebruikt, je er weer een nog snellere kaart van kan maken door er meer stroom op te zetten.
Nee, ik vind dat je hier fout zit!
Nvidia is niet bepaald zuinig bezig..
Hun maakte de GTX480 om de HD5870 af te troeven, wat ze lukte. maar wel voor 100W meer, en een kaart die telkens rond de 100C loopt. terwijl de 5870 75C of minder heeft.

Toen de tijd dat de 5870 uitkwam was dit ook de snelste, maar hij gebruikte niet het meest.
Ik kan je vertellen dat de GTX 480 bij stress test bij mij niet boven de 80 C komen, dus wat jij verteld over een kaart die telkens 100c loopt, waar bazeer je die gegevens op?(ik heb er hier namelijk 1 in me pc ;)). Ze zijn best wel goed bezig door de gpu sneller, koeler en zuiniger te maken. Alleen had ik stiekem toch wel gehoopt dat ze de HD5970 gingen verslaan :(
Wat voor stress test doe je dan? Het maakt nogal wat uit of je een zware game draait of furmark. Bij de laatste wordt de kaart een stuk warmer.

En dan is er nog de balans tussen temperatuur en fanspeed. Je kan je kaart zo koel mogelijk maken door de fan op 100% te zetten maar dan word je gek van de herrie. Mijn 5850 bijvoorbeeld wordt met furmark maximaal 72°C bij 48% fanspeed.

Ik ben trouwens zeer benieuwd of de nieuwe high-end kaarten van AMD aan deze GTX580 kunnen tippen. Ik heb het gevoel dat AMD het iets te rustig aan is gaan doen omdat nVidia wat problemen had, maar deze GTX580 brengt daar verandering in. Als de nieuwe generatie AMD dit niet kan bijbenen is dat toch wel een redelijke blunder imo.

[Reactie gewijzigd door Bonez0r op 9 november 2010 21:26]

Dat is idd een heel ander zicht op mijn videokaart. Hij werd nu 93’ graden max daarna stabiel naar 90.(al moet ik zeggen dat mijn fan filters vol met stof zitten) Alles van mijn kast op low. Ik had eerst een 3dmark03 test ofzo gedraaid, daarbij werd hij niet zo warm en vooral het geluid wat ik zojuist hoorde was aardig hard(nog nooit gehoord uit me pc ;))

[Reactie gewijzigd door pieter vs op 10 november 2010 19:45]

De 'aller-snelste' kaart, zal altijd het 'aller-meeste' energie verbruiken
De 5970 is dus nog steeds de allersnelste kaart en die gebruikt op volle snelheid nog steeds minder dan zowel de GTX 480 als deze nieuwe GTX 580
Lees ipv aller-snelste kaart aller-snelste GPU...
Als de nieuwe cayman gpu van DAAMIT over enkele weken zal gelanceerd worden is deze opmerking weer voorbijgestreefd.
Hij slurpt niet vele malen minder, om precies te zijn: 242W - 188W = 64W. Altijd die oude koeien uit de sloot halen, argument staat op losse poten. Bij de gtx480 was het verbruik relatief gezien idd erg hoog, maar de gtx580 zet op dit moment een heel aardig verbruik neer ten opzichte van de prestaties. Hij weet zowaar bij de hd5970 in de buurt te komen, en dat zonder cf (of sli) profile problemen.

HD5870 is een prima vieokaart maar ga nu niet lopen bashen, dat is zo vervelend, verder leuk dat je er blij mee bent maar daar hebben weinig mensen een boodschap aan denk ik ;)
Als je de load benchmarks in deze review vergelijkt dan is het verschil 88W tussen een GTX580 en 5870. Maar goed, de GTX580 is dan ook een stuk sneller.
een prachtige kaart, absoluut, maar 2 pre-overclockte GTX 460's ( palit sonic platinum ) in SLI zijn sneller en goedkoper.

[Reactie gewijzigd door kevinvandorst op 9 november 2010 16:38]

Behalve als je je stroomrekening meetelt dan...
Die 460s staan er helaas niet bij maar 2 6850s zijn onder load dus een stuk zuiniger dan deze ene monsterkaart van nvidia. In idle scheelt het 9 watt wat je op jaarbasis 20 euro kost (waarschijnlijk nog een stuk minder) als je je bak 24/7 laat idlen (wat je ook niet moet doen met een gamebak). Ben je iemand die grote delen van de dag in game door brengt dan ga je al snel stroom besparen.
Wellicht is deze kaart een leuke verbetering op de 480 maar ik vind het eigenlijk nog steeds een overengineered gruwelding...
Stroomrekening ? Dat ga je echt merken hoor, altijd dat gezeur over energieverbruik van kaarten, geluids/warmte productie vind ik zeker belangrijk... maar energieverbruik... :X
Je vindt warmteproductie wel belangrijk maar energieverbruik dus niet.
Hoe kun je die twee nou los van elkaar zien???
heel simpel, voor de warmte hoef je niet extra te betalen voor de stroom wel maar dat maakt kevinvandorst dus niets uit, echter een koelere kaart die stiller is, dus wel. :)
Dat het een het ander veroorzaakt of gevolg is van, tja dat klopt maar het belangrijk vinden is weer wat anders.
R-v-R bedoelt dat je die stroom volledig in warmte omzet dus als het energieverbruik hoog is zal die ook veel warmte opwekken.
Of je nou 30 watt meer of minder verbruikt boeit geen ene ruk.
Of je uren lang tijdens het spelen (want dat doe je met zo'n kaart) een stofzuiger naast of vlakbij je hebt is veel vervelender.

Lekker belangrijk hoeveel vermogen die vraagt. Pas bij 1000 watt mag de videokaart zich een stofzuiger-vergelijkbaar noemen..... o wacht... een videokaart verbruikt hooguit 442 watt..... dus een lachertje.
Even je auto starten (eenmalig) verbruikt dus al veel meer dan een videokaart in uren.
ik zal je even uit de droom helpen....

een lompe diesel startmotor trekt 200A, gedurende 10 seconden, op 12V, dat is ongeveer 6WH. Als je videokaart 250W gebruikt, heb je dat inminder dan 2 minuten bereikt ;) (de startmotor van een benzine motor is meestal een stuk lichter, en zal dus nog minder energie gebruiken).


ontopic: vel nie dat nvidia dus met 1 chip die performance kan halen... alleen ben ik erg benieuwd naar de nieuwe amd chips, alhoewel ik nog steeds erg pro nvidia ben vanwege de superieure linux drivers.
Stofzuigen duurt doorgaans ongeveer 30 minuten per -aantal dagen-
Ik neem aan dat je meer gamet dan stofzuigt per week, dus je bent appels met peren aan het vergelijken ;)
Zeker nooit begrepen dat meer stroom verbruik zorgt voor meer warmte / geluidsproductie (inkopertje)

Als dat laag is hoef je over het andere ook niet te klagen..
meer warmte hoeft niet meer geluidsproductie te betekenen. Als je bv waterkoeling gebruikt met een flink groot koelblok kan je prima grote hoeveelheden warmte dissiperen zonder veel geluid. Wat betreft de warmte heb je wel gelijk. In principe zet een videokaart alle energie direct om in warmte.
Je kan natuurlijk dat extra geld besteden aan een degelijke voeding waarmee je toch al wat beter zit qua verbruik :D
Dat mag wellicht zo zijn, maar hoe veel verbruiken ze en hoeveel herrie maken ze (wordt namelijk niet meegenomen in de test. Niet iedere game gaat goed om met SLI, zeker niet in multi monitor setups.
GTX 460 1GB in sli verbruikt iets meer dan een GTX 480, dus ook iets meer dan een GTX 580. Houd het op 20W onder load in Furmark. Geluidsproductie zal afhangen van welke kaart je koopt, maar het zal ongeveer evenveel herrie maken als een GTX 580.
20 klinkt lekker weinig XD
20W is ook relatief weinig. Ga in een doorsnee huis maar eens op zoek naar sluipverbruikers, waarschijnlijk kom je dan aan meer dan 20W en dat staat waarschijnlijk ook nog eens 24/7 aan. Die SLI combinatie niet.
Tenzij je 24/7 achter je compu zit en toch niks anders te doen hebt.
hoe lang zou de kaart zijn?
zal ook wel niet gaan passen in de meeste kasten denk ik.

edit
26.7 cm kon ik ergens op google vinden dat valt me nog mee dat zou maar 2 mm langer zijn dan mn gtx285

[Reactie gewijzigd door Goofy1978 op 9 november 2010 18:11]

Weet wel dat het niet het probleem van de kaart is als deze niet in een behuizing past. De fout ligt namelijk bij de behuizing, deze voldoet dan niet aan de ATX standaard. Wanneer een behuizing voldoet aan de ATX standaard, moet het namelijk mogelijk zijn een volledige lengte PCI kaarten te plaatsen, deze loopt van de achterzijde van de behuizing helemaal naar de voorzijde. :)
en wie hadden het ook alweer erover in en vorig topic dat het niet mogelijk was om sneller maar toch zuiniger te zijn?!

Zie je wel.

Nu deze trend volhouden. ben benieuwd hoe zo in sli presteren? Als de scaling net zo goed is als de 460 is en smullen voor gamers (die genoeg geld hebben)

edit:

wow net op guru3d de sli review gezien.

niet normaal gewoon. de scaling is vooral bij de hoogste resoluties van 1.6 tot perfect, op lagere resoluties toch zo'n 1.2 tot 1.6 x sneller dan een enkele kaart.

Wat me verder opviel is dat het toch een aardige heethoofd is met 87 graden voor een enkele en 90 voor een sli setup.

Al met al dus het allersnelste wat er nu (of zometeen) te krijgen is

[Reactie gewijzigd door RKB op 9 november 2010 19:37]

Zuiniger tov van wat ? Tegenover die andere stroomslurpers, juist ja. Reken maar dat het straks weer sneller gaan EN ook weer meer stroom gaat kosten.
Het maakt mij weinig uit wat ik koop ati of nvidia. ik koop gewoon wat voor mij de beste oplossing is, en niet omdat de ene kaart 10 fps meer haalt, en 20 euro op een rekening aan stroom in het jaar bespaar.

Mijn huidige kaart is net overleden voor de 2e keer ( de EN280GTX ) lekker snel kaartje, maja na wat? 3 jaar 24/7 aanstaan is hij dan overleden.

Ben nu dus opzoek naar een andere kaart.

Waarom ik bijvoorbeeld eerder voor de 580gtx zou gaan, inplaats van de 5790 ( de topper van ati op het moment ) is omdat ik geen gezeik wil hebben met de 2x gpu's gelul.

Ik speel namelijk ook nog oude games zoals world of warcraft, die "wat ik me liet vertellen door wat gebruikers" problemen geven met kaarten die in zo'n configuratie staan 2x gpu's op 1 kaart of sli / crossfire setups. ( tenminste performence verliezen ten opzichte van een 1 gpu kaart )

Aangezien catalysme eraan komt, en het grafisch toch wat opgepoetst is, wil ik gewoon met volle videokaart ook world of warcraft kunnen spelen.

Me huidige kaart de 280, komt amper stable neer op 20+ fps in drukke gebieden zoals dalaran. ( draai het op 3 27 inch schermen )

De extra snelheid van zo'n videokaart = dan ook welkom.

Daarbuiten wil ik gewoon op een goede stabiele fps terecht komen "nieuwste games willen spelen" voor het aankomende jaar.

Hoe ik mijn keuze maak is

Ik zoek dus een videokaart die stabiel + vol kan laten draaien op "gedateerde games" zoals wow"( die toch echter wat gpu power wegvreten ). Maar tegelijkertijd ook nuttig zijn voor nieuwste games.

Je kan zeggen wat je wilt, maar met een ati kaart kom ik hier gewoon niet mee uit op dit moment. De 2x gpu oplossing zijn hardstikke leuk. maar ik heb dus liever een stabiele 1x gpu ( die dan maar iets trager is bij nieuwste games ) maar verruit voldoende is + vol gebruikt wordt voor mijn andere oudere games.

Ik ben zeer tevreden met me 280, terwijl mijn maat met zijn 2x ati kaarten. nogal wat problemen heeft ondervonden. Waardoor die overgestapt is naar een 2x op 1 kaart oplossing, wat ook verre van ideaal bleek te zijn ( buiten nieuwste games ).

Ik vindt de 4x0 versie van nvidia wat tegenvallen, vandaar dat ik de overstap niet gedaan had. de 580 versie vindt ik gewoon een goede kaart die overal aan voldoet.

Het is net waar je de kaart voor wil hebben. De videokaarten blijven videokaarten, maar worden zeker niet bij iedereen voor hetzelfde gebruikt.

Zodra ati een fatsoenlijke 1 gpu oplossen maakt, beter, goedkoper is. Zal ik de overstap maken.

Maar de crossfire/sli/2x gpu's op 1 kaart. Vindt ik gewoon geen oplossing.

( ik had voor de 280 een ati kaart, niks geen problemen. totdat ze ineens overstapte naar 2x op 1 kaart principe. Toen was het direct een 280 voor mij. En dat zal nu weer de keuze zijn)

[Reactie gewijzigd door Gatygun op 10 november 2010 20:51]

Ik speel namelijk ook nog oude games zoals world of warcraft, die "wat ik me liet vertellen door wat gebruikers" problemen geven met kaarten die in zo'n configuratie staan 2x gpu's op 1 kaart of sli / crossfire setups. ( tenminste performence verliezen ten opzichte van een 1 gpu kaart )

Je hebt ook gewoon de optie om 1 gpu uit te schakelen voor die oudere games, en lang niet alle games hebben dat probleem. WoW heeft dit wel maar de prestaties gaan echt niet zo drastisch omlaag, ik speelde ook een tijdje met de HD4850X2 WoW en ik kon nou niet echt zeggen dat de prestaties slecht waren.


Zodra ati een fatsoenlijke 1 gpu oplossen maakt, beter, goedkoper is. Zal ik de overstap maken.

Want ATI(AMD) heeft geen fatsoenlijke 1 GPU oplossingen?
Niet voor het een of andere maar voordat Nvidia met de GTX460 kwam had Nvidia geen poot om op te staan tegenover ATI(AMD), ja de GTX480 was sneller dan de HD5870 maar dit was ook gekoppeld aan een ziekelijk hoog verbruik, de GTX580 is nou ook niet bepaald zuiniger, enkel in idle. De GTX580 is misschien dan wel sneller dan de huidige HD58xx en HD68xx serie maar dat wil niet zeggen dat ATI geen fatosenlijke oplossing heeft, denk hierbij aan de aankomende HD6970 kaart die dus denk ik met de GTX580 moet gaan concurreren.
Vergeet niet dat voor Cataclysm Blizzard heel veel werk heeft verricht aan de graphics engine van WoW. Onder andere support ie nu DX11. Je kunt er dus ook wel een beetje vanuit gaan dat ondersteuning voor dual GPUs sterk is verbeterd.

De HD5970 is denk ik een zeer realistische optie voor WoW: Cataclysm op 3 schermen.
Leuke kaart, alleen is ie gewoon bijna een jaar te laat. Deze kaart had het eigenlijk tegen de HD5870 moeten opnemen (wat dan een dikke overwinning voor Nvidia zou zijn geweest).

Op Tomshardware staan ook benchmarks met twee GTX580's in SLI: http://www.tomshardware.c...orce-gtx-480,2781-14.html

Je kan zeggen wat je wilt over deze kaarten, maar de scaling is nog altijd fenomenaal :P
De gtx480 heeft nooit de taak gehad het tegen de hd5870 op te moeten nemen, al was hij wel 10-15% sneller. Hij had eigenlijk een concurrent moeten zijn voor de hd5970, helaas pakte het door problemen met het productieproces anders uit voor de gf100, waardoor hij op clocks en shaders bekort moest worden.

Hij zat een beetje in zijn eigen segment, zwevend tussen enerzijds de gtx470, hd5870 en anderzijds de hd5970
Sorry hoor, maar het lijkt mij niet dat Nvidea een single-gpu tegenover een dual-gpu positioneert. 8)7
Ook als je naar de perfomance kijkt, zie je dat hoewel de GTX480 in de meeste gevallen marginaal beter presteert, de HD5870 en GTX480 elkaar directe concurrenten zijn. Misschien dat dat in de eerste plannen van de gpu zo was (wat nu dus de GTX580 is), maar door de problemen met het productieprocedé had Nvidea weinig keus.
Dat is precies wat ik heb gezegd idd, de originele intentie van nvidia was een single-gpu videokaart neer te zetten die de hd5970 kon evenaren kwa prestaties, en dus een single-gpu versus een dual-gpu. Het was ook vaak genoeg te zien in gelekte slides, maar uiteindelijk hebben ze een compromis moeten maken tussen verbruik en prestaties. Een full-spec gf100 zou dik over de 300W gaan, er is een tijdje geleden een prototype naar voren gekomen die standaard al uitgerust was met een ac cooler, wegens het enorme vermogen wat de kaart had.

Je bent trouwens de eerste die een dual-gpu kaart niet met een single-gpu kaart wil vergelijken, met de gtx580 vs hd5970 ligt het wel erg voor de hand. Gebeurt al langer trouwens: 7950gx2 vs x1900xtx, hd3870x2 vs 8800 Ultra, 9800gx2 vs gtx280, en als meeste recente: gtx295 en hd4870x2 vs gtx480 en hd5870.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Tesla

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True