Nvidia brengt Geforce GTX 570 uit

Nvidia heeft de GTX 570 uitgebracht. Net als de GTX 580 biedt de videokaart een betere verhouding tussen verbruik en prestaties dan zijn voorganger, de GTX 470. De prestaties van de kaart zijn vergelijkbaar met die van de GeForce GTX 480.

De GTX 570 is opgebouwd rond dezelfde gpu als de GTX 580: de GF110. Dit is een aangepaste versie van de GF100, de Fermi-chip die aan de basis stond van de GTX 470 en 480. Ten opzichte van de chip van de GTX 580 heeft de GF110 bij de GTX 570 een blok van 32 cuda-cores minder ingeschakeld en zijn de kloksnelheden lager. Ook is er minder geheugen aan boord, is dat geheugen lager geklokt en is de geheugeninterface 320bit in plaats van 384bit breed.

Volgens Nvidia leiden de verbeteringen aan de Fermi-chip ertoe dat de tdp van de kaart op 219W uitkomt, iets hoger dan die van de GTX 470. De prestaties van de kaart zijn echter in lijn met die van de GTX 480, die een tdp van 250W had. Aangezien de GTX 570 goedkoper is dan die kaart en zijn werk ook nog eens zuiniger en stiller doet bij een lagere temperatuur, kan opnieuw worden gesproken van een goede release, concludeert onder andere Anandtech. Nvidia hanteert voor de GTX 570 een adviesprijs van 349 euro.

Ondertussen is het nog altijd wachten op de nieuwe Radeon HD 6950 en HD 6970 met Cayman-gpu's. Die zouden eigenlijk eind november verschijnen, maar AMD zag zich genoodzaakt ze tot december uit te stellen. Nvidia is in het voordeel door, met de lucratieve feestdagen in het vooruitzicht, als eerste met zowel zijn snelste als zijn op een na snelste videokaart van een nieuwe generatie uit te komen. Als AMD te lang wacht met concurrerende producten, zou het groene kamp daarvan wel eens de vruchten kunnen plukken.

KaartGTX 570GTX 470GTX 580GTX 480
Cuda-cores 480 448 512 480
Corefrequentie 732MHz 607MHz 772MHz 700MHz
Shaderfrequentie 1464MHz 1215MHz 1544MHz 1400MHz
Geheugenfrequentie 3800MHz 3348MHz 4008MHz 3700MHz
Geheugen 1280MB gddr5 1280MB gddr5
1536MB gddr5 1536MB gddr5
Geheugenbus 320bit 320bit 384bit 384bit
Voeding 6- + 6pin pci-e 6- + 6pin pci-e 6- + 8pin pci-e 6- + 8pin pci-e
Tdp 219W 215W 244W 250W

GeForce GTX 570

Door Olaf van Miltenburg

Nieuwscoördinator

07-12-2010 • 17:35

88

Reacties (88)

88
84
49
2
0
10
Wijzig sortering
de POV is 339 euro en de eVGA vanaf 399....
in de review van hardware.info is duidelijk te zien dat de POV hoger geklokt is EN lagere temperaturen heeft.....ook nog voor een lagere prijs. Je gaat dan snel denken wat er "anders" is aan het eVGA exemplaar....

ik wacht vol spanning de eigen designs af van de fabrikanten. Eens kijken of Gigabyte met een SOC gaat komen en Gainward weer eens met een goeie GLH versie.
De koeler is precies hetzelfde, maar als je de testen goed bekijkt zie je dat de EVGA een stuk stiller loopt dan de PoV. Dus de PoV heeft de ventilator standaard sneller draaien. Dat zorgt dus voor een betere koeling, ten koste van geluid.

Over de prijs: Tsja, wat zal ik zeggen ... Sowieso moeten er meer winkels komen die de kaart hebben voor je over prijsverschillen kunt spreken, kijk maar naar de GTX 580: de EVGA versie is iets van 20-30 euro duurder dan de goedkoopste in de lijst. Maar het is wel een EVGA, wat betekent dat je goede en lange garantie hebt, en dat die garantie niet verloopt als je de koeler erafhaalt. Voor veel mensen is dat die meerprijs waard!

[Reactie gewijzigd door TheGreatAtuin op 23 juli 2024 18:01]

Niet speciaal reclame naar de buren maar Hier zijn alle 570's van verschillende merken te bewonderen
De Gainward GS GLH staat ertussen, met naar mijn idee een zeer magere overklok. De GLH series staan bekend om hun behoorlijke speeds. Dit keer "maar" 800MHz voor het absolute topmodel, terwijl de SC van eVGA op 797MHz loopt...en dat is zelfs 2 stappen ONDER het topmodel (SSC en FTW). Dat belooft wat!

De POV Ultra Charged loopt al op 810MHz en ook dit is niet het topmodel (TGT BEAST).
Ik had liever gezien dat Gainward deze kaart gewoon goldensample had genoemd.en de GLH bewaard had voor 830MHz o.i.d.

Gainward en Palit zijn van hetzelfde bedrijf (vroegere XpertVision), dus de Palit zal wel ongeveer dezelfde speeds krijgen en dan 10 euro goedkoper zijn.
Overigens lees ik hier dat de cooler van gainward heatpipes heeft die tot 12 graden koeler moet blijven dat het reference model......Wordt hier dan ook gebruik gemaakt van Vapor-X chamber of niet? Het hele idee achter deze Vapor-X chamber methode is toch de veel betere cooling dan heatpipes?

De reden dat ik wacht op fabrieks-eigen designs is o.a. zodat ik de koeler er niet af hoef te halen. Voor mij weegt die garantie van eVGA dan niet direct zo zwaar. Maar goed, eVGA is wel nVidia's promotiemerk, maar eigenlijk maken ze maar weinig aparte cooling designs de laatste tijd.
Is het overigens niet zo dat bij de eerste launch de fabrikanten nog geen toestemming van nVidia gekregen hebben om hun eigen designs uit te brengen?

[Reactie gewijzigd door Deathchant op 23 juli 2024 18:01]

Ik snap niet waarom Nvidea zo snel achter elkaar een videokaart serie uitbrengt,
en waar is eigenlijk de 300 series gebleven?
5xx is wat de 4xx moest zijn
wat je bedoelt is denk ik dat na de 2xx serie de 4xx serie kwam en dat ze de 3xx serie hebben overgeslagen(volgens mij zijn er een maar mobile 3xx kaarten als hernoeming van de mobile 2xx serie)
en inzovere moest de 5xx serie de 4xx serie zijn omdat de 4xx serie gewoon de 3xx serie moest zijn
Anoniem: 383438 @rickie197 december 2010 19:42
neen, de 3xx serie zijn allemaal oem-producten. Hetzelfde met de 1xx serie. Waarom ze daar nu mee zijn gestopt begrijp ik niet helemaal :).

Ik begrijp ook niet waarom er zo wordt geklaagd over de 480 GTX. De 580 gebruikt toch wel 6W minder! We mogen ook niet vergeten dat de 480 al meer bijna 8 maanden uit is, wat toch ook al lang is voor de business.

De 480 was gewoon hun vlaggenschip en om de een of andere reden vonden wij, de consumenten het niet kunnen dat hij maximaal 250 W verbruikte. Wij, diezelfde consumenten vinden de 580 GTX, die 7 maanden later uitkomt, een super product terwijl hij een tdp heeft van 244 W, en idd wel sneller bleek (maar dat is niet meer da normaal zeker? 250 W is dacht ik het maximum dat zo'n kaart kan opnemen, oke ze hebben hem idle ook wat zuiniger gemaakt, maar de chip is ook groter!)

[Reactie gewijzigd door Anoniem: 383438 op 23 juli 2024 18:01]

Om de stickertjes van pci-express 2.0 op je product te mogen kleven, mag het niet meer dan 300W verbruiken.
Voor 1.0 was het 150W en voor 3.0 is het terug 300W geworden.

De reden om het niet te verhogen in 3.0 is om te zorgen dat moederbordfabrikanten geen te dure layouts moeten maken voor alle klanten. Zij willen ook dat stickertje op hun doos zetten en dan is het makkelijker dat je geen monsterbanen moet maken om te zware GPU's te gaan ondersteunen.

Theoretisch gezien zijn er wel geen limieten. Je kan eender welk onderdeel buiten standaarden laten gaan. Maar dan gaan we 10jaar terug in de tijd dat je eerst dagen moet gaan lezen welk onderdeel conflicten geeft in combinatie met andere.
Dat zeg je wel zo, maar het is eigenlijk heel kort door de bocht :) Ik denk namelijk dat je specifiek de 480 bedoelt, en niet de hele serie. Wat dat betreft ben ik het helemaal met je eens, die kaart is inderdaad om je voor te schamen.
Echter, ik ben een heel tevreden eigenaar van de 460GTX, en dat is simpelweg echt een geweldige videokaart.
De GTX460 is ten minste niet zo gruwelijk inefficient als de GTX480 maar loopt (nog steeds) achter op AMD in termen van efficientie, de GTX580 is ook alweer een stapje vooruit en de GTX570 lijkt een meer gebalanceerde kaart dan zijn grote broer. Het is afwachten wat AMD kan doen met haar 6900 serie, geruchten zeggen dat het single core topmodel sneller is dan de GTX580 maar het is maar afwachten hoeveel die gaat verstoken en kosten.Bron
De GTX460 is ten minste niet zo gruwelijk inefficient als de GTX480 maar loopt (nog steeds) achter op AMD in termen van efficientie,
Joh, wat een onzin. Zowat elke site beoordeelt de GTX460 als ongeveer gelijkwaardig (iets beter of iets slechter) qua efficiency.

Zie onder meer zelfs op Tweakers zelf: in vergelijking met de HD6850/HD6870 en in vergelijking met de HD5830/HD5850.

Conclusie: in zijn segment is de GTX460 doet de GTX460 niets onder in efficiency tov AMD's tegenhangers.
Wat duidelijk maakt dat we onze "8800" weer gehad hebben.

De 4x0 en 58xx series waren een sprong vooruit, de komende periode zullen we weinig nieuws ontvangen. Een paar optimalisaties hier en daar, een paar rebranden...

Toch jammer, maar ik heb wel de geluk dat ik telkens op de juiste serie heb gegokt. Zo had ik de 8800 512 GTS (GTX 2 serie was wel beter, maar niet genoeg voor de prijs en de prestaties in games) en nu heb ik een nog altijd een 5850, welke ze ook een jaar later (gtx 460 en 68x0) opnieuw uit brengen.

Hopen dat ATI's 69x0 een grote sprong is, anders zie ik Nvidia ook nog wel een gtx 6x0 maken die weer slechts 10% sneller is met dezelfde efficientie.
De gtx5xx serie is een 'mid-life kicker' om concurrerend te blijven, de gtx6xx serie zal op een chip gebaseerd worden die waarschijnlijk een afgeleide is van de fermi chip, maar ook weer stukken anders in elkaar zit dan de gtx4xx/5xx high-end chips.

Zo'n enorme sprong zal de 6900 serie vermoedelijk niet zijn, men is natuurlijk gebonden aan het 40nm process wat ook alweer aan vervanging toe is. Als ze de gtx580 weten te evenaren met de hd6970 zou dat al erg goed zijn, dan wel met een lager TDP dan de gf110 chip kaarten.
De GTX460 is eigenlijk een manier om klanten vast te houden bij NVIDIA. Dat had je bijvoorbeeld ook al bij 8800GT toen ze schrik kregen van AMD.
Ze verkopen het eigenlijk competitief maar tegen een veel lagere prijs dan NVIDIA zelf zou willen zien.

De reden waarom NVIDIA zoveel recycled is omdat ze met zoveel overschot blijven. De laatste keer dat ze dat leuk hebben opgelost was met de 7900GTO. Zullen een hoop Tweakers hier wel nog in SLI gedraaid hebben door de spotgoedkope prijs.
Daarna zijn ze die overschotten beginnen op te lossen door er gewoon een nieuwe naam op te plakken maar verder niets te veranderen 8)7
Ten tijde van de 8800gt had nvidia weinig te vrezen van amd, de hd3870 kwam niet bij de 8800gtx in de buurt, het werd pas spannend toen de hd3870x2 uitkwam, deze was gemiddeld genomen iets sneller dan de 8800ultra. Toen de 9800gx2 uitkwam was dat de snelste kaart. De 8800gt was ook sneller dan de hd3870, ik zou niet weten waarom een bedrijf met zo'n chip in handen deze niet zou uitbrengen, ze hebben er enorm veel verkocht, en deden het zelfs nog met de gts250 welke ook een g92 chip had. Een ding wat zeker is is dat nvidia geen verlies heeft geleden op de g92 chip.

Dat nvidia hun overschotten wegruimt hoeft niet verkeerd te zijn, de 7900GTO was trouwens maar beperkt te krijgen, enkel als MSI. De g92 chip hebben ze zo lang in productie gehouden omdat die zo goed verkocht, de g200 hebben ze bijvoorbeeld al EOL verklaard nog voordat de nieuwe gtx4xx kaarten er waren.

Als een chip echt verliesgevend is merk je dat automatisch wel, zoals bij de introductie van de hd58xx kaarten, daar kon het toenmalige single-chip topmodel gtx285 zich niet met meten, dus heeft nvidia de productie van de g200(b) chips aardig snel stop gezet.
Als je naar de genoemde Anandtech link kijkt, kun je zien dat het verbruik van de GTX 5x0 serie weinig veschilt met de GTX 4x0 serie. Het zou ook erg raar zijn als ze in 6 maanden veel meer zouden kunnen.

Met zware benchmark Furmark zijn de GTX 5x0 kaarten toch echt de grootste verbruikers.

Maar de 1GB versie van de GTX 460 lijkt verder wel een sweetspot te zijn voor verbruik, prestatie en prijs.

[Reactie gewijzigd door fevenhuis op 23 juli 2024 18:01]

Misschien dat je je GTX460 in een heel ander daglicht gaat zien bij de lancering van de GTX560 begin volgend jaar. :)
Ik denk het niet, want de GTX460 heeft een groot deel van de verbeteringen meegekregen die de GTX570/580 ook gehad hebben. De GTX480 was NVidia's eerste grote GPU op 40nm met een nieuwe architectuur en moest onder grote tijdsdruk worden uitgebracht toen de chip eigenlijk nog helemaal niet de beoogde efficiëntie had. Nadat de GXT480 uitwas heeft NVidia nog flink kunnen sleutelen om de GTX460, en daarna de GTX580/570 wél de beoogde efficientie mee te kunnen geven. Dus de winst die je van GTX480 -> GTX580 zag hoef je niet te verwachten van GTX460 -> GTX560, simpelweg omdat er minder te verbeteren valt. Of de kaart moet gewoon groter of onevenredig hoger geklokt zijn, maar dat maakt hem minder mid-range. Ik denk ook niet dat ze haast hebben met een eventuele GTX560 trouwens, de GTX460 doet het nog prima en staat niet onder de druk waar de GTX480 last van had.

[Reactie gewijzigd door bwerg op 23 juli 2024 18:01]

De 4xx is geheel volgens verwachting.
To big, vers procede resultaat is er na

En doel toch ook bereikd de snelste GPU.
Maar dat is meer door to big.
Alleen zitten er haken en ogen aan.

5xx is ook geheel volgens verwachting.
Procede heefd men meer beteugeld
En haald men er wat meer eruit.

Als AMD ook godzilla chip maakte
Was algehele DX11 gebeuren flink vertraagd.

Dit is gewoon zoals die industrie werkt. en wat voor produckt beleid er word gevolgd.

nV heefd grote risiko's genomen en zat op de blaren.

5xx is wat 4xx had moeten zijn. Is de grootste kolder. Ja wishfull thinkin realiteit is dat nV niet kan toveren.

Met AMD beleid is de snelste GPU halen voor nV al als kado gegeven.
Alleen pakd AMD de massa sales weg.

De GF110 is niks anders dan een GF100b 'n productie geoptimaliseerde chip versie van de GF100. Niks nieuws maar verder afgewerkd.

Blijkbaar houd AMD nieuwe high-end refresh wat meer veranderingen in. Dus wel een andere chip uit die family maar zwaarder. En daarmee ook wat meer produktie risiko.

Daarnaast wil me ook met cuda bezig houden dus wat AMD bied boei mij dan geen hol ongeacht het mijn voorkeur geefd.
Moet iets DX11 cuda capable hebben.

Wat enigzins ook een vooruit gang is voorbij een GTX285
5xx is wat 4xx had moeten zijn. Is de grootste kolder. Ja wishfull thinkin realiteit is dat nV niet kan toveren.
Als het toveren is om een efficiente chip uit te brengen ten tijde van de release van de GTX480, waarom kan AMD het dan wel? Het was gewoon een erg inefficiënte chip. Performace/Watt was gewoon erg laag vergeleken bij zowel de HD5870 en de HD5970, en idle verbruik was ook een grote achteruitgang t.o.v. de GTX200. De GTX580 is zoals je al aangeeft gewoon een gepimpte GTX480, maar nu wél redelijk efficiënt en heeft wél de 512 geactiveerde cores en loopt wél op de snelheden waar fermi oorspronkelijk al op moest lopen. Uiteraard is het wat de GTX480 had moeten zijn. Wat uiteindelijk is uitgebracht als de GTX480 had eigenlijk de GTX480 niet moeten zijn (de uitgeschakelde cores en verlaagde kloksnelheden waren niet gepland).

tevens, mag de layout iets overzichtelijker, dank U ;)

[Reactie gewijzigd door bwerg op 23 juli 2024 18:01]

Anoniem: 347253 @duifi7 december 2010 17:38
Omdat ze graag van de concurrentie willen winnen, met een groter aanbod heb je natuurlijk meer keus en dat is altijd fijn. Ze proberen natuurlijk ook voor ieder wat wils te creëren. Als er veel keus is, is de kans dat jij een video kaart vindt die precies goed is voor jouw doeleinden natuurlijk veel groter dan wanneer je de keuze hebt uit maar 2 videokaarten.
simpel: winst maken
de GF110 is sneller en verbruikt minder stroom en heeft vermoedelijk ook betere yields
-> beter yields = goedkoper produceren
-> sneller = betere positie tov de concurrentie
-> "nieuw" = een goede verkoopsstrategie

men zou ook de bestaande GF470 kunnen voorzien van de GF110 op een iets lager kloksnelheid, maar dat zou marketingtechnisch geen goede zet zijn
de 3xx serie bestond grotendeels uit gerebrande 2xx kaarten. De 3xx kaarten zaten grotendeels in laptops voor de OEM fabrikanten.
en waar is eigenlijk de 300 series gebleven
De Geforce 300 serie was een rebrand van kaartjes uit de 200-serie, en wat nieuwe kaartjes gebaseerd op de architectuur (GT200b of G92b?) van de 200-serie. Ze waren enkel beschikbaar voor OEMs.
Naar mijn weten waren er geen nieuwe kaarten, behalve dat soms een kaart uit de GF200-naam een andere kloksnelheid kreeg en daarmee omgedoopt werd als je dat nieuw kunt noemen. Nieuwe GPU's zijn er in ieder geval niet voor gemaakt.

[Reactie gewijzigd door bwerg op 23 juli 2024 18:01]

Om Amd proberen te killen.. Indd waar is de 3 serie gebleven vroeg ik mij ook altijd al af :P..

Ben benieuwd naar Ati's 69** serie :D die maken van Nvidia weer gehakt. Ati doet het sinds de 5 serie zoveel beter :) ga zo door Ati :)
Die is beperkt gebruikt geweest in de mobile tak. Maar eigenlijk was het gewoon een rebrand van de 2xx-serie. Onderandere de MacBooks en MacBook Pro's van 2010 zijn met een 320M kaart uitgerust. Maar er bestaan ook 305M, 310M, 325M, 330M, 335M, 350M en zelfs 360M.

Er zijn ook desktop kaarten van, de GT 320, 330 en 340. Ook gewoon GeForce 310 en 315. Deze kunnen wel enkel gebruikt worden door OEMs.
linkje van de GT 320 bv: http://www.nvidia.com/object/product_geforce_gt_320_us.html

Kortom: ze waren er wel, alleen weinig gebruikt door tweakers, omdat ze ofwel in laptops zitten, ofwel in OEM systemen.
De 3-serie is gebruikt als rebrand van de GT200 serie voor oems.
Vooralsnog lijken mij de GTX 460's in SLI de betere keus, meer ''bang for the buck''.
maar dan heb je wel het 'SLI' probleem, sommige games ondersteunen geen SLI of je krijgt fouten in de game zelf
Volgens mij wordt SLI anders in alle nieuwe games gewoon ondersteund... en wat bedoel je precies met ''fouten in de game'' ?
Ik draai al 4 jaar SLI, nog nooit een fout gezien hoor :S

En games die het niet ondersteunen zijn vaak oude games en daar heb je geen extreme grafische kaart voor nodig. Nvidia brengt regelmatig patches uit met performance boosts op SLI gebied.
dan heb je het toch ook wel goed gemikt, of speciaal uitgekozen. Want de voorbije jaren zijn er toch een aantal AAA games geweest die bij SLI dezelfde framerate gaven als bij 1 kaart
Maar bij crossfire heb je meer efficientie bij twee kaarten. Dus nog meer 'bang for the buck' als je ook naar ATI kaarten kijkt. Ik denk dat ATI nog steeds de kroon heeft en de 5xx lijn is niet de stap die een 8800 of 6600 ooit was. En dat is jammer voor de consument. Ik zou nu een AIT (6850 bijv) kopen en voor het eerst geen nvidia nemen.
En wanneer is deze kaart volop verkrijgbaar in Nederland ?

Ik heb de afgelopen weken de GTX580 in de gaten gehouden. Via pricewatch en via een paar van my favoriete webshops. Als ze de GTX580 te koop hadden, dan was de wachttijd steevast "pre-order" or "onbekend". Vorige week heb ik pas voor het eerst serieus wachttijden gezien van 6-10 dagen. En de GTX580 werd officieel gereleased 4 weken geleden ! En ik weet nog steeds niet zeker of je je GTX580 indaad binnen twee weken ontvangt nadat je besteld en betaald hebt. Eerst zien, dan geloven.

Dus gaat het 4 weken duren voordat we een GTX570 kunnen bestellen ? En dan 6-8 weken vanaf nu voor hij echt geleverd gaat worden ?

Allemaal teleurstellend.
Afijn, we zijn nu zo dicht bij de release van de ATI6950 en ATI6970, dat ik dat eerst maar eens ga afwachten.
Als je snel bent heb je een 570 met 5 werk dagen in huis(als je afuture mag geloven).
KLIK(10 voorradig bij leverancier)

Ook bij Computerland zouden ze volgens de site de 570 van EVGA op voorraad hebben KLIK

[Reactie gewijzigd door PixellBox op 23 juli 2024 18:01]

Anoniem: 347546 @2805627 december 2010 19:17
Met goed zoeken en een beetje geduld moet het toch lukken hoor.
Zelf nu 3 dagen gezocht en krijg mijn 580 morgen.
Ok je betaald een paar tientjes meer waarschijnlijk en moet niet bij Max ICT en soortgenoten bestellen..
Anoniem: 263922 @2805627 december 2010 22:28
Bij de introductie van de hd58xx kaarten kon je anders ook wel lang wachten.

Leuk dat velen zitten te wachten op die nieuwe ati kaarten, als het dadelijk allemaal niet zo spectaculair blijkt te zijn zit men om woorden verlegen.

Dat is nu eenmaal de routine bij nieuwe kaarten, zit nu zelf ook al 9 dagen op mijn gtx460 te wachten die binnen 3 tot 4 werkdagen leverbaar zou moeten zijn, en die is al een stuk langer uit. Maar de kerst staat ook voor de deur, er zal wel een aardige stormloop op videokaarten zijn, en dan vooral de hd6850/70, gtx460 en hoogstwaarschijnlijk ook aardig wat op de gtx580/70.
Dit ding scoort aardig.
Zal wel rond de 300 euro uitkomen denk ik...
Best mooi kaartje, misschien wel een overweging waard.
WEet nog niet budget crossifre, of een enkele zwaardere.
Wil het dan gaan waterkoelen dus is één enkele wel voordeligger ;) !
Als je even de andere reacties had gelezen had je gezien dat de prijzen momenteel tussen de 340 en 400 liggen. Voorlopig nog geen 300 (zelfs niet voor de budget merken).

En wat bedoel je precies met budget crossfire?
Waarschijnlijk 2 hd6850's, die komen kwa prijs aardig overeen als je van 340 euro voor een enkele gtx570 uitgaat, en presteren wat beter, als de cf zijn werk goed kan doen heet dat.
Ik neem aan dat ze willen concureren met ATI? Want er komen wel opeens heel veel kaarten van nvidia uit
Dat is wel logisch. Ati heeft nu dit jaar een heel goed jaar gemaakt. Zeker de testen (CrossfireX 6870, en 6850). Twee 6870's zijn nog sneller dan 1 Nividia 580! en de 2 6870 zijn ook nog goedkoper!
Verschilt per game he..
Corssfire presteerd in de ene game beter dan in de ander + het feit dat je nu appels met peren vergelijkt.
Appels en peren? Videokaarten en videokaarten! Dat je er van de ene smaak voor hetzelfde geld 2 in kan stoppen maakt de vergelijking nog niet krom.

Als een auto met 2 motoren beter presteert en even duur is als de bijna identieke auto van een ander merk dan koop je die toch?

Het zit allemaal in dezelfde branche en mag dus wel degelijk met elkaar vergeleken worden. Hell, als een aap met een telraam in mijn pc beter presteert bij gelijke prijs dan stop ik die in mijn pc.
Staat die aap ook in de pricewatch.

anyway ontopic, als je het op deze manier gaat vergelijken zou je bijna alles met elkaar kunnen vegelijken (appels en peren zijn toch ook beide fruit, met beide en schil en beide om te eten?)

Ik probeer duidelijk te maken dat je nu 2 kaarten tegenover 1 kaart zet. Hetzelfde wanneer je een 5970 tegenover een 580 zet. De 5970 is meer Bang for Buck maar heeft wel een dual GPU waar de 580 een single GPU heeft (580 dual GPU versie zou natuurlijk weer sneller zijn dan een 5970).

Om een lang verhaal kort te maken: de verschillen tussen crossfire/SLI tegenover een single kaart (met single GPU) zijn te groot!

[Reactie gewijzigd door PixellBox op 23 juli 2024 18:01]

Ik vindt videokaarten reviews tegenwoordig erg krom genomen.
Vroeger was het, welke is de snelste en zit met prijs het beste, en kopen maar.

Tegenwoordig zien de reviews er hetzelfde uit, maar blijft het bij een simpele FPS meting/ geluid / hitte.

Er wordt niet gezegt dat oudere games zoals world of warcraft, geen 2e gpu aanspreken. en een sli / crossfire setup gewoon waardeloos is.

ultra settings ( 30-40 fps ) drukke gebieden gtx 580
ultra settings ( 12-20 fps ) drukke gebieden gtx 460 ( daar gaat je sli al )

De games die 2gpu's wel ondersteunen, geven vaker problemen met sli dan zonder.
Echter een groot voorkomend probleem is microstutter ( enorme fps drops ) wat erg irritant is, komt er ook nog is bij.

Ik heb zelf een 580gtx gekocht, omdat ik een stabiele oplossing wil, die ik overal voor kan gebruiken. Het is niet de snelste en goedkoopste oplossing. Maar wel verruit VOOR MIJ het beste.

Daarbij komt nog is physics, die tegenwoordig niet meer door een 8400gs kaartje geprojecteert kunnen worden ( mafia 2 )

Pak dan nog is 2x ati kaarten, en de physics zul je niet eens aan hoeven te zetten, aangezien er toch niks extra's gebeurt.

zoek je puur snelheid voor nieuwste games, en kan niks anders je schelen. is inderdaad 2x 460 of wat dan ook betere oplossing.

Het is maar net WAT JIJ wilt. En daarom zijn die benchmarks over het algemeen een leuk oppervlakkige vergelijking.

[Reactie gewijzigd door Gatygun op 23 juli 2024 18:01]

Je zegt dat de verschillen te groot zijn maar vertelt ons niet waarom...

Ik volg nu al een tijdje videokaart reviews en er komen duidelijk een paar criteria uit naar voren die belangrijk zijn. Prestatie, energieverbruik en geluidsproductie. Omdat een videokaart een dual of single GPU is, maakt daarbij niks uit. Je kunt alle kaarten vergelijken met gelijke methoden. En je kunt dus de resultaten gewoon met elkaar vergelijken.

Als bijvoorbeeld de kaart X over het algemeen betere prestaties levert dan kaart Y, misschien een beetje slechter presteert in een spel als Farcry 2, in idle en onder load lager energieverbruik heeft en ook nog eens lagere geluidsproductie geeft. Dan maakt het niks uit of kaart X een dual GPU is en kaart Y niet.
Klopt, maar micro-stuttering wordt in reviews vaak niet meegenomen. ;) Dat nadeel is wel inherent aan dual-GPU's.

Ja, ook dan mag het natuurlijk vergeleken worden. Maar als je puur naar benchmarks kijkt geeft het wel een vertekend beeld, want er wordt puur op FPS gemeten. Mocht microstuttering in een review meegenomen worden, en je daar je vergelijking op baseren, dan heb je volledig gelijk.
Maar deze reactie had volgens mij niets te maken met het crossfire/SLI verhaal waar het in eerste instantie om ging.
Mogen we wel nog vergelijken van jou?

Enige reden om verschil te maken tussen cfx/sli en single kaart is wanneer je de plaats niet hebt. Maar als je die plaats niet hebt kan je gelukkig ook dual gpu kaarten tegen die singles vergelijken.
Reviews tonen alle punten om te vergelijken zoals prestaties, stroomverbruik, koeling, overklokken, prijs, verkrijgbaarheid, ...


En ik vind peren trouwens lekkerder dan appels omdat ze zoeter zijn. Schiet mij maar dood want ik heb een vergelijking (en keuze) gemaakt.
Kan je een bolhoed en een AH-64 Apache vergelijken? Ja je kan vergelijken welke je hoofd het best zal droog houden als het regent...
Aangezien dit zowat de enige concurrentie is moeten ze ook wel.
Veder zal >>AMD<< terug slaan met de HD6950 zolang ze maar niet te lang wachten.
15 december als het goed is.
en met de prijs lijkt het goed te zitten volgens de geruchten, 100 euro minder als de GTX580 voor de 6970.
Ik heb liever dat ze een antwoord hebben op de GTX460.

Deze kaart was een half jaar geleden ofzo een betere bang for the buck dan de HD5870.

De enige die kwa prijs in de buurt kwam was de HD5770, maar die haalde het kwa performance weer niet.
Anoniem: 346574 @Rick947 december 2010 17:43
natuurlijk willen ze concureren met ATI, ze hebben alleen ingezien dat een aantal kaarten (GTX465/470/480) niet de verwachtingen waar konden maken. Vandaar dat er ineens "zoveel" kaarten uitkomen
Dit is voor nVidia een solide kaart die hopelijk de concurrentie aankan met de AMD 6950/6970 die aan het eind van deze maand verwacht worden. Je ziet ook dat alle reviewsites conservatief zijn met prijzen geven, omdat ze wachten op de concurrent. Zelfs Guru3D, die normaal echt met prijzen strooien geven slechts een 'Recommended'. Ik verwijs voor het gemak ook even naar de review van de buren (altijd heel compleet) waarin duidelijk wordt dat dit gewoon de directe opvolger van de GTX 480 is. Alle performance maar met lager stroomverbruik en geluidsniveau. Bij Tom's Hardware en bij Guru3D zien ze een enorm laag geluidsniveau bij de referentiekaart, zonder dat hij warm loopt.

Al met al een goeie kaart in het repertoire van nVidia, en ik hoop dat hij de concurrentie aan kan met de AMD's nieuwste. Als dat zo is, dan kunnen we ons aan wat overheerlijke prijsdalingen in het high-end segment verwachten!

Edit: De kaart is al verkrijgbaar in beperkte mate! Kijk hier en hier maar eens. De EVGA vanaf 399E en de PoV vanaf 339E. Nog duur, maar dat betekent wel dat binnen enkele dagen er al voldoende winkels moeten zijn met voorraad.

[Reactie gewijzigd door TheGreatAtuin op 23 juli 2024 18:01]

Misschien handig om te weten dat de 570 dezelfde koelmethode gebruikt als de 580. Namelijk "vapor-chamber" koeling. :)
Anoniem: 80922 7 december 2010 20:04
Mooie kaart, meest interessante in de line-up van Nvidia naar mijn mening. Ik zou echter toch eventjes wachten op de prijs en performance van de 6950/6970. AMD heeft sowieso ook nog wat mooie extra features in de 6000 serie.
lol hardware.info heeft al benchmarks :z

Op dit item kan niet meer gereageerd worden.