Fabrikanten kondigen GTX 470's en GTX 480's aan

Diverse fabrikanten hebben zowel een GTX 470 als een GTX 480 aangekondigd. De meeste modellen zijn identiek aan het referentieontwerp van Nvidia. Een enkeling bracht ook overgeklokte modellen uit, soms met een speciale koeler.

Nvidia introduceerde afgelopen vrijdag tijdens het PAX East 2010-game-evenement in Boston de GTX 470 en de GTX 480. De benchmarkresultaten van de videokaarten op basis van de Fermi-architectuur gingen tegelijkertijd online.

Fabrikanten zoals Asus, Gigabyte, Zotac, Palit, MSI, Point of View en Sparkle hebben elk op basis van het referentie-exemplaar van Nvidia een GTX 470 en een GTX 480 uitgebracht. De videokaarten beschikken respectievelijk over een gpu met 448 en 480 Cuda-cores, die op 607MHz en 700MHz zijn geklokt. De GTX 470 heeft een 320bit-geheugen, dat met 1280MB aan gddr5-geheugen in contact staat. Het gddr5-geheugen is geklokt op 3348MHz. De GTX 480 beschikt over een 384bit-geheugenbus en 1536MB geheugen, dat op 3696MHz zijn werk doet.

Fabrikanten als EVGA gingen een stapje verder door meteen overgeklokte modellen aan te kondigen van zowel de GTX 470 en de GTX 480, met de zogenaamde SuperClock-aanduiding. Behalve de overgeklokte modellen zijn ook varianten aangekondigd met een waterkoelblok van Switftech. Palit heeft ook een GTX 470 en een GTX 480 op stapel staan, met een zelf ontworpen koeler met twee fans die voor de nodige airflow zorgen. De kloksnelheden zouden echter ongewijzigd blijven. De videokaarten zullen vanaf 12 april te koop zijn.

Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480 Nvidia GTX 470 / GTX 480

Door Marc Rademaker

Redacteur

29-03-2010 • 12:46

117 Linkedin

Lees meer

Reacties (117)

117
115
77
5
0
11
Wijzig sortering
Laat ik de prestatie discussie eens aanwakkeren. De 5870 en de gtx480 zijn beide next gen kaarten, laten we die kaarten dan ook als zodanig testen! Natuurlijk kan de optimalisatie zeker beter voor dx9 en 10, maar als het op de DX11 features aankomt dan vaagt deze gtx480 mijn dikke oc'de 5870 weg. Heeft iemand Metro2033 al gespeeld met alle dx11 features? Zelfs met mijn i7 op 4,2ghz en mijn 5870 op 1000mhz kan ik op 1920x1080 geen dx 11 draaien. (1680 res en dan nog een aantal dingen uitgezet= 40fps) En daar had ik de 5870 toch wel voor gekocht...
Kortom, voor de toekomst en alle dx11 spellen kan je toch beter Nvidia draaien. Eigenlijk is deze kaart gewoon te vroeg ipv te laat. De meeste gamers spelen nog gewoon op de 4000/gf200 serie en veel games voor dx11 waar de gtx480 de voorsprong neemt zijn er simpel weg nog niet! Met extreme tesselation blaast de gtx480 zelfs de 5970 voorbij, en dat wil toch wel wat zeggen. Als wij het maar in het juiste perspectief blijven bekijken!
Het ligt er ook maar aan of tesselation dus flink de toekomst heeft binnen games, daar is ook niet iedereen het over eens.

Als dat niet gebeurt, heeft nVidia op het verkeerde paard gegokt. Een techniek moet wel geadopteerd worden door de industrie.

Genoeg voorbeelden van betere technieken die toch het onderspit gedolven hebben t.o.v. mindere.
Tesselation is een main feature van dx11, en waar dx11 word gedraaid heeft de gtx480 meestal een prestatiewinst van +/-20-25%, niet slecht. Ik zie dx11 niet aan de kant geschoven worden hoor? Metro is misschien wel slecht geoptimaliseert voor ATI, maar het verklaart niet dat de meeste DX11 test ruimschoots door de gtx480 gewonnen worden... Natuurlijk, de prijs/prestatie vehouding is niet best, maar voor de features die je er voor krijgt en een prijsdaling naar zo'n 450e (hij is in duitsland al voor 480e te krijgen), vind ik t allemaal wel meevallen en denk ik dat ik mn 5870 weer s ga vervangen voor een Nvidia, gewoon omdat t kan:) (je bent een tweaker of je bent t niet.)
Je mag pas echt oordelen als je de kaart zelf aan de tand hebt gevoeld. Ook ATI heeft steken laten vallen met de 5870, strepen e.d. Gelukkig bij mijn 5870 geen last van.

Er word nog ergens genoemd dat de GTX480 luidruchtig is, nou, dan heb je mijn 5870 met stock koeler op 100% nog niet gehoord, man wat een herrie! Blij dat ik er een accellero twin op gezet heb, en de buren zijn ook een stuk blijer:)

Qua wattage, tja, die tesslation units vragen wel wat, das duidelijk. Maar met een TDP van 250 w tov. 188w, vind ik die extra gloeilamp ook wel meevallen. Ik neem aan dat bij jullie die GPU's ook niet 24/7 op 100% staan te werken?

De tijd zal het leren, driver optimalisaties, gameoptimalisaties en prijsdalingen: t komt wel goed met die kaart. Zodra er veel meer dx11 games komen zal je de overwegend negatieve mening ook wel bijdraaien denk ik.
Elke reviewer geeft aan dat de 480 en 470 te veel lawaai maken. Hardocp heeft zelfs filmpjes ervan gemaakt. Ik zou zeggen, check het maar even. Verschil is duidelijk merkbaar.

http://www.hardocp.com/ar..._gtx_470_480_sli_review/7
Er is een verschil, maar herrie is herrie of die nou van atikaart of van een Nvidia af komt. En en herrietrapper is die 5870 wel kan ik je vertellen, dat die nvidia stockfans meer herrie maken is dan ook alleen omdat de fan harder moet draaien lijkt me. Zet beide op 100% en je hebt dan gewoon een bak herrie, no more no less. Dan maakt die paar dB ook niet meer uit.
Eraf met die koeler en dan een mooie (lees stille) accellero er op.... aahhh wat een rust, en wat een performance... nog meer OC potentieel ook.... MJAM..... Voor stilte koop je een passief 9600gtje ofzo... geen monsterkaart!

Maar genoeg over het geluid, heb je over performance ook nog iets zinnigs toe te voegen?
Want een linkje naar een site plaatsen met een blabla reactie over geluid kan iedereen...
meeste DX11 test ruimschoots door de gtx480 gewonnen worden
voornamelijk de synthetische, vooral waar bijna alleen teslation word gebruikt en weinig anders.
en ja dan wint de gtx480 het.
geef je hem ook nog andere dingen te doen zoals in een echt spel dan word de situatie toch echt snel een stuk minder rooskleurig.
ik zeg niet dat de hd5870 dan wint, maar voor dat prijs verschil hoeft dat ook niet.

de workloads in alle tech demo's is totaal niet representatief voor hoe het straks in games eruit gaat zien.
Dat heeft volgens mij meer te maken met het feit dat metro een nvidia gefinanceerde game is, het hele spel is 1 grote nvidia marketing grap.

Als je de specs checked staat er zelfs geen ati of amd bij, bij recommended staat zelfs een gtx 470 of 480, complete onzin natuurlijk.

Spel is gewoon ruk geoptimalizeerd voor ati kaarten.
Persoonlijk ben ik erg teleurgesteld in deze kaarten en zie ik er gaan afzetmarkt voor.
Ze zijn trager als die van ati, ze verbruiken 100W meer, ze zijn duurder.
Er is toch geen enkele reden om te kiezen voor deze kaarten?
Je moet al een erg grote fanboy zijn om voor een dergelijk inferieur product meer te betalen.
Ze zijn bij meer en deels van de spellen sneller, bij Dirt 2 is een GTX480 net zo snel als een HD5970. Groten deels van de spellen is de GTX480 dus echt wel sneller dan een HD5870.

http://www.hardware.info/..._nVidia_GeForce_GTX_480/7

Maar ik geef toe ze zijn duur en verbruiken veel
Het is duidelijk dat de test bij HWI de GTX480 geen DX11 doet, maar DX9.
Vergelijk het maar eens met andere reviews of bijvoorbeeld die van Tweakers: reviews: GTX480: Nvidia's nieuwe monster-gpu

Daarnaast als je naar de prijs kijkt (bij de Nederlandse webshops) zie je dat de GTX470 iets duurder is dan HD5870, terwijl de prestaties en het verbruik veel slechter zijn.
En de GTX 480 kost maar een klein beetje minder dan de HD5970, terwijl de prestaties meer op het niveau liggen van een HD5870.

Of te wel veel te duur en waarschijnlijk zullen ze dan ook alleen maar verkocht worden aan mensen die er vrij weinig verstand van hebben of gewoon die-hard-nVidia-fanboy zijn. :p
Bij hardware.info is dat inderdaad zo. Erg vreemd, want onze eigen benchmarks laten een heel ander beeld zien: reviews: GTX480: Nvidia's nieuwe monster-gpu

Ook bij Anandtech wint de HD 5970 het van de GTX 480 in DiRT 2: http://anandtech.com/video/showdoc.aspx?i=3783&p=16
Zie reactie hierboven. De videokaarten draaien bij HWI DirectX 9.
Ik weet niet waar jij die info vandaan haalt, maar ze zijn wel degelijk sneller dan de concurrentie. Niet erg veel, maar wel degelijk sneller. En ze verbruiken hoogstens 30W meer ;)
Jij haalt je info in ieder geval niet van ons eigen Tweakers.... Want daar staat toch echt dat de 480 onder load maar liefst 95 W meer verbruikt dan de 5870, en slechts 6W minder dan de 5970...
reviews: GTX480: Nvidia's nieuwe monster-gpu
http://www.techpowerup.co...rce_GTX_480_Fermi/30.html

Sterker nog, wat je bij Tweakers ziet zijn de waarden onder de stresstest Furmark. Deze waarden zijn extremen, zoals je ook ziet bij Techpowerup. Onder "normale" game omstandigheden zal de 480 tot wel 50W meer kunnen verbruiken dan een 5970, terwijl laatstgenoemde de 480 in het stof laat bijten qua prestaties.
Hmmm, sneller dan de concurrentie? De HD5970 is veel sneller dan deze kaarten en is qua prijs best te vergelijken met de GTX480. En die 30W meer klopt echt niet, in sommige reviews komt het load-verbruik van de GTX480 boven die van de HD5970 (met zijn 2 GPU's!) uit. En verbruikt een GTX470 inderdaad ~100W meer dan een HD5850.

Dus Acid.Burn heeft volkomen gelijk naar mijn mening, heb ik alleen aan toe te voegen dat je deze kaarten natuurlijk wel kunt gebruiken als je CUDA of een andere NVidia-only feature nodig hebt. Maar voor gamers (waar GeForce toch op gericht is, heeft NVidia ook recent keihard bevestigd) is dit totaal geen interessante kaart vergeleken bij de ATI's op dit moment.

[Reactie gewijzigd door bwerg op 29 maart 2010 13:09]

De HD5970 is zoals je zelf al aanduid een dual GPU kaart, wat niet echt representatief is voor prestatie vergelijking.

Ik gok dat 2 GTX470 kaarten zelfs nog veel sneller zijn als de HD5970, laat staan 2x een 480.

Dat is wel ook duurder als de ATI kaart maar qua vergelijking is het wel eerlijker.
De HD5970 is zoals je zelf al aanduid een dual GPU kaart, wat niet echt representatief is voor prestatie vergelijking.
Qua prijs en verbruik zijn de HD5970 en GTX480 vergelijkbaar. Leg mij eens uit waarom die vergelijking markttechnisch niet representatief is. Als je 550,- te besteden hebt kan je kiezen: een HD5970 of een GTX480. De ATI-kaart wint in die strijd met 35% meer performance (volgens de review van T.net). Wat maakt het uit dat je bij ATI een dual-GPU oplossing in je pc hebt hangen, en bij NVidia een single GPU? Wat merk je daarvan tijdens het gamen? Enkel dat de dual-GPU oplossing 35% meer FPS kan uitpoepen dus ik heb geen idee waarom die niet vergeleken mogen worden.
Dat is wel ook duurder als de ATI kaart maar qua vergelijking is het wel eerlijker.
Maar net als de meeste andere mensen heb ik geen geldboom in de tuin, en wil ik voor de centen die ik uitgeef fatsoenlijke prestaties. Consumenten willen hun producten over het algemeen zo snel mogelijk hebben voor zo min mogelijk geld, en de kaarten van nVidia komen daar helaas niet aan tegemoet.
Het is in ieder geval wel de snelste single-gpu kaart van dit moment, en daar in ruim sneller dan de concurentie. Die review van tweakers.net is niet helemaal eerlijk omdat ze een single-gpu met een double-gpu kaart vergelijken en dan steeds zeggen dat de prestaties tegenvallen, vind ik een beetje tegenvallen van tweakers.net imo.

Ze hadden op z'n minst dan 2x GTX480/470 in SLI kunnen zetten en kijken wat de verschillen dan waren, misschien schaalt de 480 wel veel beter in SLI dan de ATI kaarten in Crossfire ;)

[Reactie gewijzigd door Ventieldopje op 29 maart 2010 13:14]

Wat boeit het of deze kaart met een single of dual GPU kaart wordt vergeleken. ATi weet betere resultaten neer te zetten met een koppeling van GPU's en daarmee kwa vermogen lager te blijven dan dit Nvidia monster. (monster in negatieve zin) Daarnaast is het verschil in prijs niet eens zoveel. Naar mijn idee gaat het om het totaal plaatje.

Overigens je kunt ook twee 5970 kaarten in crossfire zetten. ;)

Wie zou er twee van deze Nvidia stroom vreters in SLi willen zetten, wat voor voeding ben je dan wel niet nodig en geluidsproduktie van de fan's wordt ook nog wat. Je CV kun je in iedergeval uitzetten. ;) Nee, Nvidia heeft nog heel veel aan de weg te timmeren om weer bij te komen.

[Reactie gewijzigd door _Dune_ op 29 maart 2010 13:26]

Als je enkel en alleen naar de 'prestaties' kijkt hebben jullie misschien wel gelijk ja.

Waar ik jullie echter niet over hoor is het feit dat de Nvidia 4x0 kaarten toch een stukje anders ontworpen zijn dan de laatste lijn van ATI kaarten.

Namelijk dat de Nvidia kaarten enkel en alleen Cuda cores gebruiken voor tesselation ed. en dat de ATI kaarten hier dedicated hardware voor op de kaart heeft.

Zoals in vorige nieuwsbericht over de nieuwe Nvidia kaarten al genoemd en gebleken is, haalt de ATI set op het moment betere benchmarks.

Of dit echter zo blijft na enkele driver updates is maar de vraag, en het is duidelijk dat zoals het nu staat de aanpak van ATI beter 'schijnt' te zijn voor gamen.

Hoe dit echter zit op andere fronten en andere toepassingen is maar de vraag.

Gezien Nvidia heel erg graag boost over hun 'cuda' cores, zou ik het misschien wel nuttig vinden om ook een soort benchmark te zien met Boinc of een andere distributed-computing service (denk folding@home, seti@home etc) om te kijken wat daar precies de verschillen zijn.


Persoonlijk ben ik een Nvidia kaart, en zal ik waarschijnlijk zeker een 480 (of betere variant) kopen wanneer ik besluit dat mijn 9800GTX te oud wordt, maar dat is mijn voorkeur.

Er is meer met grafische kaarten dan alleen benchmarks en ruwe specs,
persoonlijk heb ik een BLOEDHEKEL aan ATI catalyst/drivers en wil er niet dood naast gevonden worden.
Persoonlijk heb ik een BLOEDHEKEL aan ATI catalyst/drivers en wil er niet dood naast gevonden worden.
Goede onderbouwing joh... Voorlopig zuigen de nv-drivers ook behoorlijk anders hadden de voorlopige benchmarks wel beter uitgepakt. Ik kan me voorstellen dat je het ccc gedeelte van de drivers ruk vindt (omdat ze het .net framework gebruiken ?) maar face it. ati-spul is echt niet verkeerd. Ik heb op dit moment een 8800gts512 maar vermoed dat mijn volgende kaart een ati/amd wordt alleen maar omdat de kleuren mooier zijn en misschien ook omdat de prijs/kwaliteit/snelheid verhouding beter is. Nvidia is allang niet meer de enige die leuke 3d-kaarten maakt net zoals J.Carmack niet meer de enige is die leuke engines kan maken.
Ati 5xxx kaarten zijn nu al een aantal maanden uit en nog steeds is er het strepen probleem en etc. (Maar dat ligt meestal alweer aan de hardware want sommige zijn gewoon fout gebakken of defect door de test gekomen, dan wacht ik liever 1 maand tot dat dit aantal veel lager is en de drivers (veel)beter zijn.)
En ik denk niet dat er nog veel meer uit te halen is.
Want als je naar de launch keek, het duurde ongeveer een maand voordat je een 5870 thuis had. En ik denk dat minder is met de 470, alleen als je naar de yields kijkt zullen er ook wel weinig zijn en faalt Nvidia hard als er nu te weinig exemplaren zijn.
Maar als we even terug gaan... Dit zijn de eerste drivers voor de nivida 4x0 series.
En als hier geen problemen in ondervonden worden dan scoren deze dus aanzienlijk beter dan die van ATI waarin de eerste 3 maanden alleen maar fouten, bugs en dergelijke zitten.
En dat er uit de 4x0 series nog veel uit te halen is, qua drivers en support.
Ik kijk liever eerst als ze uit zijn en dan eens echte benchmarks bekijken :) .
En wachten op non-retail coolers en etc.

Ik ben geen Nvidia-fanboy en geen Ati-fanboy.
En ook geen Nvidia-hater en geen Ati-hater. Ik kijk het liefst naar prestatie/prijs en dat is in deze review de 5970 ja(alhoewel die best duur is..).
De beste prestatie/prijs zijn twee 5770's in crossfire lijkt mij.
Maar ik kijk ook uit naar deze kaartjes !
Zoals in vorige nieuwsbericht over de nieuwe Nvidia kaarten al genoemd en gebleken is, haalt de ATI set op het moment betere benchmarks.
En wat doe je met zo'n kaart: gamen. Punt. En die benchmarks wijzen uit dat je beter een ATI kunt hebben voor gamen. Als je de hele dag folding@home wilt doen, prima, koop maar een GTX480 (heb je nogal wat voor over dan gezien de meerpijs in de aanschafprijs en stroomkosten). Maar NVidia is er heel duidelijk over geweest dat de Geforce-serie voor games is en blijft, en daarin doet deze kaart het aanzienlijk minder qua prijs/prestatie en prijs/verbruik. Mag je mij uitleggen waarom het dan nog relevant is dat beide fabrikanten een andere architectuur gebruiken zoals altijd, en waarom dat dan in het voordeel van NVidia zou zijn.

[Reactie gewijzigd door bwerg op 29 maart 2010 14:32]

Waar ik jullie echter niet over hoor is het feit dat de Nvidia 4x0 kaarten toch een stukje anders ontworpen zijn dan de laatste lijn van ATI kaarten.
Oh, daar is iedereen het over eens hoor. Het lijkt er alleen op dat (in elk geval voorlopig; ik heb mijn kristallen bol even niet bij de hand) de keuzes van ATI beter lijken uit te pakken dan die van nVidia.
Of dit [ATI haalt betere benches - RvW] echter zo blijft na enkele driver updates is maar de vraag, en het is duidelijk dat zoals het nu staat de aanpak van ATI beter 'schijnt' te zijn voor gamen.
Da's niet helemaal eerlijk, ATI kan namelijk net zo goed nieuwe drivers uitbrengen (en ze zijn alweer een tijdje bezig met hun maandelijkse driver releases, dus claimen dat ATI "dat toch niet gaat doen" kan alleen als je een hele goede onderbouwing hebt).

[q]Persoonlijk ben ik een Nvidia kaart, en zal ik waarschijnlijk zeker een 480 (of betere variant) kopen wanneer ik besluit dat mijn 9800GTX te oud wordt, maar dat is mijn voorkeur./q]
Ik moet opeens denken aan die grap over "De systeemvereisten zeiden "Windows XP of beter", dus ik heb het onder Linux geïnstalleerd" O-)
persoonlijk heb ik een BLOEDHEKEL aan ATI catalyst/drivers en wil er niet dood naast gevonden worden
Helemaal mee eens! Ik wil trouwens ook niet dood naast nVidia-drivers gevonden worden. Heeft een stuk meer te maken met dat dood dan met die drivers trouwens. Sorry, ik vind het een nogal stompzinnige uitdrukking. Maar los daarvan, kun je misschien een concreet voorbeeld geven wat er mis is met de ATI-drivers? Zo is het niet erg overtuigend.
Ayporos,
ik vind het leuk dat je jezelf een nvidia kaart noemt. Je bent er erg enthousiast over.
Ik ben het ook met je eens dat de kaarten waarschijnlijk nog veel meer performance in huis hebben dan nu vanwege de nieuwheid an de drivers.

Echter. de huidige prijzen zijn ronduit belachelijk t.o.v. Amerika, veel te duur gewoon.
Ik ga maar even wachten denk ik, ik zit op GTX260 C216 SLI dus dat houd ik wel vol.

De ATi drivers zijn voor mij ook een heel goed argument om voor Nvidia te kiezen
vanwaar die haat tegen ATI drivers. De laatste 2, 3 jaar (na de overname van AMD) zijn ze echt wel goed. Ik vind ze persoonlijk zelfs beter dan de de nvidia drivers. Die nvidia drivers lijken wel met plakband aan elkaar te hangen.
Die review van tweakers.net is niet helemaal eerlijk omdat ze een single-gpu met een double-gpu kaart vergelijken en dan steeds zeggen dat de prestaties tegenvallen, vind ik een beetje tegenvallen van tweakers.net imo.
En ik vind het een beetje tegenvallen dat ik zulke opmerkingen steeds weer tegenkom. De prijs van de GTX480 is vergelijkbaar met die van de HD5970. Zelfde voor verbruik. Enige verschil is dus de prestaties die bij de HD5970 een stuk hoger liggen. Leg me dan eens uit waarom ze markttechnisch niet vergeleken mogen worden? Een GTX480 is SLI kost ~1100 euro en verbruikt (hele systeem) ~750W. Dat is dus te vergelijken met een cypress/hemlock in quad-CF.

Want zeg nou zelf, snelste single-GPU klinkt wel leuk en zo, en is daadwerkelijk belangrijk als je zo snel mogelijk quad-SLI of quad-CF wilt draaien (wat nagenoeg niemand doet), maar wat merk je nou eigenlijk tijdens het gamen van het verschil tussen single-GPU of dual-GPU? (en nee, de HD5970 heeft nauwelijks last van micro-stuttering vergeleken bij twee losse kaarten)

[Reactie gewijzigd door bwerg op 29 maart 2010 13:22]

Haha 30 watt meer? Je bedoelt 130 watt meer? Ik zou de reviews maar toch eens ff goed doorlezen ;)
Ik weet niet waar jij die info vandaan haalt, maar dat is simpelweg niet waar. Ze zijn meestal (marginaal) sneller dan de concurrentie, maar verbruiken veel meer dan 30 watt meer. Uit de review:
Al met al kent de GTX480 een tdp van 250W, tegenover 188W voor de HD 5870. De HD 5970 heeft een opgegeven vermogensbehoefte van 294W.
Nou gaat dat uiteraard over het tdp en niet over het daadwerkelijke verbruik, maar als je kijkt naar de review en het verschil van het hele systeem met een 5870 zo'n 20-25% is, kan je tot de conclusie komen dat het verschil niet marginaal is. Als je per kaart gaat kijken schiet dat percentage dus nog verder omhoog. Als je het gaat vergelijken met de prestaties gaat het natuurlijk helemaal nergens meer over.

[Reactie gewijzigd door Camacha op 29 maart 2010 13:05]

en dan hebben we het nog niet eens over het Idle gebruik van de Nvidia kaarten
De 480 is sneller dan de 5870, maar je hebt wel gelijk wat betreft de 470. Deze schijnt helemaal geen interessante kaart te zijn omdat deze net zo goed presteert als een 5850, terwijl de laatste stukken zuiniger, koeler en stiller is. Oh ja goedkoper ook :p

[Reactie gewijzigd door Relief2009 op 29 maart 2010 13:03]

Als alle kaarten hetzelfde zijn, lijkt me dat de meeste mensen gewoon voor de goedkoopste gaan?

offtopic: Wat 'n lelijke kaarten zijn dat, trouwens...
offtopic: Wat 'n lelijke kaarten zijn dat, trouwens
Ik denk dat het uiterlijk slecths het minste probleem is van deze kaarten.

Het verbruik, het lawaai en de prijs/prestatieverhouding van deze kaarten werken sterker in het nadeel.

Als je de PC 24x7 aan het staan ben je 40-50 euro kwijt aan idle stroom verbruik voor je videokaart.
Dat is in deze tijden gewoon belachelijk.
Ik vind de kaarten nou niet bijzonder lelijk. Lekker strak, geen stomme plaatjes meer erop met kinderachtige karaktertjes etc.

Ik zou persoonlijk voor een EVGA variant gaan, mede om hun 90 dagen step-up program (als er binnen 90 dagen een nieuw product komt wat beter is kun je hem omruilen met de aankoopwaarde die toen is betaald, het verschil betaal je dan bij). Maar ook om hun goede garanties en overclock garanties, de goede community erom heen en niet te vergeten hun eigen tools die meegeleverd worden.

Verder vind ik het trouwens opmerkelijk dat Nvidia niet al te lang geleden hadden beloofd dat makers de kans kregen hun hele eigen PCB te maken en niemand van de fabrikanten dat echt hebben gedaan. Is dat omdat het te duur is of omdat Nvidia daar toch van af zag?

EDIT: Nog als laatst, ik ga hem zeker weten niet kopen alleen... Tenminste, niet hier in Nederland. 529 euro is gewoon ronduit belachelijk, hij is potverdikkeme 499 dollar in Amerika. Hier in NL zijn ze echt van de pot gepleurd, met de huidige koers is dat omgerekent 350 euro's, maarja dat kennen ze nog niet zo goed... Omrekenen

[Reactie gewijzigd door FricoRico op 29 maart 2010 15:50]

er is al door tweakers een review gemaakt, waar dat allemaal in staat:
http://tweakers.net/revie...s-nieuwe-monster-gpu.html
Per wat? Per maand? Week?


On-Topic:

Slim van EVGA om een standaard watergekoelde variant te leveren... Zo onderscheid je jezelf van de andere stickers.
Het nadeel is dan wel natuurlijk dat alleen waterkoel-fans er een aan zullen schaffen, en zelfs zij zullen misschien overwegen een normale kaart te kopen en hem zelf te waterkoelen. Kleine groep bereikt, maar het is natuurlijk sowieso een exquise product.

Edit:

Nog wat off-topic:
PALIT kan zeer goed gelezen worden als PRUT, :+ door de A die op een R lijkt en de LI combi waarvan het me ook wel duidelijk lijkt dat ze op een U lijken.

Edit: Smiley toegevoegd.

[Reactie gewijzigd door ZebeDeuS op 31 maart 2010 16:45]

Ik denk dat de meeste mensen meer merk-trouw zijn dan de goedkoopste kopen om eerlijk te zijn.

Ik koop bijvoorbeeld altijd Asus als dat er is, videokaart/moederbord/geluidskaart etc.
Gewoon omdat ik er altijd goede ervaring mee heb.
Er zijn ook plenty mensen die juist niet naar het labeltje kijken maar naar de hardware - en als er geen verschil tussen (lijkt te) zit(ten) kiezen veel mensen dus de goedkoopste.

Ik denk zelf dat het grootste verschil hem zit in de garantie en extra's. Zo leverde bijvoorbeeld Sapphire voor een tientje extra DiRT2 mee met de ATi Radeon HD5850.
Dat in combinatie met redelijk goede bekendheid trok mij over de streep.

Het merk speelt dus vast wel mee, maar is in de meeste gevallen echt niet het enige.
Grappig, ik kreeg DiRT2 gewoon gratis meegeleverd met mijn CLUB3D HD5850, ook al staat daar dus geen garantie op...
Als je op DIT moment eraan denkt om een GTX 4xx te kopen, ben je sowieso niet iemand die uit is op de beste bang/buck verhouding. Die paar euro voor een goede koel oplossing kunnen er dan nog wel bij.
Als ik in de markt lag voor deze spullen zou ik gaan voor liquid cooling en dus dat koelblock van EVGA.

Als je Fermi wil voor een redelijke prijs moet je wachten op mainstream kaarten.
sterker nog: als je het laatste anderhalf jaar voor nVidia gaat, ben je sowieso niet op zoek naar de beste bang/buck, gezien ATI sinds de HD4000 serie met kop en schouders boven nVidia uittorent op dat vlak :)
Dat gebeurt ook meestal. Tenzij de kaarten moeilijk leverbaar worden (wat meestal het geval is bij de launch) of wanneer mensen bijvoorbeeld aftermarket koelers willen gaan gebruiken zonder de garantie te verliezen. Niet elke fabrikant staat zo iets toe.
Ze zijn allemaal slecht leverbaar, dus daarom valt de prijs boven de adviesprijs.
semi OT-Ben zelf een ati fan : MAAR.. ik vind dit toch best mooi uitziende kaartjes maar ik ben ook een van de weinigen die de haf 932 mooi vind ..

OT- dit word lastig benchmarken met zoveel verschillende modellen met verschillende kloksnelheden ze zien er wat goot uit deze kaarten iemand een idee wat de afmetingen precies zijn?

Offtopic: misschien vind je ze wel lelijk. maar niet iedereen heeft een mooi open-kast model met raampjes. zolang de kaart voldoet en lekker koud blijft zonder veel poespas en aardverschuivingen en tornado's vind ik het niet zeer belangrijk hoe zo'n kaart er uit ziet

Ook mis ik een paar deelnemers in de lijst waaronder Club3d toch geen onbekende
De meesten zullen waarschijnlijk ook wel naar de goedkoopste kijken. Persoonlijk vind ik EVGA wel een fijn merk, goede garantie regeling en soms ook iets fraaiere kaarten.

Meestal van fabriek af overclocked modellen die het goed doen.

EVGA Precision tooltje vind ik ook wel prettig, lekker simpel maar voldoende opties.

offtopic:
Vergeleken met kaarten van Ati vind ik de nVidia's toch wel een stuk mooier. Ati komt bij mij wat over als een plastic stuk speelgoed (wat het ook wel een beetje is natuurlijk ;) ), maargoed smaken verschillen.
Dat heb ik bij mijn 8800GT's gedaan, maar daar heb ik toch een beetje spijt van... die krengen overheaten bij sommige spellen (vooral ut3 engine) terwijl ze bij andere games totaal geen problemen hebben. Helaas is de dealer echter failliet en de fabrikant (xpertvision) opgegaan in een ander bedrijf dat hier niet actief is...
Dus volgende keer koop ik toch maar liever weer een meer vertrouwd merk ook al is die misschien wat duurder...
Hmm. Ik mis XFX in dat rijtje.. Zijn ze compleet op ATI overgestapt of zijn ze altijd wat laat?
XFX is geen preferred partner in Europa, dat is in ieder geval wat ik er van begrepen heb. Dat betekent dat ze pas vanaf de 2e batch videokaarten krijgen om te verkopen. Zie het als een tik op de vingers vanwege de verkoop van ATI-kaarten. Wat de 2e batch overigens precies inhoudt is mij niet duidelijk.
Reden genoeg om voor mij even te wachten op de 2e batch, de prijs zal tegen die tijd wat gezakt zijn en eventuele productie fouten die er in geslopen zijn zullen dan wel verholpen zijn.

Ene kant een nadeel voor XFX dat ze pas de 2e batch krijgen en later kunnen verkopen, aan de andere kant ken ik XFX wel als een merk van goeie kwaliteit videokaarten (standaard overgeclockte versies stabiel etc.) dus als de 2e batch inderdaad een betere kwaliteit heeft dan de 1e dan zal het de naam van XFX alleen maar ten goede komen ;)

Even over wat anders, ik zie dat de ASUS kaart een dichte bovenkant heeft terwijl andere en reference dat juist niet hebben? Lijkt me dat die kaart veel te heet gaat worden :O
Zie het als een tik op de vingers vanwege de verkoop van ATI-kaarten.
Asus, Gigabyte en MSI verkopen ook ATI-kaarten (van de andere weet ik het niet zeker, kon in de PW zo snel niks vinden).
Dat betekent dat ze pas vanaf de 2e batch videokaarten krijgen om te verkopen.
Als je de geruchten mag geloven komt er niet eens een tweede batch. :+
Dat viel mij ook al op, maar als je er op googelt zijn er genoeg berichten te vinden over de XFX GTX400's. Het zal dus gewoon toeval zijn. Er waren wel wat geruchten dat de relatie tussen NVidia en XFX wat minder was geworden omdat XFX nu ook ATI's verkoopt maar ik denk dat dat allemaal wel meevalt (of gewoon compleet niet waar is).
Ja, maar ik heb op de xfx site rond gekeken, maar daar werd nog geen woord over gerept, alleen de GT200's staan bij Nvidia products.
het gerucht gaat al langer dat XFX geen nvidia partner meer is, of het bevestigt is weet ik niet maar dit is wat ik kon vinden:
Rumor has it that this week NVIDIA will let it officially be known that XFX's European operations will cease to be an NVIDIA Approved Partner. This means that XFX will lose all underlying NVIDIA support on GPU allocation and new product launches...including Fermi. It also looks as if Visiontek will be kicked out of a MAJOR USA e-tailer, which will probably decimate Visiontek's business. We will be seeing other major changes in video card sales this year here in the USA as well. The video card manufacturer landscape will be very different in the USA this year. Expect to see two or three major brands fall by the wayside when it comes to NVIDIA and AMD GPUs.
enigste reden zou kunnen zijn dat de geforce kaarten physx hebben, maar dit is ook simpel op te lossen door voor cheap een 88xx kaartje te kopen en met een patch naast je ati kaart te draaien :)
Ik heb recent ergens gelezen dat Nvidia PhysX uitzet zodra er een ATi kaart in het systeem wordt gevonden. Dus dat zal niet meer gaan. Ik vind dit erg schofterig van Nvidia overigens, om wat voor reden dan ook.

Link naar bron.
Wees eens een echte tweaker en check of je eigen links wel werken ;)
Je bedoelde vast dit.
Moet je wel een mobo met 2x pci-e hebben ;)
En daar knapt je stroomverbruik ook niet van op ;p

[Reactie gewijzigd door Peter91 op 29 maart 2010 13:04]

Als stroomverbruik belangrijk voor je is moet je toch echt alles doen om deze kaarten te vermijden hoor :+ dan is een 8800GT + HD5000 een prima oplossing. En je moederbord vervangen door eentje met 2x pci-e x16 kan je best veroorloven qua prijs als je deze kaart niet neemt. Nee, ik ben er geen fan van. De prijzen lijken zo hoog te worden als die van een HD5970.

[Reactie gewijzigd door bwerg op 29 maart 2010 13:14]

hoeft niet eens 16x te zijn, je kan hem net zo goed in een 1x slot stoppen :)

Het werkelijke verschil tussen 1x en 16x is maar 4%.
Anoniem: 171689
@Peter9129 maart 2010 13:12
9800GT green 75 watt + 5850 = evenveel stroomverbruik als een nieuwe Fermi.
tja, als je net zoals ik nog een oud kaartje heb liggen dan is de aanschaf lager :)
Anoniem: 215707
29 maart 2010 12:52
De reden dat die kaarten zo'n specifiek design hebben (wat jij dus 'lelijk' noemt) is het gigantische koelvermogen dat de stock coolers nodig hebben.. Lijkt me sterk dat de overclockte modellen een halve kilo aan heatsinks zullen moeten hebben om het geheel op een aanvaardbare temperatuur te houden..
Juist wel, zoals je uit de T.net review hebt kunnen opmaken worden deze GF100 GPUs stock al erg heet (veel grotere die-oppervlakte). Overigens denk ik dat hypnotize het over het ontwerp van de stickers had.
Als je een kleiner die-oppervlakte hebt met gelijkwaardige rekenkracht dan kun je die warmte toch juist veel moeilijker kwijt? Oftewel omgekeerd, hoe groter het oppervlakte, hoe meer contact met een eventueel koelsysteem dus meer capaciteit om warmte af te voeren? Of zie ik iets over het hoofd?
Je hebt gelijk dat bij gelijke TDP en gelijke definitie van TDP :p een grotere die iets makkelijker zijn warmte kwijt kan aan de koeler. In de praktijk is warmteontwikkeling echter min-of-meer evenredig met de oppervlakte. Echt niet 1-op-1, maar een veel grotere die (op hetzelfde proces) zal in nagenoeg alle gevallen meer vermogen verstoken (onder load, over idle is bijna niks te zeggen).
Warmteontwikkeling komt van schakelende transistoren. Aangezien (op hetzelfde proces) er evenveel transistoren op hetzelfde oppervlak passen en de schakelsnelheid niet enorm zal verschillen, kom je (in zeer grove benadering) uit op warmteontwikkeling / oppervlak ~= constant.
Het is niet bepaald een geheim dat Fermi GPUs monsterlijk groot zijn, waardoor het hoge verbruik goed te verklaren is.
Weet niet of die evga kaart de duurste is van de fabrikanten die de gtx480 gaan leveren.
Maar ik zie in de pricewatch een ATI 5970 staan voor dezelfde prijs terwijl die in alles veel sneller is dan de GTX480 zoals we hebben kunnen zien in de tweakers test.
Als dit werkelijk de prijs wordt voor de GTX480 dan koopt niemand die toch ?
Anoniem: 171689
@Dethdumpa29 maart 2010 13:11
Oh jawel, er zijn er zoveel die zo hard zweren bij nVidia dat ze hem zouden kopen als zou hij 650 euro zijn.
pfff http://tweakers.net/price...20/geforce-400-serie.html (beetje vroeg al, staan er nog maar 4)
leuke prijs zit er wel aan vast, helaas dat ze meteen van de Dollar prijs een Euro prijs maken bij deze webshop, so far...
Denk inderdaad dat ati niet zo snel word verplicht zijn prijzen omlaag te doen, tenzij ze zodadelijk voor, nogal, goedkoper staan bij de andere shops, er moeten en zullen er nog meer dan genoeg komen :9~ , dus nog eventjes afwachten

[Reactie gewijzigd door TheMadHotMonkey op 29 maart 2010 13:38]

pfff http://tweakers.net/price...20/geforce-400-serie.html (beetje vroeg al, staan er nog maar 4)
leuke prijs zit er wel aan vast, helaas dat ze meteen van de Dollar prijs een Euro prijs maken bij deze webshop, so far...
Dit is in hardwareland heel normaal, over het algemeen is, "getal in dollar's is getal in euro's".
Het apparaat is net nieuw uit, als de drivers een beetje zijn geoptimaliseerd, en ze hebben alles een beetje onder controle, wordt ie misschien nog wel 10-20% beter dan dat ie nu is, en zodra de productie goed loopt, wordt ie ook nog een stukje goedkoper ;)
ik verwacht dat de kracht in uit al die cuda-cores moet komen itt was bij ati dedicated gebeurd (tesselation). Is allemaal veel flexibeler - de tijd zal het leren. De kaart was al een half jaar utigesteld en daar zullen ze wel hele goede redenen voor hebben gehad..
Een goede reden om NIET te gaan voor een AMD 5970 te gaan is het feit dat een dual core GPU is.

Je zit altijd te emmeren met Xfire profiles die -met een beetje geluk- 2 maanden nadat een spel is uitgekomen worden opgenomen in Catalyst.
Nu heeft ATI wel sinds 10.2 een mogelijkheid tot tussentijdse profiles ingebouwd maar in de praktijk werkt dat nog niet echt (zie ook AMD forum).

Ikzelf zit nu met 4870x2 en als ik het had geweten dan had ik dus toendertijd voor 2x 4870 moeten gaan.

Maar ook de ondersteuning van ATI zoals maar 1 keer maand een nieuwe driver, toch vaak terugkerende bugs, problemen met de 5xxx range (zie ook AMD forum) zouden mij NU meer naar het Nvidia kamp lokken.
Maar ja.... mijn 4870x2 is financieel -helaas- nog niet afgeschreven... ik doe het er maar mee
Je weet toch dat 2x een 4870 gewoon EXACT hetzelfde is als een 4870x2?
Het enige verschil is, dat je crossfire met een 4870x2 moet uitzetten door de Caralyst AI op 'Disable' te zetten, terwijl je het anders in de crossfire tab kunt doen (die je nu niet hebt, omdat het gezien word als een single kaart).

Daarbij moet je mij eens vertellen welke -recente- games geen crossfire profiel hebben bij de launch (vooropgesteld dat je je drivers update). Al mijn games draaien prima op mijn 4870x2: Just cause 2, Battlefield BC2, COD MW2 zelfs Metro draait heerlijk.
Alleen enkele oudere games geven kleine grafische bugs met crossfire, maar die zijn meestal zo oud dat ze 500+fps halen op 1x4870.

Nee, ik snap niet dat je zo ontevreden van die kaart kunt zijn... Ok, hij is enigszins luidruchtig (alhoewel dat nog wel meevalt), en je moet regelmatig je drivers/profiles updaten.. voor de rest ben ik er best blij mee!
Correctie : 2x 4870 is echt NIET gelijk aan 1 keer 4870x2.
Wellicht 98% maar die overige 2% procent is het verschil tussen echt 100% 1 GPU kunnen uitzetten en net niet 1 GPU kunnen uitzetten.

Toegegven het komt niet vaak voor maar ik weet nog bij Mirror's Edge.
Die draaide initieel voor geen meter op een 4870x2 en ook niet op 2 x 4870 (ontbreken van Xfire profile)

Maar diegene die op 2 x 4870 zaten konden hem wel goed draaiend krijgen door 1 kaart uit te zetten (crossfire tab), maar met die 4870x2 was het met AI disabled niet vooruit te branden.

Maar uberhaupt is Xfire of SLI niet altijd even prettig. Er zijn genoeg voorbeelden van issues met 2 GPU's.
Mijn volgende kaart wordt echt gewoon een single GPU krachtpatser.... alleen nu even niet :-)
sinds de 10.x reeks drivers komen de profiles los :)

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee