Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Definitieve specificaties GTX 480 en GTX 470 bekend

Door , 195 reacties

Een week voor de officiële introductie zijn de definitieve specificaties van de Nvidia GTX 480 en GTX 470 uitgelekt. De GTX 480 is geklokt op 700MHz en heeft 480 shader-eenheden, terwijl de GTX 470 een shadercluster minder heeft.

De uiteindelijke lijst met specificaties van de twee gpu's, op basis van de nieuwe 'Fermi'-architectuur, verschillen op een aantal punten van eerdere geruchten, zo is te lezen bij Hardware-Infos. Zo is de uiteindelijke kloksnelheid van het topmodel GTX 480 met 700MHz beduidend hoger dan de eerder verwachtte 625MHz, maar zijn de 480 shader-cores minder dan de eerder gesuggereerde 512 shader-eenheden. Ook was verwacht dat de tdp uit zou komen op 300W, maar Nvidia heeft deze uiteindelijk binnen de grens van 250W weten te houden.

De GTX 470 levert, in vergelijking met de beduidend duurdere GTX 480, in op meerdere vlakken. Zo is een shadercluster minder geactiveerd zodat het totaal aantal shader-eenheden uitkomt op 448. Ook heeft de GTX 470 vier tmu's en acht rop's minder dan de GTX 480. De tdp van de GTX 470 bedraagt 215W, 10W minder dan eerdere geruchten.

In tegenstelling tot een eerder bericht valt de prijs van de GTX 470 met 349 dollar flink hoger uit. De GTX 480 krijgt een adviesprijs mee van 499 dollar. De GTX 480 en GTX 470 zullen op het PAX East 2010-game-event, dat 26 maart van start gaat, officieel geïntroduceerd worden.

 GTX 470GTX 480
Codenaam GF100 GF100
Kloksnelheid gpu 607MHz 700MHz
Kloksnelheid shaders
1215MHz 1401MHz
Kloksnelheid geheugen 837MHz 924MHz
Shader-eenheden 448 480
Rekencapaciteit 1089Gigaflops 1345Gigaflops
TMU's 56 60
ROP's 40 48
Pixelfillrate 24,3GP/s 33,6GP/s
Geheugengrootte 1280MB 1536MB
Geheugeninterface 320bit-gddr5 384bit-gddr5
Geheugenbandbreedte 133,9GB/s 177,4GB/s
Tdp 215W 250W
Prijs 349 dollar 499 dollar

Door Pieter Molenaar

20-03-2010 • 17:33

195 Linkedin Google+

Lees meer

Reacties (195)

Wijzig sortering
Ik heb op hardware.info gelezen dat interne benchmarks van de nieuwe kaarten niet echt voordelig uitpakken voor Nivida. Het schijnt dat de kaarten zo'n 5 procent beter presteren dan hun ati-tegenhangers maar ze zijn wel zo'n 100 euro duurder. Een 470 bijvoorbeeld presteert 5 procent beter dan een 5850 maar heeft een adviesprijs van 5870-niveau. De 480 presteert 5 procent beter dan de 5870 maar zit zelfs tegen de prijs van de 5970 aan. Maar we zullen zien als de echte reviews verschijnen.
Een 5970 heeft wel 2GPU's aan boord.
En voor de rest heeft Nvidia altijd al beter service/drivers gehad.
En zijn deze voor GPGPU gemaakt en niet echt games enzo, alhoewel ze daar neit slecht zullen presteren.
Niet echt voor games... Pff

"Nvidia, the way it's meant to be played" anyone?
Maarja, denk dat dit net zo een domper wordt als destijds de HD2xxx serie van ATi. Niet te hopen natuurlijk, er mag wel wat meer concurrentie in GPU land...
Dit is op zich een hele redelijke game kaart, ik weet niet wat jij dan wel verstaat onder een goede kaart... Specs zijn behoorlijk goed. Daarnaast is de GTX een goede overklok kaart, dus met wat tweaks is hij nog veel beter te maken.
De GTX2xx zijn goede overklokkaarten. Of de GTX470/480 veel ruimte laten voor overklokken moet natuurlijk nog bewezen worden. Het feit dat nVidia niet in staat is om direct (wat heet direct wanneer je al ruim 6 maanden te laat komt) een 512 shader versie op de markt te zetten met 750MHz/1500MHz snelheden.

Als je wilt overklokken, lijkt het me erg verstandig om alle reviews een heel goed te bestuderen, want het lijkt er een beetje op dat de ATI-kaarten momenteel juist een beetje meer ruimte hebben voor overklokken.
Een 5970 heeft wel 2GPU's aan boord.
En voor de rest heeft Nvidia altijd al beter service/drivers gehad.
En zijn deze voor GPGPU gemaakt en niet echt games enzo, alhoewel ze daar neit slecht zullen presteren.
Deze kaarten zijn in zekere zin zeker niet voor GPGPU gemaakt, in de zin dat de Double Precision rekenkracht is teruggebracht tot slechts 1/4e van wat het technisch zou moeten zijn (en zal zijn voor de professionele kaarten). Van de theoretische ~672 Gflops voor de Fermichip met 480 shaders op 700 MHz (half hot-clock voor DP FP) is er voor de GTX480 uiteindelijk maar 168 Gflops over, wat hem grofweg twee keer zoveel DP rekenkracht geeft als een GTX285, maar slechts ~1/3 van de DP rekenkracht van een HD5870.

[Reactie gewijzigd door dahakon op 20 maart 2010 19:29]

De GTX2xx zijn goede overklokkaarten ? Niet alle GTX2XX kaarten hoor. Ik vind de ruimte met een GTX280 erg tegenvallen. Mede door de warmte die de kaart produceert.
Als hij echt maar 5% beter presteert dan vind ik de kaart ver van redelijk. Als ze tegelijk met ATI waren geweest dan wel, maar nu echt niet meer.

Denk trouwens dat als die 5% klopt dat ATI gewoon een prijs drop doet ipv. een 5890 uitbrengen.
AMD heeft echt geen price drop nodig als je ziet hoe deze nieuwe Fermi's geprijsd zijn in verhouding met de performance-winst ;)

Daarbij, AMD heeft sowieso al laten weten een HD5890 uit te gaan brengen na de release van deze nieuwe reeks, zoals ik hierboven al vertelde ;)
Hoe kun je nu weten dat deze nieuwe kaarten goede overclockers zijn? Het is een gloed nieuwe architectuur en niemand weet hoeveel ruimte ze nog hebben om sneller te gaan.
Kijk ik val met open ogen in een gat die de Nvidia PR heeft gegraven. De GTX/GT kaarten zijn consumenten kaarten en dus bedoelt voor vooral gaming en wat thuis editing van je videos.

Nou ik kan je zeggen dat alle encoding plugins in CUDA nog altijd crap is. De hoeveelheid artifacts die je dan krijgt is gewoon niet leuk meer :( dus is GPGPU al nutteloos voor de meeste mensen.

Betere service en drivers? ik heb nu al 12 jaar ATI kaarten in gebruik als Nvidia en moet het eerste probleem nog tegenkomen van serieuze aard bij Ati. Voor Nvidia hoef ik slechts een paar weken terug te gaan ;) Nietemin heb ik zelf in beide gevallen nog geen problemen ondervonden. Echt mensen die claimen dat drivers van Ati slecht zijn baseren het op gebakken lucht en hele hele oude koeien uit de sloot halen (nog voor de catalist tijd), maar dan ik er ook een hele hoop van Nvidia noemen.

Wat betreft je 5970 zou ik zeggen lees de orginele reactie eens goed ;)

[Reactie gewijzigd door Hakker op 20 maart 2010 18:03]

De prijs is duurder dan een 5970 ja(of even duur, of iets goedkoper)
Maar reken maar dat deze betere prestaties neerzet in renderen dan de 5970.
En JA GPGPU is nutteloos voor 97% mensen van de wereld, hij is volgens mij ook neit bedoeld voor de normale huis-tuin-en-keuken-consument.. Maar voor die paar mensen die elke dag zware renders moeten maken of berekeningen moeten maken.
Naja we zien het binnekort wel..

Waarom zouden ze anders nog kaarten maken :s ?

[Reactie gewijzigd door alaintje op 20 maart 2010 18:08]

Photoshop CS5 anyone? deze gaat gebruik maken van Cuda.
Dit zou vooreen groot aantal mensen al de reden zijn om voor Nvidia te gaan ipv ATI
Adobe is bezig met de mercury engine te ontwikkelen in samenspraak met Nvidia. Deze engine richt zich op effects, filters en videocodering. Deze dingen gaan dankzij deze engine, die de GPGPU nuttig gebruikt, meerdere veelvouden sneller gaan dan de snelste dual, quad core Xeon processor die je kan vinden.

Hoewel, dikwijls veronderstelt, is er nog geen enkele bevestiging dat deze mercury engine uitgebracht zal worden in Adobe CS5! Afgaande uit het feit dat vorige versies altijd 18 a 24 maanden nodig hadden voor een vernieuwing en CS4 uitgebracht is in oktober 2008, zou CS5 uitkomen tussen april 2010 en oktober 2010. Het is nog maar de vraag of mercury engine rijp is om geimplementeerd te worden.

Deze engine zal trouwens de nVidia GTX285 ondersteunen (de enige niet quatro videokaart), tevens ook de reden waarom ik specifiek enkel deze videokaart wil kopen voor mijn volgende pc binnen enkele maanden. Ik doe dan echter ook alleen maar video en fotobewerkingen met m'n pc.

[Reactie gewijzigd door B-BOB op 20 maart 2010 23:20]

CS5 gaat inderdaad Cuda gebruiken, omdat de specificaties van OpenCL niet op tijd klaar waren. Latere versies zullen zich echter vooral op OpenCL gaan richten, waarmee ze dus direct hardware onafhankelijk zijn.
Deze kaarten zijn gewoon bedoeld voor de normale consument, hoewel wel hoog in dat gamma, en niet bedoeld voor die enkeling die hevige renderings en berekeningen doet, daar hebben ze specifieke kaarten voor.
Als je wil renderen, neem je de Quatro lijn (met speciale drivers) van NVIDIA, deze is toch echt meer bedoeld voor gamen.
Er wordt verwacht dat hij ong 10% sneller is dan de 5870. Reken maar dat de 5970 gehakt maakt van deze kaarten, voor ong. hetzelfde geld.
Dan ben ik bang dat je of niet oplet of niet genoeg games speelt, er zijn genoeg recente (en minder recente) games te vinden met problemen met ati drivers bij de release... Zoeke eens op hotfix zou ik zeggen;).Ik kan mij zelf geen driver gezeur herrineren voor BF2 (2005), dat was de eerste game met speciaal nvidia drivers op de cd terwijl de ati kaarten een paar maanden moesten wachten op support. Je opmerking is dus redelijk onzinnig. Hiermee zeg ik overigens niet dat nvidia deze problemen niet kent :+ (heb er zelf bij hitman ooit eens last van gehad).
Heb jij de ATi demo's wel eens bekeken? Die zien er net zo perfect uit als die van nVidia hoor ;). En wiens demo crashte er nou ook alweer tijdens de demonstratie? Juist, die van nVidia...

Daarbij zijn de leveringsproblemen niet ATi's schuld, maar die van TSMC dat nogsteeds overhoop ligt met hun 40nm procedť. En als dit waar is dat de GTX470 5% beter presteert dan de HD5850 maar wel 50% duurder is, wordt nVidia dan niet keihard geowned door ATi?

En nVidia heeft voor de wereldwijde launch slechts 5000 GTX480 beschikbaar, heb ik gelezen. ATi had veel en veel meer HD5870's paraat.

Dat krijgt nVidia echt niet voor elkaar hoor.
Waarom moeten we dat toegeven... er zijn nog geen eens echte benchmarks en de geruchten spreken je ook tegen.
En hoezo problemen. Je vergeet even dat ati problemen had met leveren van de kaarten uit de hi end sectie van de 5000 serie?
En je snapt hopelijk ook wel als ATI leverings problemen heeft, dan heeft nVidia ze ook, en waarschijnlijk nog erger ook door de complexe chip.
hubn demo niet gezien,
Ja en demo's zeggen zo veel, die demo's zijn door nVidia zelf gemaakt....

[Reactie gewijzigd door Sinester op 20 maart 2010 18:59]

demo's zegge geen kut ookal zijn ze gemaakt door nvidia zelf zitten zat bugs en shit het is niet voor niks een demo en boei dat ie crashed gewoon effe opnieuw opstarten en je bent van gezeik af,
en als je ook nog is een programma voor uuren laat draaien dan lopen ze meestal vast kijk gewoon naar een algemeen programma
Helaas een geheel ongeinformeerde en kortzichtige reactie van jouw kant.

ATi heeft inderdaad heel veel problemen gehad met het produceren van hun HD5000 serie. Maar voor Nvidia geld dit EXACT het zelfde! Dit is geen echte fout van Nvidia of ATi maar meer van TSMC die nogal moeite had/heeft met het produceren van fatsoenlijke 40nm chips. Dit samen met een complexe chip van Nvidia is ook de reden geweest dat Nvidia nu pas kaarten kan leveren. Verwacht dus maar dat Nvidia ook geen enorme aantallen heeft de eerste maanden. Zeker nu uit verschillende bronnen te horen valt dat er maar een kleine duizenden van deze kaarten klaar liggen. ATi mocht dat wel slecht leverbaar zijn maar Nvidia had zijn kaarten rond de zelfde datum als ATi willen uitbrengen.

CUDA is nog behoorlijk nieuw en moet zich nog steeds bewijzen. Ik zeg niet dat het slecht is, zeer zeker niet! Het is zeker belovend. Maar of het lang zal blijven bestaan betwijfel ik. Een open standaard die zowel op een ATi, Nvidia en misschien zelfs op een intel kaart draait zal uiteindelijk wel de standaard gaan worden. Of Nvidia moet er zulke absurde hopen geld in gaan pompen dat de open standaard geen kans maakt. Only time will tell, niemand kan hier een voorspelling over doen.

Zowel ATi als Nvidia zetten pracht kaarten neer. Beide hebben goede driver releases en buggy/slechte. Het grote voordeel dat ATi op het moment heeft is dat de prijs/kwaliteit verhouding van een ATi kaart bijna 2x zo goed is dan van een Nvidia kaart., en dat is toch echt waar de meeste mensen naar kijken. A little more bang for your buck.

Zowel ATi als Nvidia hebben hun goede en slechte punten, maar als je naar het neergelegde geld kijkt komt je beter uit met een ATi kaart op dit zekere moment. Dit kan natuurlijk met de volgende generatie al weer anders zijn.

edit; 45nm = 40nm

[Reactie gewijzigd door xentron op 20 maart 2010 22:51]

Jeeeetje dat deze reactie nog een 0 score krijgt.. Wat een ongefundeerde fanboy reply.

Ten eerste; hoe moet hier iemand toegeven dat ATi 'keihard geownd' wordt door NV? Heb je benchmarks? Reviews? Ik niet..
Ten tweede; ja er waren bij ATi inderdaad problemen met de levering maar dat is in mijn optiek nog steeds geen reden tot 'keiharde owning' want gelukkig heeft Nvidia niet 6 maanden vertraging opgelopen met de Fermi...
Ten derde: Volgens mij suggereert niemand hier dat ATi perfect is.
Ten vierde: Nvidia door de mangel.. ik denk dat jij moet toegeven dat het er op dit moment niet het meest rooskleurig uitziet voor nvidia mbt HD5xxx serie vs Fermi

Los van je kortzichtige reactie; ik begrijp niet zo goed waarom er nu in een keer veel geroepen/gedacht wordt dat deze kaarten voor andere taken als gamen zijn geproduceerd? Tuurlijk kan je er ook andere dingen mee doen maar kom op we hebben het hier over een nieuwe GeForce kaart! Die naam associŽren een heleboel mensen toch met voornamelijk.... gamen?? En niet met The Way It's Ment To Be Fold At Home?

[Reactie gewijzigd door Jaapoes op 20 maart 2010 20:19]

"Kan zijn maar je moet toegeven dat ati gewoon keihard geownd wordt door NV als de nieuwe kaarten uitkomen"

zelfs als de kaarten van Nvidia een stuk sneller zouden zijn als die van ATI (en dat betwijfel ik ten zeerste, sneller ja, maar niet stukken.) dan kan ATI de prijs van hun kaarten veel verder verlagen als Nvidia gezien de veel kleinere chip en hogere yields

wat nividia ook doet ze hebben, buiten GPGPU, gewoon verloren deze ronden.
Drivers van Nvidia zijn lang beter geweest, nu ongeveer even goed. Nvidia heeft zelfs ook nog wat driver problemen gehad.

Voor linux is het wat anders, maar voor windows is het ongeveer evengoed.
Sterker nog.
Nvidia heeft flink zitten schrappen in hun drivers qua mogelijkjheden sinds een bepaald nummertje (180?) onder windows XP en alle drivers voor Vista en hoger (dus ook 7).
Dan heb ik het over een Fatsoenlijke multi-display support bijvoorbeeld.
Ik ben dus nu op apps van derden aangewezen, omdat nvidia besloot het te schrappen. net zoals het oude configscherm, krijg je nu een lomp groot scherm met maar een paar opties voor je.

Useless.
En zijn deze voor GPGPU gemaakt en niet echt games enzo, alhoewel ze daar neit slecht zullen presteren.
Waar ze voor gemaakt zijn kan mij (als gamer) niet veel boeien. Als het maar een beetje presteerd in games en de verhouding prijs/prestatie maar goed is :)

Betere service heb ik bij NVidia nooit wat van gemerkt eigenlijk.
Ja en hier komt waarschijnlijk geen goede prijs/prestatie verhouding ;) .
Nvidia, the way it's meant to be played" geld bijna alleen maaar voor de geforce kaarten en GT(X) kaarten, er zijn meer kaarten waar de normale markt niet veel van weet en die zijn er voor GPGPU, renderen en folden en dat soort gedoe wat je thuis nooits gebruikt.
Maar tuurlijk presteren ze goed in games, ze zullen zeker geen lage frames halen in cod6 ofzo. maar ik denk dat een 5870 een beter keuze is.
Kom je bij crysis aan of een andere 'slimme' game aan, dan is deze misschien beter..
dit zijn niet de nieuwe kaarten voor de zakelijke markt. Die komen namelijk niet uit in de Geforce reeks. De nieuwe kaarten voor de zakelijke markt moeten nog aangekondigd worden.
Als de kaarten even duur zijn, kan je ze wat mij betreft gewoon met elkaar vergelijken.
of ze nou 1 of 2 GPU's aan boord hebben.

En het is natuurlijk van de zotte een videokaart puur voor GPGPU te maken. daar maak je je klanten niet blij mee imo

[Reactie gewijzigd door Sinester op 20 maart 2010 18:51]

Als de GTX kaarten al niet meer voor games zijn gemaakt....

Juist ja, wat je daar zei klinkt mij als echt een heel slecht en goedkoop excuus voor blijkbaar falende prestaties. Het werd er notabene door nVidia zowat ingeramd dat de kaarten wel voor de gamers bedoeld zijn.
Een 5970 heeft wel 2GPU's aan boord.
Ja, dus? Fermi is weer bijna 2x zo groot ;) dus qua die-grootte is het een hele eerlijke vergelijking. Bovendien boeien technische specificaties helemaal niet voor de markt, het enige wat telt is de prijs en de prestaties. Hoe je dat bereikt zal een gamer een zorg zijn, al heb je honderd mini-cores.

En nee, deze zijn niet voor GPGPU gemaakt. Dat zijn de tesla-kaarten. GeForce = een gamers-kaart. Dat hij het mogelijk beter doet in GPGPU is jammer maar daar zijn GeForces helemaal niet op gericht. Als de geforces meer geschikt zijn voor GPGPU dan voor games noem ik dat dus een faal.

En de betere service kan ik niet serieus nemen :+ gezien de falende g80's waar NVidia geen verantwoording voor wilt nemen, bij fermi verkorten ze de garantie-periode zelfs naar 1 jaar wat duidt op een slechtere service. En de drivers, toevallig waren er pas nog NVidia-drivers die je g92-kaart konden slopen ;) Niet dat het totaal kommer en kwel is maar dat het allemaal zo goed is is dus totale onzin.

[Reactie gewijzigd door bwerg op 20 maart 2010 23:49]

Waar basseer jij de 'betere service' op dan?
Ik denk dat deze kaarten vooral handig zijn voor het maken van natuurkundige berekeningen. Zo gaat Universiteit Leiden in navolg van de uni in belgiŽ nu ook grafische kaarten gebruiken voor het rekenwerk.
Of is ATI hier ook erg goed in?
Het ligt er compleet aan wat je wilt. CUDA is vrij populair, en is NVidia-only. Echter haalt een supercomputer van een Chinese universiteit zijn rekenkracht uit HD4870's. Met name double-precision is op dit moment bij radeons vťťl beter dan de GF200's maar fermi zou daar ook goed in moeten zijn. De rekenkracht kunnen beide merken dus wel leveren. Het is enkel welke programmeertalen er ondersteund worden waar de keuze vaak vanaf hangt.
Het licht er een beetje aan wat voor berekeningen, hoe belangrijk je cycle preciese exceptions vind en of je CUDA wil gebruiken. OpenCL is nog niet 100% stabiel (AMD heeft echter op het moment zeker geen slechtere implementatie dan NVIDIA) en CAL is erg low level.

Even de programmeer interface buiten beschouwing gelaten ... Cypress heeft grotere peak performance, Fermi heeft een betere cache structuur.
Ja dat denk ik ook. En volgens mij nee... Niet zo heeel goed.
CT1060 24min (da's een GTX285 die 3 keer zo duur is, met 4gb)
HD5870 5 min
Dan hebben we het over pure Double precision berekeningen.
ervaring ? Staat naast me in een rackje.

[Reactie gewijzigd door r.stanneveld op 20 maart 2010 19:10]

Uitgaande dat de GTX480 gecastreerde DP performance heeft, doet de GTX480 er dus ongeveer 12 minuten over.
Rekencapaciteit 1089Gigaflops 1345Gigaflops
Een Radeon 5870 haalt rond de 2000 Gflops(single precicion).
Nu zegt brute rekenkracht niet alles, maar gecombineerd met rare oneven clocksnelheden doet 't me vermoeden dat Nvidia alles uit de kast heeft gehaald on ook maar enigszins met een competatieve kaart op de proppen te komen?
Het is maar de vraag of deze specificaties kloppen.
Zo te zien noemt Hardware-Infos geen bron.
Er zijn geruchten dat het TDP van de GTX-480 op 295W ligt (Net onder de PCI-E specificatie van 300W)
Deze gelekte slides van nVidia doen ook eerder denken aan een hogere TDP:
http://www.czechgamer.com...oficialni-foto-je-tu.html

Verder zal dit zeer waarschijnlijk een paper launch zijn. De eerste kaarten zullen overigens pas te koop zijn op 6 April. De yield van de chips zijn belachelijk laag (< 10%) waardoor nVidia maar een klein aantal kaarten kan leveren (Reken op zo'n 5000-10000 wereldwijd). Verder zal nVidia een groot aantal chips reserveren voor de aankomende Tesla kaarten om de GPGPU klanten niet teleur te stellen (en hogere marges).

[Reactie gewijzigd door Sphere- op 20 maart 2010 18:20]

Volgens die uitgelekte slide beschikt de GTX 480 over een 6 en 8 pins aansluiting. Lijkt mij een TDP van boven de 300 watt dus niet echt wenselijk .... ;)
Een kaart met een TDP van boven de 300W is simpelweg niet verkoopbaar omdat de PCI-E specificatie een maximaal vermogen van 300W voorschrijft. OEM's zullen het risico niet nemen om non-compliant kaarten te gebruiken en retailers zullen ook niet in de rij staan.
looking good, alleen wel laat vergeleken met de kaarten van ATI
Eens met player-x, too little too late zouden de amerikanen zeggen. Zelfs al zou de 470 een stuk sneller zijn dan de vergelijkbare ATI kaarten. Dan nog is de prijs te hoog om een serieuze concurrent te zijn. Maar mijn vermoeden is dat de kaarten, zeker in het begin met nog niet 100% geoptimaliseerde drivers, hooguit een kleine voorsprong kunnen pakken. Jammer maar dit zier er dus zeker niet goed uit naar mijn mening.
http://www.techpowerup.co...ellation_Performance.html

Tja, ziet er niet zo goed uit voor Nvidia. Leuk hoor, zoals in de 3e afbeelding op die pagina, om het grootste verschil aan te duiden.

Tesselation; erg leuk idee, maar ik moet zeggen dat ik in de games tot op heden er niets van merk. Behalve b.v. in AVP dat m'n FPS naar 40 wordt gesleurd als er wat aliens over het beeld lopen op korte afstand. "Omdat het spel vind dat 40fps genoeg is", wordt de rest voor het verbeteren van de stekeltjes op de staart gebruikt. Nou bedankt hoor...
over die tesselation wordt gezegd dat dat helemaal niet sneller zal zijn op nvidia kaarten. die techdemo is idd voor tesselation en daar is nvidia sneller in. maar dat komt alleen omdat de nvidia kaarten hier alle shaders van de chip voor inzetten. ati daarintegen heeft een dedicated tesselation unit op de chip zitten.

als tesselation in games gebruikt worden en er naast tesselation nog alle andere effecten gebruikt worden van de gpu moet de nvidia kaart dus de tesselation performance delen met de andere effecten en zullen de ati kaarten waarschijnlijk zelfs sneller zijn.
Cut and paste van een vroegere post:


Lees er AUB eerst even de DX11 specificaties op na en kom dan terug met onzin uit te kramen.

De DX11 tessellation pipe bestaat uit 3 onderdelen:

de hull shader
de fixed function tesselator
de domain shader

De tessellator voor de DX11 spec is absoluut minimaal. Het enige wat het doet is coefficienten genereren om een triangle of quad patch te interpoleren.

That's it.

Al de rest moet per definitie volgens de spec met shaders gedaan worden. De Hull Shader, die de input coefficienten voor de fixed function hardware berekent (e.g. LOD) en de Domain Shader, die de output coefficienten vermengivuldigd met vertices. (Voor de slechtverstaanders: hull SHADER en domain SHADER.)

Het is compleet onmogelijk om alles in de fixed function hardware te doen tenzij je van plan bent om niet DX11 compatibel te zijn. ATI is dat wel. Dus doen zij tessellation ook met shaders.

Maw: de tessellation pipeline voor ATI en Nvida zijn conceptueel nagenoeg identiek.

[Reactie gewijzigd door newinca op 22 maart 2010 01:19]

verwacht dat de 480 hooguit 10~15% sneller is dan een 5870 en dat voor een +50% prijs bonus, nee dank je, looking bad, imho
Tja, sommigen gaan gewoon voor de beste score ongeacht de prijs, anderen vinden die prijs dan te veel oplopen en zoeken een compromis (ook al vanwege de voeding die met hogere wattages ook duurder wordt) en dan ligt voor iedereen het optimum ergens anders.
Zou wel interessant zijn als ze beter zijn dan de 5850/5870, maar waarschijnlijk duikt ATi er dan meteen kwa prijs onder gezien al het cashen dat ze de afgelopen tijd konden doen...

Hoe leuk het ook zou zijn als er weer wat concurrentie komt, de benchmarks die ontbreken zijn toch zorgwekkend wat betreft prijs/prestatie gezien Nvidia's verleden. Ik denk echter dat het al een wonder is als de 480 gelijk presteert dan de 5870 ook al heeft het een 5970 prijskaartje.

[Reactie gewijzigd door Xanaroth op 20 maart 2010 17:53]

"Hoe leuk het ook zou zijn als er weer wat concurrentie komt, "
WAT? Heb je niet gezien hoe AMD de laatste jaren gevochten eheft voor een goede comeback? Ze zijn na hun vrij slechte HD2000 en 3000 series weer helemaal uit de put gekropen, en leiden nu de markt qua prestaties. Ondertussen zit nVidia inderdaad lui te wezen en te teren op hun grotere marktaandeel, maar om nu te zeggen dat er te weinig concurrentie is is gewoon idioot: de HD4xxx en 5xxx series zijn extreem betaalbaar en leveren uitstekende prestaties.
Nvidia heeft ATI een jaar lang vrij spel gegegven, dat heeft de prijzen voor de consument geen goed gedaan. De 5800 serie heeft lang beduidend meer opgeleverd dan de adviesprijs, met een sterker Nvidia had dat niet gekund.
Het is daadwerkelijk tijd voor concurrentie. Iedere technologische generatie moeten er toch twee grote spelers met elkaar in de clinch liggen.
De hoge prijzen van ATi worden vooral veroorzaakt door de hoge vraag/laag aanbod.
Los van dat kan ik me de tijd van de 8800's nog wel herinneren.
Dat waren single gpu kaarten die duurder waren dan de 5970 nu.
Ik denk dat iedereen het er wťl over eens kan zijn dat de 5850 een extreem betaalbare kaart is voor de prestaties die hij levert. En dŠt terwijl Ati niet eens concurrentie van nvidia hoefde te dulden en de prijs feitelijk gewoon €50 omhoog getild had kunnen worden zonder dat er een haan naar kraaide.
Ik vind het gebrek aan benchmarks voor ati's 6000 reeks ook erg zorgwekkend, kan nooit wat worden... :?
Die dingen zijn nu eenmaal nog niet op de markt en eventuele review exemplaren hebben een dikke NDA eraan vast hangen. Beetje geduld nog op de benchmarks.

Uiteindelijk zal het grotendeels het zelfde verhaal worden als bij de vorige generatie. Nvidia is duurder en sneller. Ati heeft het voordeel langer op de markt te zijn en dus betere beschikbaarheid en prijzen. Voor beide is er een markt.
Ik ben eigenlijk het meest benieuwd naar de IDLE stroom verbruik van deze kaarten. Dit is misschien niet waar de meeste mensen op zitten te wachten maar wel waar AMD natuurlijk veel goed gemaakt heeft tov hun oude 1xxx-2xxx kaarten. Dit en de prestatie/watt zal tegenwoordig een groter (ver)koop argument hebben dan 2-3 jaar terug.
Die is niet la_a_g volgens mij... Dat is ergens al vermeld, niet zoals bij ATI (wat ook niet helemaal klopt, 7W ja hoor...)
Zal wel geen 190 Watt zijn maar eerder rond de 50 ofzo.
Die 7Watt idle verbruik van ATi was voor de HD5450, niet de HD5870, die zit idle rond de 30Watt dacht ik.
Ben ik ook benieuwd naar: tenslotte zit je het overoverovergrote deel van je tijd neits te doen met je GPU, daarom vind ik load-verbruik dan ook veel minder belangrijk dan idle.
Hmm... ze moeten wel met heeeeeeele goeie benchmarks komen, anders zijn de hopelijk tegen de tijd dat deze uitkomen wat beter leverbare ati kaarten interessanter...
Er zijn berichten dar nVidia maar een run heeft besteld, en zodra die is op gekocht door de fanboys, deze kaart waarschijnlijk een behoorlijke tijd faporware zal zijn tot dat TSMC hogere yield's kan halen.

Net als met de 285GTX, die dan wel leverbaar is maar een veel te hoge prijs heeft omdat NV er anders verlies op maakt.
Er is een verschil tussen een product te kunnen leveren, en een product te kunnen verkopen.

@robvanwijk
Ging dat gerucht over die ene run niet over de eerste testexemplaren?
NV heeft een aantal risk wafels(*) gekocht, half klare wafels die na testen en tuning gebruikt kunnen worden om een snelle batchwafels te maken

Na het lezen van dit artikel over het ontwerpen van de RV870/Cypress serie, kan je zien dat ATi midden in het ontwerp koers veranderde, en NV heeft dit zeer waarschijnlijk niet heeft gedaan.
Het is een echte "eye opener" als je wild weten hoe men CPU/GPUs ontwerpt.

(*)zo iets als het fundament van een gebouw zonder dat de rest van het gebouw in detail klaar is "lees, fine tuning" wat prima is zolang het gebouw op dat fundament past "lees, geen fundamentele fout in het ontwerp zitten"

[Reactie gewijzigd door player-x op 21 maart 2010 06:56]

Er zijn berichten dar nVidia maar een run heeft besteld, en zodra die is op gekocht door de fanboys, deze kaart waarschijnlijk een behoorlijke tijd faporware zal zijn tot dat TSMC hogere yield's kan halen.
Ging dat gerucht over die ene run niet over de eerste testexemplaren? Ik bedoel degene die niet verkocht worden, maar bedoeld zijn voor de engineers van nVidia zelf om te testen.
Ik weet niet of je het nog "vaporware" kunt noemen als er al een stel mensen zijn die er eentje hebben, maar inderdaad, als de problemen zelfs maar half zo groot zijn als de geruchten (en van een aantal problemen is min of meer bevestigd dat ze zelfs nog erger waren dan de geruchten, denk aan de yields van de first silicon batch), dan heeft nVidia een gruwelijk probleem...
Deze kaarten zijn fors duurder dan die van Ati, maar niemand lijkt te verwachten dat ze hun tegenhangers alle hoeken van de benchmark-kamer kunnen laten zien. Dit is misschien niet het beste moment om aandelen nVidia te kopen...

@player-x edit:
Ja, van die risk wafers had ik gelezen op SemiAccurate. Bedankt voor die AnandTech link, erg interessant verhaal!
Ik kan ook het boek The Pentium Chronicles (geschreven door Robert P. Colwell, de lead designer!) van harte aanbevelen aan iedereen die geÔnteresseerd is in chipdesign.

[Reactie gewijzigd door robvanwijk op 22 maart 2010 04:37]

Een gerucht ja, officieel nieuws van nVidia is dat de kaarten in Q2 gewoon goed leverbaar zullen zijn.
Voor mijn gevoel zijn het rare specs.

607 MHz.... 320 bit gheugenbus... 1280MBRAM... het lijkt wel alsof ze bij nVidia moeite hebben gedaan om net iets boven de standaard bekende en "geaccepteerde" waarde te gaan zitten, vooral op het gebied van de busbreedte (256 bit -> 320 bit) en RAM (1024 MB -> 1280 MB).

Qua specs ben ik nog steeds niet overtuigd, zeker niet wat betreft het energiegebruik. Ik ben benieuwd hoe de GTX 480 tegenover de veel minder verbruikende HD 5870 presteert. Het zijn in elk geval de snelste single-GPU-kaarten van beide fabrikanten. Als de GTX 480 langzamer is, dan zit nVidia in de piepzak. ATI heeft immers een dual-GPU-kaart, en die lijkt nVidia met dit soort energieverbruik niet te kunnen gaan bouwen.

Nou ja. Mijn volgende PC komt er pas over 10-12 maanden. Ik zal wel zien wat er dan te krijgen is, en dan ga ik toch weer voor een midrangekaart zoals ik altijd heb gedaan :)

[Reactie gewijzigd door Katsunami op 20 maart 2010 19:45]

Die hoeveelheid RAM volgt eigenlijk uit de breedte van de geheugenbus. 32 bits per chip, dus 10 chips, van 1 gigabit per stuk levert 1280Mibyte op. Waarom nVidia zo'n brede geheugenbus gebruiken wil snap ik ook niet echt, met GDDR5 zou er met 8 chips (256-bits in totaal dus) ook al genoeg bandbreedte moeten zijn, desnoods met snellere chips.
Ik begrijp wel hoe het werkt; ATI heeft echter op hun midrange 5750 slechts een bus van 128 bits breed. Toch heeft die kaart een genoeg geheugendoorvoer vanwege de brute kloksnelheid (4800 MHz zo uit mijn hoofd); en de kaart is sneller dan een 9600GT, die een 256 bits bus heeft.

Wellicht heeft nVidia gewoon een GPU gebouwd die zeer veel baat heeft bij een grote bus, net als de Pentium 4's destijds.
Dat sowieso, AMD's GPU's gaan efficiŽnter om met geheugenbandbreedte. Die 4800MHz is trouwens ook gewoon 1200MHz GDDR5, dus in principe dezelfde klasse chips als je hier op de GTX470 ziet. De HD5870 heeft ook 1200MHz GDDR5 (stock iig), dus dan zou nVidia bij een grotere bandbreedtebehoefte wel naar sneller DRAM moeten, zoals de 7Gb/s chips.

Het kan ook zo zijn dat, omdat de chip toch al zo groot was, het niet erg was om voor een grotere geheugenbus te gaan, daar er toch genoeg ruimte voor de lands was onderop de chip.
De GTX480 heeft een rekenkracht van 1,35 TFLOP (volgens deze tabel). De HD5870 heeft echter 2,72 TFLOP aan rekenkracht, meer dan 2x zo veel. Ligt Nvidia dan niet enorm achter qua techniek e.d? De ruwe rekenkracht zegt natuurlijk niet alles over de prestaties. Het kan dus zijn dat hij in praktijk dus wel meer frames kan uitrekenen dan de HD5870. Maar met veel minder transistoren weet AMD veel meer ruwe rekenkracht uit zijn chips te halen. Dus is Nvidia niet enorm ver achter op AMD? Is Nvidia nog wel een bedreiging?
Eerder andersom van wat je allemaal zegt maar: ATI heeft andere dingen zeg maar.
Appels en peren vergelijken?
zo heeft ati ook altijd meer shaders enzo.. terwijl Nvidia misschien 1/4de heeft.
ze worden gewoon anders genoemd.
dat de kaart van ATI dubbel zoveel (theoretische) rekenkracht heeft in vergelijking met nvidia wil dus alleen maar zeggen dat nvidia veel beter is met efficientie en optimalisaties. kennelijk heeft ATI niet goed opgelet in die les op school....
dat deze kaart met 30% meer transistoren minder flops haalt.
is gewoon raar. apart, niet wat er verwacht wordt.

dat wil helemaal niets zeggen over prestaties.
maar het wil ook zeggen als de geruchten dat deze kaart 5% sneller is dan de ati concurrenten waar zijn, dat ati veel efficienter bezig is.
Nvidea geeft zijn flops aan in dual precision en ati in singel precision.
Nee, waar haal je dat idee vandaan, zowel Ati als Nvidia geven hun flops op in single precision. 544 gigaflops dual precision flops voor de HD5870 omdat ATI zijn normale shaders kan inzetten voor dual precision. NVidia heeft aparte shaders voor dual precision. En bij gamen heb je trouwens weinig aan dual precision.

[Reactie gewijzigd door Reinman op 20 maart 2010 20:02]

Volgens deze slide ging Ati er 5 maanden geleden van uit dat Fermi 1,5 TFLOPS aan single precision berekeningen kan halen. Dit komt heel redelijk overeen met de 1,35 die hier genoemd wordt. Ook is het marketing technisch veel slimmer om je single precision performance naar buiten te brengen omdat dit nummer minstens 2x zo groot als je dual precision performance. Dus ik ga er vanuit dat het toch single precision gaat.
Zoals Reinman al aangeeft, geven beide fabrikanten normaal de SP flops aan. De theoretische DP performance van de GTX480 zou ~672 Gflops zijn, dus iets meer dan de 544Gflops van de HD5870. Aangezien er aanhoudende geruchten zijn dat nVidia de DP performance van de GTX (consumentenkaarten) lijn met 3/4 naar beneden brengt, om te voorkomen dat de mensen die professioneel GPGPU gebruiken niet de veel duurdere Tesla-kaarten gaan kopen. Daarmee komt de DP performance van een GTX480 rond de 167 Gflops te liggen, behoorlijk lager dus dan de HD5870.
Tja, dan is de vraag, wat noem je efficiŽntie? Als je gaat kijken naar GFLOPS per frames (GFLOPs/fps), dan zal Nvidia dat zeker winnen. Kijk je echter naar het aantal transitoren per frame(totaal aantal transitoren/fps), dan wint ATi het (uitgaand dat GTX480 5% sneller is dan de HD5870). Kijken we naar het aantal GFLOPS per transistor(GFLOPS/totaal aantal transistoren) zal ATi dit winnen. En dan hebben we het nog niet eens gehad over de performance per watt, wat weer een andere maat van efficiŽntie aangeeft.

Maar wat flippy.nl duidelijk probeert te maken is dat Nvidia (waarschijnlijk) meer fps gaat leveren met minder GFLOPS, wat inhoudt dat de chip op dit gebied efficiŽnter is. Daar heeft hij gelijk in. Het hangt er dus puur vanaf wat je efficiŽnt noemt en wat niet, naar welke vorm van efficiŽntie je kijkt.

Maar Ati en Nvidia gebruiken een totaal verschillende architectuur. Daar kunnen de (grote) verschillen nog wel eens vandaan komen (meer fps met minder GFLOPS bij Nvidia, tegen minder transitoren maar wel veel meer GFLOPS bij Ati) en natuurlijk het verschil in kloksnelheid.
Efficientie? De helft van de rekenkracht en dan nog veel meer verbruiken? Wat blaat je nou met je efficientie. Kom op zeg...
De specs zien er erg goed uit. en de prijs is nog redelijk.
Ik ben benieuwd of dit wat druk zal zetten op AMD om de prijzen van hun 5800 serie wat omlaag te doen.
Ik hoop het wel want de tekorten blijven best wel uiteen lopen en v oor mij een rede om geen videokaart te kopen.
radeon 5830 is daar een goed voorbeeld van ruuweg met de zelfde prijs als 5850 koste 2 weken voordat hij uitkwam maar nergens te krijgen.
ondertussen betaal je al bijna € 320 voor een 5850 die bedoelt was om € 200 te kosten.
radeon 5870 kost al bijna €400 bij de gemiddelde webshop.
Ik hoop dat de productie bij TSMC eens een flinke boost krijgt want dit grapje houd al bijna 6 maanden aan nu.
GTX kaarten zijn tot nu toe dan ook nergens meer te krijgen en de paar GTX260 gtx285 kaarten die er nog zijn kosten idd respetivelijk €180 en €350 ruim 50-100 meer dan 6 maanden geleden!

Kijk voor even is het wel begrijpelijk dat de prijzen om hoog gaan enzo maar ik hoop wel dat de GTX 470 en 480 hier nu verandering in kunnen brengen want het is niet leuk meer.
De GTX 470 en 480 zullen hier voor de komende tijd weinig aan veranderen, aangezien alles er op wijst dat het lang gaat duren voordat ze in voldoende aantallen geproduceerd kunnen worden.

Ze zijn dermate groot dat Nvidia niet heel veel zal kunnen zakken met de prijs zonder verlies te maken. Aan de andere kant zullen ze het prijsbeleid van de Ati tegenhangers wel moeten volgen aangezien het ernaar uitziet dat ze nauwelijks sneller zijn.

De komende maanden zal er weinig veranderen. Ati kan vragen wat ze willen voor hun kaarten. Nvidia zal nauwelijks verkrijgbaar zijn, en is ook niet interessant genoeg gezien de prijs/prestatie.
je hebt wel gelijk.
Ik denk dat ik binnenkort gewoon een pc bouw met een radeon 5770. heb nu ongeveer weer genoeg bij elkaar omdat te kunnen doen.
ik heb iets nodig wat goed draait op mijn p2370.
Maarja opzich is 5770 wel snel zat denk ik.
Kan hem nog altijd voor iets anders vervangen in de toekomst.
vanaf april zouden de prijzen en het aanbod weer beter moeten worden.
De kerst storm loop is voorbij en het eerste kwartaal is altijd duur omdat er weinig verkocht wordt. 2e kwartaal komen er meestal nieuwe dingen.
Ik hoop eigenlijk ook dat het nvidia lukt om hun mid-range voor de zomer op de markt te zetten. Dat zou al een heel verschil maken. :)

http://en.expreview.com/2...dle-of-the-year/6782.html

[Reactie gewijzigd door Mietex op 21 maart 2010 16:55]

Vergeten we niet dat al deze prachtige kaarten bedoeld zijn om games te spelen die top grafische prestaties nodig hebben, en dat dat soort games er al enige jaren vrijwel niet meer te vinden zijn op de pc ?

Nog steeds is de jaren oude Crysis de benchmark qua grafisch geweld. Daarbij kan je alles draaien met een >= gtx260 / ati 4870

Zolang we voorzien worden van console ports hoef je naar nieuwe grafische hardware niet om te kijken, laat staan er 400-500 euro voor neer te leggen.
Metro 2033 en STALKER: Call of Pripyat zijn al 2 nieuwe spellen die de laatste videokaarten op 1920x1200 en hoger toch redelijk op hun knieŽn krijgen hoor.
En naast dat zou ik in Crysis AA even flink opentrekken. Krijgt zelfs GTX285 SLI op zijn knieŽn. Dit soort kaarten zijn meer dan welkom :)
Bedenk dat wanneer mensen zwaardere pc's hebben, de games ook zwaarder worden gemaakt dan wanneer iedereen over 5 jaar nog steeds met GT200 zit.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*