Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties, 30.698 views •

Nvidia heeft zijn eerste twee videokaarten op basis van de Fermi-architectuur ge´ntroduceerd. De GeForce GTX470 en GTX480 zijn high-end-kaarten die de concurrentie met de ATI Radeon HD 5850 en HD 5870 moeten aangaan.

Nvidia heeft de release plaats laten vinden tijdens het PAX East 2010-game-evenement in Boston. Aan de introductie ging een lange tijd van speculaties, geruchten en uitstel vooraf. Nvidia zou veel problemen hebben gehad met de productie van zijn GF100-chip met een omvang van 529mm². De GF100 is op 40nm geproduceerd en is gebaseerd op de geheel nieuwe Fermi-architectuur. De fabrikant zag zich genoodzaakt de release enkele keren uit te stellen en kon zijn nieuwe topmodel ook niet de geplande 512 cores meegeven. De GTX480 heeft uiteindelijk 480 Cuda-cores gekregen, de GTX470 moet het met 448 rekenkernen doen.

De GeForce GTX470 en GTX480 zijn van kloksnelheden van respectievelijk 607MHz en 700MHz voorzien, terwijl de geheugenbussen achtereenvolgens 320bit en 384bit breed zijn. De hoeveelheid gddr5-geheugen van de kaarten bedraagt 1280MB en 1536MB en de snelheden liggen op 3348MHz en 3696Mhz. De tdp's bedragen respectievelijk 215W en 250W. Hiermee zijn de kloksnelheden wat hoger en de tdp's wat lager dan de geruchten voorspelden.

De prestaties vallen desondanks wat tegen, zo blijkt uit onze uitgebreide review. De GTX480 presteert over het algemeen beter dan zijn directe concurrent van AMD, de ATI Radeon HD 5870 die eind september vorig jaar verscheen, maar het verschil lijkt niet voldoende om het prijsverschil te rechtvaardigen. De kaarten verbruiken verder aanzienlijk meer energie, wat een hogere warmteproductie tot gevolg heeft. De koeler weet de temperatuur redelijk onder controle te houden, maar maakt daarbij wel aardig wat geluid. Daar komt bij dat de HD 5970 ruimschoots sneller is dan de GTX480 en nagenoeg evenveel energie verstookt, tegen een relatief lage meerprijs.

De GTX 470 en de GTX 480 gaan respectievelijk 349 en 499 dollar kosten en zullen volgens Nvidia vanaf 12 april te koop zijn. Diverse fabrikanten zouden ook al aan overgeklokte exemplaren werken.

 GTX470GTX480
Videochip GF100 GF100
Transistors 3200m 3200m
Die-size 529mm2 529mm2
Procedé 40nm 40nm
Cuda-cores 448 480
ROP's 40 48
Texture units 56 64
Kloksnelheid 607/1215MHz 700/1401Mhz
Geheugenbus 320bit 384bit
Geheugen 1280MB gddr5 1536MB gddr5
Geheugensnelheid 3348MHz 3696Mhz
TDP 215W 250W
Lengte 24,13cm 26,67cm
Prijs $349 $499

GTX 480

Gerelateerde content

Alle gerelateerde content (25)

Reacties (110)

Reactiefilter:-11100109+163+22+30
Moderatie-faq Wijzig weergave
Nou...de vooraf gelekte specs klopten dus aardig :) Nu op zoek naar benchmarks..

hier alvast die van hardware.info: http://www.hardware.info/...t_nVidia_GeForce_GTX_480/

Het oordeel is over het hele internet aardig gelijk: nu zo'n 15% sneller (5870 vs GTX480), met nieuwe games en verbeterde drivers kan dat nog verder uitlopen. Bang for buck EN prestatiekroon nog altijd gewoon bij AMD.

[Reactie gewijzigd door pizzaislekker op 27 maart 2010 01:40]

Wow... Oorspronkelijk maar 1 bruikbare GPU per wafer? Als dat productieproces was gelukt hadden ze een winnaar! Maar nu gaat de kroon de komende tijd naar ATI, het is gewoon meer bang for the buck dan Nvid tenzij ze de prijzen laag houden en de beschikbaarheid hoog.
Of zo'n productieproces "lukt" (ik neem aan dat je bedoelt: een fatsoenlijke yield haalt) is zeer sterk afhankelijk van de grootte van de die. Als ik me goed herinner draaien zowel ATI als nVidia op hetzelfde proces (40 nm) bij dezelfde fab (TSMC). Aangezien de die van nVidia veel groter is (en, naar ik heb begrepen, ATI al meer "ingewerkt" was op dat proces) is het dus finaal onmogelijk dat de yields van nVidia ook maar in de buurt gaan komen van die van ATI. Oftewel: de prijs per GPU is voor nVidia aanzienlijk hoger dan voor ATI en daar gaat niks aan veranderen tot de volgende generatie.
Ik dacht dat de AMD-fab Global Foundries was, en dat die dus ook ATI's bouwen (dat zou zeer obvious zijn, want Global Foundries was eerst van AMD).

Nja, dit kaartje ga ik denk ik maar niet kopen, vooral vanwege het prijsje. Ga toch eerder op de Radeon HD 5xxx af
Nee, op t moment laat AMD haar GPU's bij TSMC maken, hoewel er wel plannen zijn om een volgende generatie (deels) bij Global Foundries te laten maken.
Helaas lijkt het 40nm proces van TSMC nog steeds niet optimaal te draaien.
Kan iemand mij uitleggen wat er zo belangrijk is aan het stroomverbruik van een high-end videokaart?

Je gaat toch ook niet klagen dat je ferrari zoveel bezine zuipt.
Een Ferrari is een apparaat van een half miljoen, om nog maar niet over het onderhoud en de verzekering te spreken.

Een videokaart is een apparaat wat toch het meest gekocht wordt door gamers die een vrij normaal(milieu bewust mag ik hopen) leven leiden.

Dat is toch wel even heel wat anders, en totaal niet met elkaar te vergelijken. Je moet inderdaad wel een simpele ziel zijn als je gewoon zo'n GTX280 koopt omdat het momenteel ``de snelste`` is.

De tijden veranderen joh, mensen hebben via internet toegang tot meer kennis. Dus waarom zou je daar dan niet gebruik van maken?

Het spijt me, maar je Ferrari theorie is echt ongelooflijk kortzichtig en vooral erg dom!
Nou - eeehhh - dat weet ik zo net nog niet.

Je mag er vanuit gaan dat iemand die een dergelijke kaart koopt, voor de rest ook componenten heeft die daar op aansluiten.
En daarmee hebben die lui dan de Ferrari onder de kompjoeters (lees: zijn verre van low budget apparaten)!

Met die context kan ik me een dergelijke vraag goed voorstellen.
En is dus zeker niet 'kortzichtig' en 'erg dom'!
Eigenlijk best wel goed gevonden... :)
True, maar het gaat wel gepaard met warmte/geluid.
Dit dus.

Deze kaart gebruikt veel meer dan de ATI kaarten, terwijl de prestaties niet veel hoger liggen. Het is niet erg als een kaart veel verbruikt, maar het stroomverbruik ligt hier wel erg hoog in verhouding tot de prestaties.
Mocht tweakers dit pas vandaag posten? vraag me dit af omdat het om precies 0:00 gepost is ;).

Ontopic:Hopen dat ze Ati voor hun geld laten rennen er moet echt weer wat concurentie voor Ati komen.

[Reactie gewijzigd door Voxyn op 27 maart 2010 00:02]

Waarschijnlijk wel. Op allerlei sites komen n¨ de verschillende artikelen online. Hardware.info TV gaf vanmorgen ook al aan dat om stipt 0:00 uur hun Fermi-aflevering online zou komen.
De laatste tijd loopt Ati voor, vroeger Nvidia. Blijft een beetje stuivertje wisselen. Die 2 houden elkaar mooi in balans en "pushen"elkaar precies genoeg om ons tevreden te houden. Teveel is ook weer niet goed want dan komen er weer teveel dingen op de markt die gewoon niet uitgerijpt / door getest zijn met alle gevolgen van dien.\
Op het moment lijkt het precies genoeg voor innovatie en goed uitgetest, laten we het zo maar houden ;)
Er is door nVidia een NDA afgegeven voor alle sites die review exemplaren kregen om het pas op deze tijd te mogen publiceren.
Kijkend naar de transistor aantallen (3200m voor beide kaarten) zijn de GTX470 chips dus gewoon afgekeurde GTX480 chips?
Dat wordt zo vaak gedaan.

Vrij veel kans dat je een ganse serie kaarten krijgt met dezelfde gpu, maar de blokken uitgeschakeld dat niet werken.
Ja, dat doen ze zodat er minder afgekeurde chips zullen zijn. Hierdoor kunnen ze de kosten ook drukken. Best slim. :)
AMD's X3 processoren zijn ook afgekeurde X4's ;)
En soms zijn de overige cores/rekeneenheden te unlocken, waardoor je voor minder geld toch een snellere kaart hebt. Op eigen risico natuurlijk :P
Goede kaart, begrijp me niet verkeerd, maar deze hele release doet me sterk denken aan de Geforce FX5800. Kwam ook veel te laat, moest opboksen tegen de veel eerder uitgebrachte Radeon 9700, werd ook erg warm en maakte ook behoorlijk wat lawaai. Al met al ook geen slechte kaart, maar ook daar had men er meer van verwacht. Eens in de zoveel jaar heeft Nvidia hier blijkbaar last van. :)

Los hiervan een indrukwekkende kaart met maar liefst 3,2 miljard transistors. Gordon Moore zal nog wel eens met weemoed terug denken aan zijn 1971 Intel 4004 met 2300 transistors.
En een paar jaar later heeft ATI hier last van, denk aan het tijdperk van rond de nVidia 6600GT reeks die iedereen in zijn systeem ging stoppen.

Moore had het overigens over processoren, dit zijn grafische kaarten die toegespitst zijn op andere soort berekeningen, waar ook weer verschillende aanpakken mogelijk voor zijn (zie het verschil in opbouw tussen ATI en nVidia).
En wat denk je dan dat een GPU?
Moore had het over computerchips, en daar horen grafische processors natuurlijk ook bij.
Met het verschil dat met de 9700 AMD/ATI welliswaar goede drivers hadden, maar nog net iet te veel uitzonderingen (VIA moederbordjes vooral), en nVidia een rots in de branding was qua stabiliteit.

Die rollen zijn nu omgedraaid, niet alleen heeft nVidia een verschrikkelijk vaag versienummer beleid, en releasen ze drivers alsof ze aan de diaree zijn, de drivers zijn helaas vaak ook niet meer qua kwaliteit beter dan diaree. Ik vind het vreemd dat MS niet het recht heeft ingetrokken van nVidia om zelf hun WHQL te doen, want ware het niet dat W7 ook nog met WDM1.0 drivers kan werken, en dat AMD/ATI nu groot zat is om een groep mensen te maken die zegt "hier draait het wel goed, geen nv4disp in je BSOD toevallig?", dan had nVidia mogelijk een tweede release van MS' OS vern**kt. Want zeg nou eerlijk, zo slecht was Vista ook niet. Zeker niet qua stabiliteit.

Goed, AMD/ATI heeft nu dat strepen verhaal gehad, tegenover nVidia's soldeersels, maar AMD/ATI twittert er tenminste constant door over en houd het warm.
Wat ik me afvraag als dat ding zo heet wordt zoals ze bij hardware.info tv beweren, of dat op de lange duur niet schadelijk is voor de componenten vlakbij op je moederbord?

Ik heb het idee dat een 470 wat veiliger is dan een 480 voor de pc.
Uh als je het verbruik en warmteuitstoot van de 470 bekijkt, dan is deze marginaal minder dan de 480.

De 470 is net zo snel als een 5850, duurder, verbruikt stukken meer, maakt stukken meer geluid en stoot stukken meer warmte uit.

Je moet wel erg dom zijn om voor de 470 te gaan. Alle reviews concluderen dat de 470 een miskoop zou zijn.
PC hardware kan wel wat hebben hoor, mensen hebben al jaren kaarten van 250-300 Watt in de kast zitten, en daar worden moederborden wel op berekend.
Eindelijk! Nu nog wachten op een paar uitgebreidde benchmarks om mij te overtuigen deze kaart aan te schaffen :D

[Reactie gewijzigd door Jeffrey0416 op 27 maart 2010 00:03]

Die is er al, ten opzichte van de directe concurrent zijn ze niet veel sneller maar kosten wel fors veel meer. En ATI's topmodel is maar een klein beetje duurder en wel veel sneller.

Lijkt dat ATI op dit moment gewoon de beste kaarten in handen heeft, overigens al 2 generaties kaarten. Gewoonweg de beste prijs/prestatie verhouding en ook nog heel behoorlijke prestaties :)
Dat prijs-prestatieverschil wordt naar mijn idee wat te makkelijk over gedaan. Het verschil in performance schijnt vooral gemaakt te worden door de tesselation-implementaties. Dat schijnt kwa core-aantal dik in het voordeel van Nvidia zijn (16 tov 1 in de Ati kaarten (al moet je je afvragen hoe de implementatie is)). In games/grafische weergaves die veel gebruik maken van tesselation zou het verschil tussen de Nvidia en Ati groter worden. Het is dus wachten op tests van de nieuwere games, om te zien of Nvidia met haar kaarten inderdaad een voorsprong kan nemen. De Metro 2033 en DiRT2-benchmarks laten iig een flink verschil zien (maar dit kan ook het gevolg zijn van optimalisatie ed). Namate er meer games uitkomen en de nieuwere drivers, verwacht ik dat de verschillen alleen maar groter worden.

Andere voordelen van de Nvidia is dat deze HDMI 1.4 ondersteunt. De software schijn je er wel voor te moeten betalen (40 dollar), maar een 3D-TV gebruiken is dus mogelijk. In de Ati-drivers zit dat momenteel niet eens een ondersteuning voor 3d (komt wel) en volgens mij geen HDMI 1.4 (kan ik me in vergissen).

Nadeel van de Nvidia-kaarten is dat deze geen eyefinity-alternatief hebben. Max twee monitoren dus. Voor mij persoonlijk wel een nadeel, aangezien ik naast twee monitoren ook graag een televisie zou willen aansluiten (zonder een extra kaart te hoeven kopen).

Het flinke stroomverbruik en de flinke warmtetoename van de Nvidia ben ik eveneens niet blij mee.

Maar puur kijkend naar de prestaties heeft Nvidia dus wel degelijk een goed concurrrerend product in de markt gezet, en kan niet concreet gesteld worden dat Ati het aantrekkelijkere product heeft.
Ben benieuwd hoe de levertijden gaan presteren bij deze kaarten.
Mijn Ati 5870 deed er wel een tijdje over... weet niet of dat nu nog zo is.

Mag hopen dat Nvidia niet zoals Ati er een drama van maakt, anders schiet het alsnog niet op :Y)
Als je de ATi kaarten gewoon bij de juiste leverancier besteld, dan ben je niets duurder uit en worden gewoon netjes binnen redelijk termijn geleverd. Als j bij een prijsvechter besteld voor erg lage prijzen, ja dan kan het inderdaad zijn dat je lang mag wachten, want een prijsvechter wacht gewoon tot het moment dat zij het goedkoopst kunnen inkopen.
Het ziet er uit alsof ATI hetzelfde gedrag vertoont als Intel met zijn CPU's: geleidelijke verbeteringen die de markt volgen.

NVidia doet dan weer eerder wat AMD doet met zijn CPU's: een geavanceerde architectuur neerzetten die misschien in het begin niet tot zijn recht komt, maar hopelijk even mee kan (als ze de juiste keuzes/voorspellingen hebben gemaakt).
Natuurlijk, als het productieproces dan ook niet op punt staat, dan kan het resultaat wel eens tegenvallen gezien de hype...
Dat heb je verkeerd, AMD/ATi heeft met deHD2000 serie al een neuwe struktuur neergezet, deze liep in eerste instantie ook niet helemaal lekker, maar AMD/ATi is verder gegaan met de HD3000 serie etc. Nvidia loopt alleen verschrikkelijk achter.
Dat risico was bekend bij het ontwerpen van een forse chip.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True