nVidia GeForce 6800 Ultra reviews

Hoewel een groot deel van de specificaties al eerder het internet op was gelekt, is vanmiddag pas de NDA gevallen die rustte op de details, foto's en benchmarks van nVidia's NV40 GPU, waarna onmiddelijk enkele tientallen sites hun bevindingen online zetten. nVidia probeert al sinds de introductie van de Radeon 9700 in de zomer van 2002 de performancekroon van ATi terug te pakken. De NV3x-serie werd geteisterd door productieproblemen, verkeerde keuzes tijdens de ontwerpfase en optimalisaties die ten koste gingen van de beeldkwaliteit om de performance in de buurt van de concurrentie te houden. Met NV40 wil nVidia duidelijk een nieuwe start maken: het "FX" achtervoegsel is gedumpt en het bedrijf heeft de sterke punten van NV3x overgenomen, nieuwe features toegevoegd en hier en daar wat technieken geleend van ATi om de prestaties en beeldkwaliteit van de chip te verbeteren. De hoofdarchitect van 3dfx' Rampage heeft bovendien een belangrijke rol gespeeld bij het ontwikkelen van bepaalde delen van NV40. Daarnaast is men van foundry veranderd; in plaats van TSMC is er een deal met IBM gesloten voor de productie van de 222 miljoen transistors tellende core.

* Architectuur

nVidia GeForce 6900 Ultra chip (klein, vrij)De NV40-core is voorzien van zestien pixel pipelines met ieder één texture unit. In tegenstelling tot de "8x1"-architectuur van NV3x die eigenlijk een 4x2 / 8x0-opstelling bleek te zijn, wijzen synthetische benchmarks er dit keer op dat het daadwerkelijk om een 16x1 / 32x0-configuratie gaat. Naast zestien pipelines, die op 400MHz goed zijn voor een fillrate van 6,4 gigatexels, heeft de chip een zestal vertex processors aan boord, goed voor een maximum van 320 miljoen triangles per seconde. NV40 is ontworpen voor volledige ondersteuning van pixel- en vertex shader 3.0. Dit betekent dat spelontwikkelaars nog complexere programma's kunnen gebruiken voor hun speciale effecten. Naast meer instructies, constantes en variabelen ondersteunen de nieuwe shaders een aantal extra features die bedoeld zijn om snellere en efficiëntere algoritmes mogelijk te maken, waaronder dynamische vertakkingen (if ... then) en vertex texturing.

Dit laatste betekent dat de vertex shader gebruik kan maken van textures, die dus voortaan niet meer puur als 2d-behang dienen dat op de polygonen wordt gesmeerd, maar nu ook handig gebruikt kunnen worden om vormen 'fysiek' aan te passen. Denk hierbij een effecten zoals explosies (rondvliegende deeltjes), stof (vlaggen, kleding) en displacement mapping (de echte versie van het effect dat met bumpmapping gesuggereerd wordt) te realiseren. Ook nieuw is Geometry Instancing, waarbij bijvoorbeeld een heel bos gegenereerd kan worden door de kaart van het model van één boom te voorzien. De shader zou er dan ook nog voor kunnen zorgen dat iedere instantiatie van de boom er iets anders uit komt te zien.

* Beeldkwaliteit en video

Naast het toevoegen van nieuwe shaderfuncties en extra pipelines heeft nVidia ook aandacht besteed aan anti-aliasing. Voor 4xAA is men overgestapt van ordered grid naar rotated grid, een methode die origineel van 3dfx afkomt en ook al een hele tijd door ATi wordt gebruikt. Deze methode van AA geeft over het algemeen een hogere beeldkwaliteit zonder duurder te zijn qua performance. Daarnaast is trilinear filtering terug. NV3x-kaarten gebruiken een mix van bilinear en trilinear filtering, zelfs wanneer expliciet om trilinear gevraagd wordt. Op NV40 is deze mix nog steeds de standaard instelling, maar bieden de drivers de mogelijkheid om over te schakelen naar echt trilinear. Hiervoor hoeft maar een klein beetje performance ingeleverd te worden. Ook anisotropic filtering (AF) is verbeterd. Niet alleen wordt voor het eerst 16xAF ondersteund, maar gebruikt nVidia nu dezelfde truc als ATi (angle-dependant AF) om deze methode om textures mooi om de triangles heen te vouwen wat sneller te maken.

Verder ondersteunt de NV40 High Dynamic Range-rendering, wat betekent dat alles van textures tot framebuffer in floating point gedaan kan worden. Eén van voordelen hiervan is dat de reactie van het menselijke oog (het groter en kleiner worden van de pupillen al naar gelang de hoeveelheid licht in de omgeving) op deze manier makkelijk nagebootst kan worden, waardoor de belichting zeer natuurlijk overkomt op het scherm. Ondere andere Half-Life 2 maakt gebruik van dit effect, dat op een NV40 dus relatief eenvoudig geïmplementeerd kan worden. Hieronder een screenshot waarin de toeschouwer als het ware 'verblind' wordt door invallende zon, waardoor de pilaren veel donkerer lijken dan ze eigenlijk zijn.

Ook is er een programmeerbare videoprocessor op de chip gebakken. De huidige drivers (ForceWare 60.72) ondersteunen MPEG1, MPEG2 en WMV9, maar in principe is het een universele 16-way vectorunit die in de toekomst ook ingezet zou kunnen worden voor het coderen en decoderen van andere formaten .

* Performance

De performance van de GeForce 6800 Ultra is fenomenaal vergeleken met de GeForce FX 5950 Ultra en Radeon 9800 XT. Ondanks het feit dat hij 75MHz lager geklokt is dan zijn voorganger, wordt in spellen waarin de processor geen beperkende factor vormt met grote regelmaat twee keer zo hoge of zelfs nog betere framerates neergezet. Dit is ondere andere te danken aan de sterk verbeterde mogelijkheden met betrekking tot pixel- en vertexshaders. Deze lopen namelijk twee tot zeven keer zo snel op NV40 dan op NV38. Gecombineerd met een enorme sloot geheugenbandbreedte, efficiëntere compressietechnieken en slimmere implementaties van AA en AF, heeft nVidia een kaart neergezet die voor geen enkel spel dat op dit moment te krijgen is op zijn knieën gaat. Veel spellen blijken zelfs met een resolutie van 1600x1200 niet in staat te zijn om de volledige kracht van NV40 te benutten; in Call of Duty, Serious Sam 2 en Unreal Tournament 2004 kost het inschakelen 4xAA op die resolutie dan ook weinig tot geen framerate, terwijl de GeForce FX 5950 Ultra in de zelfde omstandigheden al snel de helft van zijn prestaties in moet inleveren.

Call of Duty, 1600x1200
6800 Ultra 120,3
5950 Ultra 112,9
6800 Ultra (4xAA, 8xAF) 104,9
5950 Ultra (4xAA, 8xAF) 66,2
Unreal Tournament 2004, 1600x1200
6800 Ultra 55,0
5950 Ultra 49,9
6800 Ultra (4xAA, 8xAF) 43,4
5950 Ultra (4xAA, 8xAF) 24,4

* Warmte en koeling

De GeForce 6800 Ultra verstookt ongeveer 120 Watt wanneer hij volledig belast wordt. De AGP-versie kaart vereist dan ook twee molex-connectors en nVidia raadt het gebruik van een 480 Watt-voeding aan. Er zijn echter al berichten opgedoken die beweren dat het prima werkt met mindere voedingen, zolang deze maar van goede kwaliteit zijn. Het ziet er naar uit dat in ieder geval de eerste kaarten voorzien zullen zijn van een koeler met heatpipe die twee slots in beslag neemt. Reviewers melden dat het ding tot hun verbazing stiller en lichter is dan de beruchte dustbuster van NV30. De snelheid van de fan wordt dynamisch geregeld en komt in een kast met goede airflow niet boven de 'medium' instelling uit, waarin hij naar verluidt nog overstemd wordt door de gemiddelde processorkoeler. Zonder goede airflow zal hij iets meer decibels genereren tijdens het spelen van spellen, maar het is sowieso niet aan te raden om een NV40 aan te schaffen voor een kast die niet goed gekoeld wordt; de warme lucht die van de kaart afkomt kan zonder fatsoenlijke afvoer leiden tot instabiliteit.

* Conclusie

nVidia heeft met de introductie van de GeForce 6800 Ultra de performancekroon met groot gemak teruggepakt. De vraag is echter of dit felbegeerde juweel binnenkort niet opnieuw van eigenaar wisselt, als ATi de R420-core introduceert in de vorm van de Radeon X800 Pro, of anders een paar maanden later met de Radeon X800 XT. Als de twee chips elkaar benaderen qua performance, iets wat wel in de lijn der verwachting ligt, dan zou het nog lange tijd kunnen duren voor er echt een duidelijke winnaar uit de strijd naar boven komt. De prestatieverschillen tussen de twee titanen zullen in door de processor beperkte benchmarks nauwelijks zichtbaar worden. Titels als Doom 3 en Half-Life 2 zullen videokaarten een stuk harder laten zweten, maar die zijn vooralnog niet beschikbaar.

Voor nVidia zal het spannend zijn om te zien in hoeverre ontwikkelaars van spellen gebruik gaan maken van de mogelijkheden van pixel- en vertexshader 3.0, aangezien alle geruchten erop wijzen dat R420 dit niet (geheel) ondersteunt. Daarnaast zal het succes van beide voor een deel afhankelijk zijn van secundaire factoren zoals stroomverbruik, geluidsniveau, prijs en beschikbaarheid. Beide bedrijven lijken alles op alles te zetten om deze ronde te winnen op het gebied van framerates, een motivatie waardoor in het verleden wel eens minder nauw gekeken werd naar laatstgenoemde punten. De eerste NV40-kaarten zullen volgens nVidia in ieder geval binnen 45 dagen in de winkels liggen, voor een prijs van 499 dollar.

* Meer reviews / links

Door Wouter Tinus

14-04-2004 • 20:49

176 Linkedin

Lees meer

nVidia NV40 mogelijk met Doom III-coupon Nieuws van 16 februari 2004
Meer geruchten over de nVidia NV40-chip Nieuws van 11 februari 2004
nVidia is klaar met ontwerp NV40-chip Nieuws van 14 januari 2004
Geruchten over NV40 en Detonator 50 Nieuws van 8 september 2003

Reacties (176)

176
170
84
13
0
57
Wijzig sortering
zo te zien hebben ze ook weer lekker gewerkt aan de AA..want frames per seconde is niet alles, als je van die kartelige rantjes hebt :S
Ze hebben in ieder geval hard gewerkt, kijk hier maar eens:
http://www.gamer.nl/nieuws/21596

Lees vooral niet de kinderachtige reacties maar download het filmpje.
Wat mij opvalt is dat alles aan 1 kant is en dat er geen condensators dicht bij de gpu / mem zit. Deze zitten alleen achteraan.

Dit is erg belangrijk voor mij: Nu kan er met gemak een waterblok opgezet worden die alles koelt. Kan je hem ook nog eens ruig overklokken.

Ik hoop dat de R420 dit ook heeft; deze lijkt me ook veelbelovend.

Maar goed; mij ti4400 doet zijn werk nog goed en de volgende VGA die ik koop wordt PCI-Express; R423 zoals het er nu uit ziet.
Ik heb het gevoel dat deze kaart al een beetje 'overgeklokt' is, getuige de koeling. Ben benieuwd hoeveel je er nog uit kan persen.
Anoniem: 62850
14 april 2004 21:23
Niet te veel overdrijven dat ding stookt maar 20 watt meer als de 9800XT bij full load en iddle verbruikt ie zelf minder.

En zoals er staat maakt dat ding minder herie als de FX59xx .

En als je rondkijkt op benchmarks van grote sites dan zie je de performance echt vooruit komen, laat staan dat dit pas de 1e drivers zijn voor deze absolute topkaart, ik veracht dat ze er meer uit kunnen halen.
Ik hoop dat ik ongelijk krijg, maar als ik die kaart zo zie lijkt mij de release geforceerd. Het kan toch niet de bedoeling zijn dat je de kaart zo ver moet overclocken om de gewenste performance te krijgen. Ik wed dat als ik da geval op mijn 9800 pro monteer dat ik ook een heel eind kom.

hier: het bewijs.

http://service.futuremark.com/compare?2k3=2113980

ik ben het niet, maar het kan dus wel.
Houd er rekening mee dat dat op een Pentium 4 Extreme Edition en 4,5 Ghz is gedaan :P.... Dat is geen vergelijking.
maar het is al eerder aangetoond dat de processor een vrij minieme rol speelt in 3dmark 2003
dus op wat voor CPU die zit zou niet moeten uitmaken!
Anoniem: 74500
@Kevinp15 april 2004 09:31
Het kan toch niet de bedoeling zijn dat je de kaart zo ver moet overclocken om de gewenste performance te krijgen.
Wat een gezeik. De geheugenmodules zijn GDDR1200 en ze draaien aan 1100 MHz, dus maw de geheugenchips zijn zelfs onderklokt. :)

Verder is de kaart superieur in elke benchmark, en heeft geen enkele reviewer al last gehad van crashes. Ik kan er dus niet bij komen dat jij deze kaart "niet af" noemt...
hier: het bewijs.
Wanneer de yields van het geheugen beter zullen worden, zullen deze kaarten ook erg ocbaar worden, en zal de 3DMarkscore nog stijgen. Verder moet je ook rekening houden met het feit dat in-game de resultaten toch wel meestal ietsje anders liggen dan in 3DMark2003. Rekening houdend met het feit dat deze kaart verder ook al voldoet aan DirectX9.0c en daar nog een schepje bovenop doet, kan je dan ook nog stellen dat 3DMark niet alle mogelijkheden van de kaart benut. (een gepatenteerde optimalisatie ivm schaduwen, ik ben de naam nl vergeten |:(, Doom III gebruikt het al :) ).
Wat een gezeik. De geheugenmodules zijn GDDR1200 en ze draaien aan 1100 MHz, dus maw de geheugenchips zijn zelfs onderklokt.
Erm, er zit GDDR3 op van 2ns. draaiend op 550MHz, 50Mhz hoger dan de specificatie van 500Mhz. Wel degelijk overgeklokt. (Lees HardOCP's review maar).

Zulk gezeik was het dus niet.
Anoniem: 74500
@EfBe15 april 2004 11:27
Idd, op tomshardware en anandtech was er geen vuiltje aan de lucht:
geheugenmodules: GDDR3 1200MHz
Kaart zonder koeler: geen solderingen te zien
Ook hier geen solderingen

Het lijkt er maw op dat ze tijdens de productie van hun eerste kaarten nog wat veranderd hebben en deze met veranderingen (solderingen,...) gestuurd hebben naar de "minder bekende" reviewers (ome Tom en Anand zijn toch de bekendste).
Verder lijkt het er ook op dat Samsung kennelijk niet kon voldoen daan de levering van GDDR3 1200MHz en dus ook GDDR3 1000MHz heeft moeten verschepen naar nVidia. Dit verklaart dan mss ook het feit dat de specs van de GF 6800s veranderd zijn van GDDR3 1200MHz (deze specs kwamen uit de "geruchtenmolen" ;) ) naar GDDR3 1100MHz.
ATi verwacht kennelijk wel dat binnen een maand de GDDR3 1200MHz toch goed leverbaar zal zijn, aangezien hun specs nog steeds GDDR3 1200MHz aangeven.
Anoniem: 84469
@EfBe15 april 2004 10:02
Het lijkt erop dat sommige reviewers kaarten hadden met 500MHz geheugen, en sommigen met 600MHz geheugen, terwijl ze allemaal op 550 draaiden.

Verder bleken bij de meesten op de kaart nog handmatige solderingen, draadjes e.d. te zitten. Dus zeer last-minute veranderingen. Zowiezo is die 400MHz core speed stukken lager dan hun GDC kaart...

Lijkt dus wel degelijk dat ze hard moesten werken om werkende review kaarten naar de reviewers te brengen.

Lijkt in die zin toch wel een beetje geforceerde release. Niet direct een paper-release, maar ik verwacht voorlopig nog geen NV40's in de winkel.
What the hell lul je over geforceerd het is gewoon tijd en hijs is klaar en het geheugen kan nou eenmaal zou hoog geklokt worden hoe hoger hoe beter toch??? zolang het niet instabiel word :P
en who cares dat het 2 pci sloten in neemt ( alleen als je een mini-atx heb word het wel erg kut, maar een gamer gebruitk meestal maar 1 pci slot en das voor geluidskaart sommige nog een raid kaart en heel soms een extra usb kaartje maar meeer niet dus en hij doet het goed dan moe je niet klagen en er komt mischien nog wel een nieuwe versie enzo en mischien krijgt de Asus versie een andere koeling.
Anoniem: 93545
@ZandBak14 april 2004 23:54
en who cares dat het 2 pci sloten in neemt
hooguit 1 pci slot, het is iig een zeer mooie koeler, schijnt behoorlijk licht te zijn en ook vrij stil.
2 stuks. Je moet namelijk ook nog ruimte overlaten onder dat eerste pci slot voor een goede airflow.
(Precies dezelfde reden waarom mensen bij een normale videokaart dat eerste slot al vrij laten)

Wat dat betreft was de oplossing van de 5800 beter, want daarbij hoefde je het tweede slot niet vrij te laten en kwam de hitte van de kaart niet in je kast.
Alleen jammer dat het lawaai niet acceptabel was.
dat valt eigenlijk nogal tegen

1x gbit netwerkkaart
1x raid kaart
1x scsi kaart
1x geluidskaart
1x 2e videokaart
pci sloten op, agp erboven dus ik zou al een probleem hebben :/

een koeler als deze dat is gewoon geen doen meer, het is gewoon een zwaar overclockte kaart
ik denk toch dat als je een 9800xt zou overclocken met zo'n koeler dat de performance in verhouding weinig meer zou schelen
Hmm, ben zowieso nogal bang voor herrie. Ik ben volgens mij niet de enige die daar aan werkt, nogal een trend de laatste tijd. "Komt niet boven de gemiddelte processor koeler uit", dat is mij iig niet stil genoeg. :P
Anoniem: 106562
14 april 2004 21:09
De enorme koelers die nodig zijn om de warmte-ontwikkeling ( wat niet gek is met 120 W) in de hand te houden zijn het grootste nadeel van de videokaarten van Nvidia.Dat is mijn mening??!!!
Deze zullen met veel lawaai hun werk doen, wat altijd het geval is geweest.
Als de P4 en de Athlon 60W verstoken en een gigantisch koelblok nodig hebben om het zaakje binnen redelijk temperaturen te houden... is het dan niet meer dan logisch dat er op een videokaart die 2x zoveel verstookt ook een goede koeler hoort?

Ik vind het trouwens wel meevallen met die koeler, ziet er strak uit plus wat RuL0R allemaal quote, de meeste mensen gebruiken dat ene PCI slot toch niet.
Ok ik gebruik dat PCI-slot nu wel maar dat heeft een goede reden, daarnaast heeft mijn MX440 niet zoveel koeling nodig, speel ik toch geen spelletjes op.
Verstookt een P4 3.0ghz maximaal geen 103W?

Ik denk niet dat deze GPU vaak 120W gaat verbruiken hoor...
Deze zullen met veel lawaai hun werk doen, wat altijd het geval is geweest.
Als je een beetje de reviews hebt gelezen zou je weten dat dat wel meevalt, hier een stukje van hardocp:
So the biggest question on everyone?s mind is does this thing sound like the GeForceFX 5800Ultra?s dustbuster? The quick answer to that is No. First of all the 5800Ultra?s HSF was heavy, this one is not; it's pure aluminum and very light. You won?t have to worry about this video card ripping your AGP port off.

Second, the fan has variable rotational speeds. When you first start your computer before the driver loads the fan will run at top speed, and the noise from that is noticeable. It is loud, but not as loud as the 5800Ultra. However, once you install your driver and the card is running in Windows the fan runs at a lower RPM. In fact, during our extreme game testing and overclocking the fan never once revved up to its highest RPM.
Dattie "stiller" is komt volgens mij gewoon omdat deze geen koel-tunnel naar buiten heeft, waardoor je de oude gewoon meer kon waarnemen dan deze nieuwe. De grote vraag is nu echter: Hoe hoog wordt de temperatuur in je PC kast? Want er komt nu natuurlijk nog meer warmte vd GPU z'n geheugen en spanningsregelaars die nu ook een coolstripje hebben. Die warmte gaat niet direct naar buiten maar blijft in de kast hangen. Dus moet je noodgedwongen nog meer aandacht aan kastventilatie besteden, waardoor het aantal dB(A)'s volgens mij in totaal toch weer behoorlijk ver oploopt. Ook omdat de PSU meer moet verstoken en dus ook wel de nodige fan-RPM zal bijzetten.
Volgens mij zal het plaatsen van een Antec Cyclone in het 2de PCI slot helpen.
http://www.antec-inc.com/us/pro_details_cooling.php?ProdID=77094

Volgens mij komt dit zeker tengoede van de temperatuur in je case.

Want ik nergens zie is hoe warm de core zelf wordt??
wow radeon 9800Pro performance.
ik wacht wel op de x800 van ati ;)
Ja man, kijk die 9800 XT eens winnen... oh nee, toch niet |:(.

Serieus: ik heb nog geen enkele benchmark gezien waarin iets sneller is dan NV40. Op lage resoluties als de CPU de beperkende factor is zit alles natuurlijk dicht bij elkaar, maar zodra het op de videokaart aankomt heeft ATi toch echt R420 nodig om ook maar iets tegen NV40 te kunnen beginnen, want hij is gemiddeld minstens 50 tot 100% sneller dan 9800 XT.
Ik wel Ut2004 1024x768 no AF en No FSAA
daar is de 5959 sneller dan de 6800

Verklaring drivers. omdat deze instelling het geheel meer CPU dependand maakt en wat draaied op de CPU de drivers die dan als ze nog niet optimaal zijn een impact hebben dus dat houd in de 6800 heeft nog wat reserve in huis wat los komt bij de aankomende driver releases.
Dat is CPU-limited (zoals je zelf al opmerkt) en heeft dus niets met prestaties van de videokaart te maken. Bovendien valt 0.7 fps ruim binnen de meetonnauwkeurigheid.
Tja Wouter kijk jij dan ook maar eens, de verschillen zijn over het algemeen niet zo groot, natuurlijk zijn er excessen maar tocch:

http://www.tomshardware.com/graphic/20040414/images/image054.gif

http://www.tomshardware.com/graphic/20040414/images/image005.gif

En dan is Far Cry dankzij patch 1 optimized voor nVidia en scoort ie op een 9800 een stuk lager als zonder de patch... De performance maakt toch niet zoveel uit, alleen op 1600x1200 is ie echt sneller maar wel ten koste van KWALITEIT want die is op ATI toch altijd een stuk beter ;)

http://www.tomshardware.com/graphic/20040414/images/farcry-scene1.jpg
http://www.tomshardware.com/graphic/20040414/images/farcry-scene2.jpg
http://www.tomshardware.com/graphic/20040414/images/farcry-scene4.jpg

Nee, dan toch maar liever een ATI ;) Volgende week een Race tussen de 6800Pro en de R420?
lol

Het ziet er eindelijk goed uit voor onze nvidia fans!
Nu nog betaalbaar en stil .... het moet wel passen op me waterkoeling ;)
Ooh ja een bak geld kan ook geen kwaad!
WOWsers, wat een koeling, deze is nog lomper als op de FX serie. En het stroomverbruik is ook niet mals, 120 Whatt maarliefst. Zo'n kaart gaat er bij mij niet in, letterlijk en figuurlijk. Word lekker warm in je case als je er ook al een Prescott in hebt hangen, en er dan ook nog word geeist dat je koeling vrij goed moet zijn...

edit:
Ik heb de review van Tomshardware ff doorgelezen, in ieder geval even snel de benchmarks en plaatjes. Maar op de plaatjes is duidelijk te zien dat de beeldkwaliteit beter is als op de Nvidia kaarten.
Anoniem: 93545
@SpiMan14 april 2004 22:26
WOWsers, wat een koeling, deze is nog lomper als op de FX serie. En het stroomverbruik is ook niet mals, 120 Whatt maarliefst.
1. De koeling is lichter en kleiner als op de FX5800, bovendien is hij vrij stil (misschien moet je wat beter op de review sites kijken)

2. Het stroomverbruik van 120 Watt vind ik nog wel acceptabel voor een videokaart die dit soort prestaties neerzet, of verwacht je dat de radeon X800 veel minder gaat verbruiken?
voor zover ik weet zit een 9800Xt ook al over de 100W.

3. Het is Watt en niet Whatt.
120 watt valt flink mee.
kijk maar eens naar die verhaen van 150 watt waarmee iedereen een paar dagen geleden nog kwam.
en als die dingen op tomshardware kloppen is die 120 watt maar een beetje meer dan een 5950 en 9800xt.

dus een 400watt van een goed merk zal hem ook wel trekken.
maar we zullen wel zien als de eerte tweakers hem hebben om te kijken wat voor voeding hun eraan hebben.


:'( dubbel post, moet af en toe es refreshen en niet 10 minuten de tijd nemen iets in te tikken
pas op dat die 120 watt idle is, dus in de load stand komt daar nog het nodige bij, echt vaste cijfers schijnen daar niet voor te zijn, maar de meeste die ik gezien heb onder load komen dan tussen de 160/180 watt
Idle?
De GeForce 6800 Ultra verstookt ongeveer 120 Watt wanneer hij volledig belast wordt.
Maar op de plaatjes is duidelijk te zien dat de beeldkwaliteit beter is als op de Nvidia kaarten.
Eh, Nvidia > Nvidia?
Ja, de oudere Nvidia's.
Kijk maar eens.
Dat is onzin. Ten eerste raden ze het aan. Ten tweede betekent dat absoluut niet dat hij dat minimaal verbruikt, maar is het meer om "ten alle tijden" een gegarandeerde stroomtoevoer te hebben. Van veel voedingen is bekend dat ze niet altijd het max vermogen kunnen leveren. Een 400W voeding kan niet altijd de volle 400W leveren, een 480W voeding vaak wel (is maar ff voorbeeldje). Nvidia wordt er niet populairder op als pcs hangen omdat de voeding het niet aankan. Die misverstanden helpen ze gewoon liever van te voren uit de weg.
Vraag me toch af wat de performace per verstookte Watt is, dit is volgens mij vrij veel. Tevens 120 Watt, dat is me een warmte dat komt niet eens van je CPU af tegenwoordig ;(.
Goed voor het Kyoto-verdrag :+.
En iedereen maar zeuren over de Intel Prescott die iets meer als 100W piek verbruikt he ;) Man, met alle respect, maar 120Watt vind ik echt lomp veel. Maar desondanks klinkt het als een echte heerlijke game GPU. Voor de echte liefhebbers zullen we maar zeggen :) (Toch ben ik verbruiktechnisch gezien blij dat ik het doe met een on-board video chip ;) Veel zuiniger :P )
Anoniem: 93545
@Afwezig14 april 2004 22:30
Niet vergeten dat die 120W alleen wordt verbruikt als je dat ding de benen van onder z'n aars laat rennen.
bovendien zie ik het nog niet zo gauw gebeuren dat de X800 veel minder verbruikt, de 9800 zit ook al over de 100W volgens mij en de FX ook.

En @ T3rmi:
Dat er niet zoveel van je cpu af komt is niet vreemd, dit ding heeft veel meer transistoren en ergens anders hier op t.net staat dat'ie 128 instructies per klok doet... een P4 doet er 3 en een athlon64/opteron 4.

Simpel gezegd: 120W is weinig voor een chip die dit soort performance levert.
wel leuk als grappig modden maar het is wel degelijk een probleem, computers verstoken steeds meer, en energie wordt niet goedkoper ofzo

een mooie reden om te hopen op powervr series 5, als deze ooit nog komt...
ik heb namelijk weinig zin om mn moeder binnenkort te betalen voor de energie die ik gebruik
Het verbruikte vermogen shockeerde me eigenlijk meer dan de videoprestaties: 120 watt is echt belachelijk veel. Dit mag dan een erg snelle kaart zijn maar het heeft zo z'n prijs. Dit soort kaartjes wil je niet in je office-systeempje hebben zitten.
Jullie zeuren dat hij veel stroom vreet, maar wie zegt wat de R420 gaat vreten! Als ik naar het vermogen van R9800XT kijk is dat ook niet mals!
Anoniem: 93545
@DaWaN14 april 2004 22:34
De 9800XT gaat ook dik over de 100 Watt, en de X800 uiteraard ook.
Helemaal niets uiteraard. Want de 9800 XT was gemaakt op een 0.15 µ basis de X800 XT op een 0,13µ low-k process. Waardoor de warmte productie van deze chip denk ik gelijk of onder de 9800 XT komt te liggen.
Opgenomen vermogen heeft niets met de die-size te maken
Toch wel, hoe kleiner het productieproces hoe zuiniger de GPU is.

Natuurlijk zal de kaart door al die extraatjes wel wat meer zuipen maar het kleiner productieproces zorgt ervoor dat het niet uit de hand loopt.

Iedereen zit hier overigens maar over 120W te praten maar dat is het maximaal vermogen dat hij verbruikt, wat is de gemiddelde?
Toch wel, hoe kleiner het productieproces hoe zuiniger de GPU is.
Niet altijd. Kijk maar naar Prescott vs. Northwood
Prescot is ook groter dan de northwood ( qua transistors igg die size weet ik niet )

Maar idd tis niet altijd zo.
Anoniem: 93545
@Astennu15 april 2004 22:07
Het hangt er ook nog vanaf hoe goed ze hun 130 nano proces onder de knie hebben, en lekstromen worden wel steeds groter (zie prescott)

We zullen het wel zien over een tijdje als de R420 ook gereleased word.
precies kijk hier maar ff

http://www.tomshardware.com/graphic/20040414/feforce_6800-19.html
het valt allemaal wel mee.

De soep wordt altijd heter opgediend dan gegeten.

Op een beetje high end pc heb je toch al een kwalitatief goede voeding nodig.

Nogmaals het ontwerp van deze chip is ingewikkelder en groter dan dat van de Prescott.
En dan zou die met veel minder stroom toemoeten....?
Anoniem: 74500
@Help!!!!15 april 2004 12:02
Idd, de enige redenen waarom een 480Watt voeding aangeraden wordt, zijn:
1) Reviewers gebruiken meestal al een high-end systeem dat zoiezo enorm veel stroom zuipt. Vandaar moeten ze bij het aanraden van een voeding al rekening houden met eventuele monsterpcs die het vermogen omhooggooien.
2) Bij het opstarten ligt het verbuikte vermogen normaalgezien een stuk hoger, omdat dan alles in werking treedt: de Harddisk trekt op naar 7200RPM, de RAM wordt gecheckt,... Dit alles zuipt veel meer stroom dan wat er uiteindelijk in-game gebruikt wordt. Voor de mensen die mij niet geloven: het valt toch erg op dat voedingen bijna altijd de geest geven bij het opstarten (ik heb ervaring met voedingen, geloof me ;().

http://www.tomshardware.com/graphic/20040414/feforce_6800-20.html
Het volledige systeem zuipt in-game immers "slechts" 288W. Dus in principe zou een voeding die iets meer dan 300W aankan moeten werken, maar omwille van bovenstaande redenen, wordt dit niet aangeraden...
Ja maar de (meeste) mensen die deze videokaart kopen zullen ook wel een redelijk highend systeem hebben, tenminste het lijkt mij niet logisch als dat niet zo is.
Anoniem: 65268
@DaWaN14 april 2004 22:15
Ongeacht wat de nieuwe kaart van ATi of eender welke andere kaart opslurpt: 120W is erg veel voor een videokaart.
Anoniem: 46795
14 april 2004 21:26
ik weet niet waarom iedereen zo negatief doet over deze kaart, maareh die koeling mag dan wel groot zijn, maar het is wel het topmodel en dus zullen de kleinere broertjes wel minder watt verbruiken en als je zo'n kaart kan betalen of wil hebben dan ben je wel zo iemand die al een mooie case heeft + goede voeding en cooling. En het is ook nog zo dat deze voeding toch niet te vergelijken is met die van de nv30 de geforce 5800 fx, deze maakte een tering herrie, de nieuwe op de 6800 is veel stiller. De prestaties zijn toch gewoon zeer goed, ik bedoel, hij is 75 MHz lager!!! geclockt en hij scoort dan ook nog eens stukken hoger dan de ati radeon 9800 XT en de geforce 5950 ultra.
De prestaties zijn inderdaad goed, maar ook niet om meteen over naar huis te schrijven. Minder dan dit hadden we toch ook niet verwacht? (Tenminste niet als ze de strijd met ATI aan willen gaan)

Ik denk dat iedereen eerst wil afwachten wat ATI doet, want de R420 zal op zijn minst een zeer zware concurrent zijn, en waarschijnlijk met mindere eisen wat betreft koeling en voeding etc.
De prestaties zijn inderdaad goed, maar ook niet om meteen over naar huis te schrijven. Minder dan dit hadden we toch ook niet verwacht? (Tenminste niet als ze de strijd met ATI aan willen gaan)
En hier gaan we weer... Zeg eens, wanneer was de laatste keer dat de CPU bij de nieuwste games nog eens serieus bottleneck was? Wanneer was de laatste keer dat een videokaart in merendeel van de games dubbel (en soms zelfs drie keer) zo snel was als het topmodel van de vorige generatie, dat zelf nog maar een maand of zes in de winkels ligt?

Verder is het wel deze keer ATi die zich heeft moeten aanpassen aan nVidia: ATi was immers helemaal niet van plan om een versie van hun kaart met 16 pixelpipelines te maken. Origineel waren er "slechts" 12 voorzien. Aangezien de mainstreamkaart van nVidia echter ook 12 pixelpipelines telde, hebben ze dit aantal opgekrikt.
Wat de prestaties betreft, zullen beide kaarten, de X800 en de GF6800 Ultra, waarschijnlijk evengoed presteren (gezien de specs), maar je kan toch niet zeggen dat de prestaties van de kaart "niet om meteen over naar huis te schrijven" zijn. Zelfs ome Tom valt omver van verrassing:
Compared to the GeForce 6800 Ultra, the former high-end models Radeon 9800XT and FX 5950 Ultra often seem like nothing more than cheap mainstream cards...
Het is kennelijk in de mode om alle acties van nVidia, zelfs als ze eens een goede kaart gereleast hebben, te minimaliseren of de grond in te boren... :(
Wat mij betreft, kan het mij niet schelen wie er in godsnaam de performancekroon draagt, zolang er maar vooruitgang is op de markt en de consumenten kunnen profiteren. :Y)
De laatste keer dat een nieuwe kaart in het meerdendeel van de spellen dubbele prestaties neer zetten dan het topmodel vna de vorige generatie (dat nog maar een maand of zes in de winkels lag) was de 9700Pro vs GF4.
Welke bronnen heb jij geraadpleegd?
Dit zijn de scorevergelijkingen tss de GF4 Ti4600 en de Radeon 9700pro. Deze zijn opgemeten in de laatste vga-charts van ome Tom. Verder moet nog opgemerkt worden dat deze kaarten allemaal gebenchmarkt zijn met de laatste drivers van dat moment, en dat de drivers bij de release van de 9700pro nog erg brak waren, waardoor de score lager lag bij de release.
De percentages drukken uit hoeveel sneller de R9700pro is dan een Ti4600

UT2003 : 33%
Battlefield 1942 : 74%
call of duty : 20%
Quake3 Arena : 2%
Warcraft III Frozen Trone : 3%
C&C Generals : 10%
Halo : 3%
Nascar Thunder : 0,5%
X2 : 23%
Aquamark : 100%
De laatste keer dat de CPU bij de meeste spellen de bottleneck was, was bij de introductie van de R300.
Ik dacht dat ik mij duidelijk gemaakt had met de nuance "bij de nieuwste games". In games als UT2003 en Unreal II was de CPU anders niet de bottleneck?!
Jouw eigen uitspraak is veel denigrerender tov Nvidia
Ooit gehoord van ironie?!
Zo'n ontwerp verandering kan je namelijk niet even in de laatste maand doen. Dat is een beslissing die je in het begin van de ontwerpfase maakt.
Tuurlijk niet, maar ze kunnen wel de releasedatum van een bepaald stuk hardware vervroegen, net zoals er geruchten geweest zijn dat de NV40 eigenlijk de vroegere NV45 is die vervroegd uitgebracht is.

edit:

[quote]
Dat ome Tom omver valt van verrassing geeft aan hoe biased hij is. Dit soort prestaties waren gewoon te verwachten. (tenzij hij een nieuw NV30 debacle verwachtte). Zoals ik hier boven al heb laten zien is de performancewinst tov de vorige generatie ook helemaal niet zo bijzonder als Tom claimt.
[/quote]

Nog iets vergeten. Lees maar eens na op Anandtech, Firingsquad,... Ze zijn allemaal onder de indruk van de prestaties van de kaart.
Dat ome Tom omver valt van verrassing geeft aan hoe biased hij is. Dit soort prestaties waren gewoon te verwachten. (tenzij hij een nieuw NV30 debacle verwachtte). Zoals ik hier boven al heb laten zien is de performancewinst tov de vorige generatie ook helemaal niet zo bijzonder als Tom claimt.
Ik weet het niet, ik game al heel wat jaartjes (ati, 3dfx en nvidia, 2d en 3d) en ik ben nog zelden zo'n enorm verschil tegengekomen, om iedereen biased te noemen die positief is over deze kaart is gewoon een beetje sneu (tom was namelijk 1 van de vele reviewers die tot dezelfde conclusie komen), aangezien deze kaart ook nog eens gelijk geprijst is (een msrp van 499, net zoals de gf fx bij zijn introductie en lager dan ati's paradapaardjes destijds) is het gewoon een flinke inhaalslag, ik ga er vanuit dat ati's next gen kaart niet veel voor deze onder zal doen maar om stelselmatig nvidia's producten te relativeren en ati de hemel in te prijzen is ook niet meer leuk ondertussen
De cijfers die jij laat zien zijn de low quality benchmarks. Maar tegenwoordig is het toch niet meer realistisch om een high end kaart op low quality settings te draaien? Die test je minstens op 4xFSAA en 8x AF.
Idd, mss was het niet de beste review... (en sorry, maar ik had deze benches met FSAA echt over het hoofd gezien |:(...)
* 786562 Durona
Deze hier is de eerste review van de R9700pro, eveneens van tomshardware. Hier worden dus de drivers uit die tijd, de games uit die tijd,... gebruikt. Verder wordt er eerst gebencht op onder andere 1600x1200, maar ook met FSAA en AF aan.

eerste benchmarks van 9700pro

Uit deze review kom ik tot de conclusie dat de 9700pro enkel echt de Ti4600 de grond in kon boren met FSAA en/of AF aan, maar op 1600x1200 niet. Bij deze in-game benchmarks (zonder FSAA en AF) "geraakt de R9700pro niet verder dan" maximaal een 33% winst (wat natuurlijk toch een uitstekend resultaat is). De winst die de 9700pro dan echter kon halen in disciplines als FSAA en AF, kwam toen door de kunde van ATi en de onkunde van nVidia op dat vlak.
Wat we nu te zien krijgen ivm de 6800 Ultra, kan men echter helemaal anders zien: nVidia heeft zijn zwakke plek qua FSAA en AF weggewerkt, maar ze heeft tegelijk de prestaties zonder deze twee features enorm omhooggeworpen.
Het is die prestatiesprong qua rauwe kracht waarop ik doel (en natuurlijk ook de prestaties met FSAA en AF :) ) wanneer ik zeg dat we zo'n sprong lang niet meer gezien hebben.

Verder vind ik ook dat benchmarks zonder AF en FSAA aan toch van groot belang zijn: ze tonen immers wat de rauwe kracht van de kaart is, en hoelang de levensduur van de kaart dus is. Nieuwe games die meer kracht van je kaart vergen, zal je immers niet meer kunnen draaien met FSAA en AF aan, dus de kracht zonder deze is ook belangrijk. :)
De laatste keer dat de CPU bij de meeste spellen de bottleneck was, was bij de introductie van de R300.

De laatste keer dat een nieuwe kaart in het meerdendeel van de spellen dubbele prestaties neer zetten dan het topmodel vna de vorige generatie (dat nog maar een maand of zes in de winkels lag) was de 9700Pro vs GF4.
En deze 6800 Ultra is gemiddeld zo'n 80 tot 90% sneller dan de 9800XT, terwijl de 9700 Pro toendertijd gemiddeld 100 tot 120% sneller was dan de GF4.

Verder heeft ATI zich niet aangepast aan Nvida. Het is naief om te denken dat ATI nooit van plan was een kaart met 16 pipelines te maken.
Ze hebben van het begin af besloten een kaart met 16 te maken waarbij de mainstream kaarten er 12 gebruikten. (dat geeft betere yields) en alleen de ultra high-end er 16 gebruikt.
Zo'n ontwerp verandering kan je namelijk niet even in de laatste maand doen. Dat is een beslissing die je in het begin van de ontwerpfase maakt.

Dat ome Tom omver valt van verrassing geeft aan hoe biased hij is. Dit soort prestaties waren gewoon te verwachten. (tenzij hij een nieuw NV30 debacle verwachtte). Zoals ik hier boven al heb laten zien is de performancewinst tov de vorige generatie ook helemaal niet zo bijzonder als Tom claimt.

Blijkbaar is het in de mode om mensen die gewoon realistisch zijn te beschuldigen van het in de grond boren van Nvidia.
De NV40 is gewoon een heel solide kaart die prima prestaties neer zet. Maar laten we niet overdrijven.

Ze moesten ook wel minimaal dit soort prestaties leveren als ze concurrerend willen zijn met ATI. Het is namelijk te verwachten dat ATI (net zoals altijd in hun geschiedenis) weer 2x zo snel zullen zijn als hun vorige generatie.

Jouw eigen uitspraak is veel denigrerender tov Nvidia:
zelfs als ze eens een goede kaart gereleast hebben
Wie is er dan eigenlijk Nvidia aan het minimaliseren of in de grond aan het boren?

Ze hebben met de NV30 een grote fout gemaakt. (met name in het onderschatten van ATI) Dat hebben ze nu gecorrigeerd door de sterke features van de R300 over te nemen: adaptive AF, grid rotated MSAA, en zeer sterke mate van parallelisering ipv ruwe snelheid.

Dat heeft ze een krachtige kaart opgeleverd, die vast veel beter tegen ATI opgewassen is dan de NV30. Maar in hoeverre het echt voldoende is, is nu gewoon nog niet te zeggen. Dat weten we pas als de ATI kaarten uit komen.
@blouweKip:
Jij zit mijn woorden te verdraaien. Ik zit helemaal niet iedereen die positief is over die videokaart biased te noemen. (integendeel)

Maar Tom overdrijft gewoon gigantisch alsof het de meest geweldige performance winst in vele jaren is, en dat is gewoon niet waar.
Dat is dan ook zeker niet wat de andere review sites concluderen. Die zijn allemaal veel gematigder dan Tom. (Zelfs Anand) en wachten net zoals ik met hun oordeel af wat ATI doet.

Verder heb ik ook nergens ATI de hemel in zitten prijzen. Dat de 9700 Pro toen een uitstekend product was wil je toch neem ik aan niet ontkennen? Dat product is de reden dat ATI ineens zo ontzettend veel marktaandeel gewonnen heeft.
@Durona:
De cijfers die jij laat zien zijn de low quality benchmarks. Maar tegenwoordig is het toch niet meer realistisch om een high end kaart op low quality settings te draaien? Die test je minstens op 4xFSAA en 8x AF.
(toch? Ik draai zelf geen enkel spel meer op minder dan dat)

En als je dan de cijfers bekijkt uit exact dezelfde review (die jij toevallig even over het hoofd hebt gezien?)
UT2003 4xAA 8xAF 239% sneller
Nascar Thunder 4xAA 8xAF 204% sneller
COD 4xAA 8xAF 72 % sneller

Ik zat met mijn gemiddelde van 2 tot 2,5x keer zo snel dus aan de lage kant, want deze cijfers geven eerder 2,5x tot 3x zo snel aan :-)

Maar inderdaad, ik had wellicht de nuance moeten maken dat als je op je dure high end kaart je spellen op low-end instellingen speelt, dat het verschil dan minder is. (omdat je dan simpelweg tegen de cpu limiet aanloopt ipv de limiet van de kaart)

Bij de cijfers moet je eigenlijk ook nog meerekenen dat de 4xFSAA van de oudere NVidia kaarten maar kwaliteit heeft van de 2xFSAA van ATI. Dus de prestatieverschillen zijn eigenlijk nog hoger dan uit die cijfers van Tom blijkt.
Gelukkig dat dat verschil in AA kwaliteit bij de NV40 verholpen is.

Wat betreft de ontwerpverandering. Tuurlijk kunnen ze wel de releasedatum van die 16 pipeline versie vervroegen. Maar jij en ik kunnen echter niet beoordelen waarom dat gedaan is. Er zijn namelijk twee mogelijkheden:
1) De yields zijn beter dan verwacht. Dat is iets dat altijd moeilijk te voorspellen is. Als de yields beter zijn, dan heb je sneller een grote voorraad gpu's met 16 werkende pipes en kan je dat product eerder lanceren. (om bv Nvidia de genadeslag te geven met opnieuw een gpu die veel beter is)
2) De NV40 presteert beter dan verwacht en het 16 pipeline model is eerder nodig. In dat geval wordt het een paper release want er zijn niet genoeg werkende 16 pipeline gpu's voorhanden om 'm ook daadwerkelijk in grote getalen in de winkel te leggen.
(de geruchten gaan overigens ook dat dat bij de 6800 Ultra het geval is)

Maar geen enkele site kan antwoord geven welke van de 2 opties de juiste is, of dat het wellicht een combinatie van die twee is. En daarmee kan je dus ook niet beweren dat ATI zijn strategie heeft moeten aanpassen door Nvidia.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee