Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties
Bron: Guru 3d

De jongens van Guru 3d hebben een GeForce 7900 GTX XXX-editie in handen gekregen. Deze kaart is te koop voor 579 euro en is niet meer dan een standaard overgeklokte GeForce 7900 GTX met 512MB werkgeheugen. De videocore tikt daarbij op 700MHz, 50MHz sneller dan de standaardconfiguratie, en het geheugen doet zijn werk op 900MHz in plaats van 850MHz. De XXX uit de typenaam van de videokaart verwijst, tot spijt van wie het benijdt, dan ook enkel naar het eXtreme karakter van de kaart en heeft niets te maken met het weergeven van welgevormde dames.

In de uitgebreide review wordt om te beginnen de technologie uit de gebruikte G71-videocore uit de doeken gedaan. Ook Shader Model 3.0 en HDR komen daarbij aan bod. Na deze technische inleiding is het echter tijd voor de praktijk en begint de reviewer met het uitpakken van de kaart en meegeleverde onderdelen. In de doos vindt men naast de videokaart een S-Video-kabel, twee DVI-VGA-adapters, een kabel voor de stroomtoevoer en een HDTV Component Output Block.

Benchmarks F.E.A.R.
Benchmarkresultaten F.E.A.R. met Trilinear Filtering en 0x AA

Omdat moderne videokaarten al niet bekend staan om hun zuinigheid en het hier nog eens een overgeklokt exemplaar betreft, gaat de reviewer eerst en vooral aan de slag met een energiemeter. Hiermee meet hij het piekverbruik tijdens een 3DMark05-sessie. Daaruit blijkt dat de videokaart maar liefst 120W voor zijn rekening neemt van de 255W die in totaal door de computer verbruikt wordt. Een 350W-voeding met een minimum van 22A op de 12V-lijnen is dan ook vereist, maar meer is beter. De temperatuur die met een dergelijk verbruik gehaald wordt, klimt bij maximale belasting op tot 69C, waarbij de koeling opmerkelijk stil blijft, zo stelt de reviewer.

Voor het testen wordt een Gigabyte GA-K8NXP-SLI-moederbord gebruikt, voorzien van een Athlon 64 FX-57+ en 2GB geheugen. Als vergelijkingsmateriaal worden een GeForce 7600 GT en een GeForce 7900 GTX met 512MB ingezet. Het uitgebreide pakket testsoftware bestaat uit Serious Sam 2, Far Cry, Splinter Cell, Splinter Cell 3, Half-Life 2, Half-Life 2: Lost Coast, 3DMark03, 3DMark05, 3DMark06, Aquamark 3, Doom 3, Quake 4, F.E.A.R., Halo: Combat Evolved en X3: Reunion. Acht pagina's lang worden we verwend met screenshots, testconfiguraties en tabellen vol cijfers. Vooraleer over te gaan tot zijn conclusie, probeert de reviewer de kaart nog wat verder over te klokken. Daarbij bereikt de gpu 715MHz en blijft het geheugen steken op 915MHz.

3DMark-resultaten
Groen: 3DMark03 | Blauw: 3DMark05

Na het draaien van allerlei benchmarks en het meten van temperaturen en verbruik, komt de reviewer tot het besluit dat de GeForce 7900 GTX XXX snel is, zoals verwacht. Toch is hij niet helemaal zeker of hij de kaart zelf zou kopen. Hoewel de prestaties meer dan uitstekend te noemen zijn, is hij enigszins bezorgd over het feit dat de kaart werkelijk op het toppunt van zijn kunnen draait. Anderzijds is de standaardoverklok wel door de fabrikant uitgevoerd, wat betekent dat de twee jaar garantie geldig blijft. Dat is niet het geval als de gebruiker zelf met zijn kaart gaat klussen. Daartegenover staat dat deze kaart zowel sneller als goedkoper is dan de 7800 GTX met 512MB geheugen, zodat de keuze tussen die types snel gemaakt is.

Moderatie-faq Wijzig weergave

Reacties (62)

Het is slechts mijn mening, maar ik vind het belachelijk dat bijna 50% van het vermogen (in piek) gaat naar de grafische kaart... Zoals AMD en Intel juist proberen de TDP omlaag te krijgen doen ATi en Nvidia er weinig aan.

de CPU staat ook op 100% usage bij games (of 50% bij dual core haha) en toch trekt hij beduidend minder dan de GPU (zelfs als je ram en memcontroller zou meerekenen)
Het stroomverbuik van deze kaart is net minder in vergelijking met vroeger. De 6800u verbuikte bijvoorbeeld meer. Dus nvidia doet er wel degelijk iets aan.
En waarom is het belachelijk dat 50% van het vermogen naar de kaart gaat. Een grafische kaart is de motor van alles, als je in de hoogste IQ stand speelt is de graifsche kaart diegene die 100% belast wordt. De cpu niet, en het geheugen ook niet.
Heel goed van Guru3D om ook aandacht te geven aan het energieverbruik! Dit reist de pan uit omdat consumenten er toch geen weet van hebben.
Dat ligt eraan dat een CPU Core meestal meerdere jaren in de ontwerp fase zit, aangezien een core (Neem de AMD K8) meerdere jaren mee gaat. Gedurende die jaren wordt hij geperfectioneerd en energie zuiniger gemaakt.

Een GPU core daarintegen moet ieder half jaar opnieuw uitgevonden worden, zonder dat er veel ruimte is voor verbetering. Dit resulteerd dus vaak in een groot stroomverbruik, aangezien je vaak met -net- iets meer stroom hogere core clock speeds kunt halen.

Als een GPU core hetzelfde zou zijn als een CPU core, zouden we nu ongeveer met een 2Ghz GF4 zitten... ;)
Dat is niet de enige reden.

Vermogen wordt (ruwweg) verbruikt door schakelende elementen en door lekstromen.

Processoren bestaan voor een groot deel uit cache memories. Daarvan schakelt slecht een minieme fractie per cycle. Daarbij is het ook mogelijk om de cache geheugens speciaal voor lager verbruik te designen.

GPU's hebben procentueel veel minder on-chip geheugen en dus veel meer schakelende elementen. Het is een stuk moeilijker om daar stroomlimiterende maatregelen voor te bedenken.
Je kan tragere gates wel voorzien van High-Vt transistoren, maar dat is meestal slechts beperkt mogelijk.
GPU's zijn het belangrijkste onderdeel voor een gamer en de vraag naar een snellere GPU ten koste van meer stroomverbruik zal nog wel even aanhouden.
CPU's zijn al over deze piek heen, je kunt vijrwel alle nieuwe spellen op hoge kwaliteit spelen met een overgeclockte goedkope A64.
Er is een heel gemakkelijke manier om dat hoge stroomverbruik op te lossen: koop 'em niet.

En als je zou kijken naar performantie/Watt, dan zou je merken dat ATI en Nvidia weldegelijk hard werken om vermogen binnen de perken te houden.

Het 'probleem' is dat de absolute performantie sneller stijgt dan dat de mogelijkheden tot vermogensbesparing. De een stijgt min of meer lineair met het aantal transistoren en is dus eigenlijk ongelimiteerd (binnen zekere grenzen), de andere heeft een theoretisch minimum. Eens je daar in de buurt begint te komen, wordt het exponentieel moeilijker om nog meer vermogen te besparen...
- 1 Flame

De XXX-GFX-7900-XTX-CDI-HDI-TD videokaart..

Is er iemand die aan al die gekke naamgevingen nog uit kan?

Wat mhzjes meer of wa minder en weer een videokaart bij.
Ik overzie het allemaal niet meer ze, en een 'leek' al zeker niet meer...

[Edit]
Die CDI - HDI - TD hebbek er maar bijgesleurd uit de auto wereld (al even erg) om het een extra sarcastisch tintje te geven...
Het is eigenlijk niet zo ontzettend onlogisch, afgezien van de benamingen die sommige fabrikanten eraan geven, zoals XXX en Golden Sample. Dat maakt het inderdaad wel een stuk verwarrender. Neemt niet weg dat je het wel moet volgen om de namen van ATi en nVidia een beetje bij te kunnen houden.

GTX, XXX, XTX = snelheidsaanduidingen
7900 = Rating
TD = TV-out en DVI

HDI zal wel te maken hebben met High Definition en wat CDI betekent, weet ik niet :P
wat CDI betekent, weet ik niet
Common-rail Diesel injectie?
ff offtopic de puntjes op de i zetten: het is wel degelijk injection en niet intercooler ;)

(intercooler heeft te maken met de turbo en niet met de inspuiting)
Lol dat heeft hij zelf bedacht, cdi hdi en turbo diesel (TD) :D
Laatste gedeelte CDI-HDI-TD lijkt wel een auto benaming :P. Waar is de tijd dat je gewoon heel simpel Geforce 3 Tixxx had en dat de prestatie aan duide, maar dit is echt kansloos.
Dat is toch nog steeds hetzelfde.
Ik zie niet wat er makkelijker is aan een GeForce 3 ti500 dan aan de huidige benaming.
Hetgene wat je moet zien is GeForce 7900 GTX, de rest is wel leuk maar doet er niet zo gigantisch veel voor.
Maar een GeForce 3 ti500 heette vroeger ook bijvoorbeeld de "Hercules 3D Prophet GeForce 3 ti500"
Mijn kaarten waren:
Leadtek GeForce MX400
Hercules GeForce 3 Ti500
Leadtek GeForce 4 ti4600 ultra
Leadtek GeForce 5 Fx5950 ultra
Asus Radeon X850 XT Platinum Edition
Ik moet zeggen dat het er imho niet echt moeilijker op is geworden qua benaming. Alleen er zijn steeds meer verschillende modellen binnen 1 serie kaarten, dat maakt het ingewikkelder.
Daar heb je zeker een punt!
Het had erger gekund, ze hadden ook alle MHz-tjes, MB-tjes e.d. er in kunnen zetten.

@hierboven
High Defenition Interface zal et idd zijn, HDMI dus.
wat CDI betekend weet ik niet. Iets met Component aansluiting misschien?
Buiten het feit dat de namen steeds belachelijker worden, de dozen worden ook buitenproportioneel groot.

Ik snap zelf ook wel dat als ik een "arm & leg" uitgeef aan een videokaart dat ik een beetje het gevoel moet krijgen dat dat iets speciaals is, maar is een doos van 60cm bij 30cm bij 20cm daarbij strikt noodzakelijk? :)
noodzakelik zeker niet, maar er zijn wel goede redenen te noemen voor de grote dozen:
1) de kaarten worden altijd gbundeld met software, kabeltjes en boekjes, die niet los in en doos eggooid kunnen worden (omwille van de kostprijs van het kaartje ;) ) daarom worden dozen ontworpen die alles op een gordende en vaste manier kunenn bevatten
2) grote dozen vallen harder op. In de meeste winkels is dat niet zo relevant, maar in somige grotere winkels en op beurzen wel!
3) grote dozen verdwijnen minder makkelijk. In sommige winkels stana die kaarten bijna letterlijk voor het grijpen. maar zo'n gigantische doos in je binnenzak valt natuurlijk op :)
2) grote dozen vallen harder op

Typo zeker? Moet dit niet zijn: 2) grote dozen vallen harder? :+
zeker meneer Galileo vergeten? :P
Je hebt de naam verkeerd hoor! :P

Het is de XFX Nvidia GeForce 7900 GTX XXX CDI HDI TD }>
Ik zou er liever XFX Nvidia GeForce 7900 GTX XXX CDI HDI TD 3.2 van maken :+
Nouja, in ieder geval volgen de namen nu wel de trend van de specificaties, die staan al sinds jaar en dag vol met onzinnige namen en afkortingen (giga, turbo, smart, hyper) waar je als programmeur helemaal niks mee kunt. Bruikbare DirectX specs moet je tegenwoordig al zoeken in een vrij gigantische Excel file die in de SDK verstopt zit, die met zulke namen nog wel wat gigantischer zal worden.

Lang leve marketing :(
waar is de tijd dat XXX nog gewoon voor goeie ouwe porno stond :9~
"Hardcorde spelletjes XXX editie"
Ik moest bij het lezen van de titel even heel ergens anders aan denken, gek he ;) /offtopic
Zo gaat het met de tegenwoordige vorm van marketing, de lusten van de mens opwekken om ze tot kopen aan te zetten :>
En anders leen je toch knaken als je die niet hebt? :Y)
Dus dat is de reden dat ik een XXX heb besteld?
(Waar ik overigens al iets van een maand op zit te wachten:()
Ik moest ook heel ergens anders aan denken en de software op m'n werk ook want ik kreeg geen toegang tot dit nieuwsartikel vanwege de XXX... Staat nu wel mooi een verwijzing in de abuse database :P
niet normaal meer...

heb je er wel gelijk 4 besteld voor je quad sli opstelling? Of ben je bang dat je dan nog steeds te weinig hebt voor je games en grafische programma's ? |:(
Ik ook idd :P ik dacht meer aan twee versies van games, een met foute dingen en een soort lite versie ofzo :P
nice, de snelste fabrieks kaart atm :Y)

als dat ding nou nog eens leverbaar zou worden, heb 'em al 5weken in backorder staan :'(

/edit
voor de mensen die niet snappen waarom je deze kaart zou kopen:
de clocks van de kaart (700/900) zijn enorm hoog, zeker voor "stock" clocks, veel kaarten halen die snelheid niet zonder betere koeling en of voltmods. kortom geheugen chips en gpu's worden getest op deze snelheid en alleen de beste komen op de XxX kaarten, dus wil je gegarandeerd zijn van een kaart die hoge kloksnelheden haalt is dit je beste optie, uiteraard betaal je daarvoor..
de clocks van de kaart (700/900) zijn enorm hoog, zeker voor "stock" clocks, veel kaarten halen die snelheid niet zonder betere koeling en of voltmods.
Niks stock. XFX perst ook zoveel als mogelijk uit die kaart, dus reken er maar niet op dat je er nog veel meer hertzjes bij op zal kunnen clocken.
..is niet echt een rede voor mij om een dergelijke kaart te kopen.
dan moet je dat ook vooral niet doen ;)
En ik maar denken eindelijk wat pr0n op tweakers :'( :+
Zou dat elfje van NVidia weer op de voorkant staan?
Maar deze keer zonder ehhhmmm, "vleugels"?
Laat maar die droogkloten hier hebben geen humor.
Dat bij normale kaarten het overklokken leidt tot garantieverlies geloof ik niet.
Dat is namelijk softwarematig. Als de kaart dan crashed doordat je te ver bent gegaan en de computer opnieuw opstart is er niets aan de hand.
Mocht de gpu toch kapot gaan door extra warmte door overclocken, wat ZEER onwaarschijnlijk is, is niets te zien dat dat door overclocken is gebeurd.
Oh, dus als ik mijn motorblok van mijn auto vast laat lopen omdat ik steeds met een koude motor 7k rpm draai, en dat ook blijf doen, en schakel zonder de koppeling te gebruiken, mag ik ook terug naar de garage? En dan zeg ik vriendelijk "nee meneer, de buitenkant is nog helemaal netjes, kijk geen krasje te zien en ik heb verder niets vreemds gedaan. Krijg ik nu garantie?

Ooit wel eens gehoord van "gebruiken waar het voor bedoelt is"? Of iets in die richting? Kijk, ik gebruik mijn telelens als honkbal knuppel, nou doet 'ie het niet meer, krijg ik nu een nieuwe?
officieel is dit wel zo, dat je de garantie verliest. het is echter moeilijk vast te stellen dat je kaart door overklokken is overleden (kan wel).
bovendien denk ik dat veel bedrijven liever een paar kaarten meer weggeven door garantie dan een "slechte" naam op te bouwen.
Misschien wat voor de volgende generatie videokaarten.

de "0.2kW GTI" versie :+
btje offtopic maar gelukkig...

(ehm, bovenstaande was gericht aan een post over dieselmotoren met turbo's, maar die post is een beetje weg nu geloof ik)

Ik ben het er wel mee eens dat al die extra toevoeginen aan de naam van een videokaart (en waar hebben we het over?? in totaal 100 extra Mhzen(!)) het meer een dooflhof maken dan een gemakkelijkere keuze. Alhoewel je nu bij het kopen van een nieuwe videokaart slechts op de kaart met de langste naam af hoeft te gaan om zeker te zijn dat je het snelste, beste, duurste, nieuwste, hipste en coolste apparaat in je pc stopt wat nu te krijgen is....
Leuke naam zeg :P
Zo erg dat ik deze post niet eens kon bekijken op me werk, werd geblokkeerd omdat het onder porno viel volgens dat ding :+
lekker boeiend...deze versie zal voorlopig wel niet leverbaar zijn zoals de meeste 7900 kaarten.

Overigens vind ik het wel tof dat een bedrijf als XFX probeert alles uit zon kaart te halen. Scheelt oc-en voor de consument en toch garantie.
Alhoewel het oc-en an sich de sport is:)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True