Door Marc Rademaker

Redacteur

HD 5670: budget-gamekaart of veredelde htpc-kaart?

Inleiding

In september bracht AMD de HD 5870 en de HD 5850 uit en in oktober volgden de HD 5770 en de HD 5750. Nu, in januari, is het de beurt aan de HD 5670, de eerste DirectX 11-kaart met een adviesprijs van slechts 99 dollar. De adviesprijs geldt overigens voor het model met 512MB geheugen: de modellen met 1GB zullen uiteraard iets duurder uitvallen.

De HD 5670 heeft de nieuwe Redwood-gpu aan boord, met 400 streamprocessors, terwijl de HD 5770 er over 800 beschikt en de HD 5870 zelfs over 1600. Redwood is dan ook een afgeleide van Juniper, zoals Juniper een afgeleide is van Cypress. De schaalbaarheid van de architectuur maakte het voor AMD mogelijk om binnen korte tijd voor vrijwel elk marktsegment gpu's uit te brengen.

Met 400 streamprocessors is Redwood eerder een zuinige gpu dan een rekenmonster dat op de meest intensieve grafische taken berekend is. De vraag is dan ook of de HD 5670 niet vooral een videokaart is voor htpc's waar af een toe een spelletje mee wordt gespeeld, in plaats van een kaart voor de wat minder veeleisende gamers.

De specificaties

Zoals gezegd is de HD 5670 uitgerust met de Redwood-gpu. De gpu bevat 627 miljoen transistors en wordt volgens het 40nm-procedé vervaardigd. De grootte van de die heeft AMD niet vrijgegeven, maar die zal iets meer dan een kwart zijn van de die-size van de Cypress-gpu, die 334 vierkante millimeter beslaat. Een schatting van 90 tot 100 vierkante millimeter zal er waarschijnlijk niet ver naast zitten.

Dat de die-size niet exact op 25 procent ligt, komt door de aanwezigheid van vaste onderdelen als bijvoorbeeld de command processor, de uvd en de display-controllers, die bij elke gpu evenveel ruimte innemen. Ook de 128bit-geheugenbus speelt een rol bij de grootte van de chip.

De gpu beschikt over een kwart van het aantal rekeneenheden van de Cypress-gpu. Dat betekent dat er 400 streamprocessors aanwezig zijn, maar omdat de texture units en de rops aan de streamprocessors verbonden zijn, nam ook het aantal daarvan met een factor vier af. Er bleven daardoor 20 texture units en 8 rops over. De streamprocessors werden door AMD op 775MHz geklokt, wat goed is voor 620Gflops.

Het enige wat niet met een factor vier afnam ten opzichte van Cypress is de geheugenbus. Cypress heeft een 256bit-geheugenbus, terwijl zowel Juniper als Redwood een 128bit-geheugenbus hebben. In combinatie met gddr5-geheugen, dat AMD voor Redwood op 4000Mhz klokte, levert dat een respectabele geheugenbandbreedte op van 64GBps.

De afgeslankte gpu heeft uiteraard minder energie nodig. Het verbruik onder belasting zou op 61W liggen, terwijl er in de idle-stand slechts 14W uit de voeding wordt getrokken. Het lage verbruik heeft twee voordelen: de afwezigheid van een pci-e-connector en de mogelijkheid om een goedkope koeler te gebruiken. Het ontbreken van de pci-e-connector betekent dat de videokaart in bijna elk systeem met een pci-e x16-slot gestoken kan worden. De goedkope koeler moet uiteraard de kostprijs drukken.

4830 5770
5670GTS 2409600GT
Gpu RV770LE Juniper
Redwood G92b G94
Productieprocedé 55nm 40nm 40nm 55nm 65nm
Gpu-snelheid 575MHz 850MHz 775Mhz 675MHz 650MHz
Geheugensnelheid 1800MHz 4800MHz 4000MHz 2200MHz 1800MHz
Geheugentype gddr3 gddr5 gddr5 gddr3 gddr3
Geheugen-interface 256bit 128bit 128bit 256bit 256bit
Streamprocessors 640 800 400 112 64
Rops 16 16 8 16 16
Texture-eenheden 32 40 20 56 32
Tdp 110W 108W 61W 120W 96W
Chipoppervlak 256mm2 - ~100mm2 230mm2 240mm2
Transistors 956 miljoen 1,04 miljard 627 miljoen 754 miljoen 505 miljoen

Testsysteem

Het testsysteem is opgetrokken rond een Core i7 920-processor, die voor deze review op 3,8GHz werd geklokt door de bclk tot 180MHz te verhogen. We streven ernaar om altijd de nieuwste drivers te gebruiken, en als er bèta-drivers gebruikt zijn, wordt dat vermeld. Bij deze review zijn de ATI-kaarten met versie 9.12 van de Catalyst-drivers aangestuurd en de Nvidia-kaarten met versie 195.62 van de Geforce-drivers. Voor de benchmarks zijn de volgende games van de plank gehaald: Call of Duty: Modern Warfare 2, Crysis: Warhead, Far Cry 2, Stalker: Clear Sky, DiRT 2, Tom Clancy's H.A.W.X en Batman: Arkham Asylum. Ook van deze games zijn, voor zover beschikbaar, alle patches geïnstalleerd. Indien mogelijk is van de interne benchmarks van de games gebruikgemaakt.

Testsysteem
Moederbord EVGA X58 Classified
Processor Intel Core i7 920 @ 3,8GHz
Geheugen 6GB ddr3: 3x OCZ3X1333LV6GK 8-8-8
Harde schijven 500GB Samsung Spinpoint F1 HD502IJ
Videokaarten

ATI HD 5670 512MB
Asus HD 5670 1GB
ATI HD 4830
ATI HD 5770
Nvidia GTS 240
Gigabyte 9600GT

Koeler Thermalright Ultra Extreme 120
Voeding Corsair 850HX

Intels X58-platform zal naar verwachting nog geruime tijd de prestatiekroon in handen houden. Dit platform zal bij het uitvoeren van de benchmarks niet snel een bottleneck vormen. Ook biedt het de mogelijkheid om videokaarten in zowel sli- als in CrossFire-modus te draaien.

Elke game is getest op de resoluties 1280x1024 en 1680x1050. De instellingen verschillen per game en zullen daarom telkens vermeld worden. In principe wordt altijd anti-aliasing toegepast, tenzij dit resulteert in onspeelbaar lage framerates. Hetzelfde geldt voor sommige ingame-settings, die naar beneden worden bijgesteld als de videokaart anders onvoldoende fps produceert. Ook wordt er altijd 16xAF toegepast, behalve bij HAWX; bij games die dat niet ondersteunen is deze instelling afgedwongen met behulp van ATI's CCC of Nvidia's Control Panel.

In het Catalyst Control Center staat de adaptive aliasing op multi-sampling, wordt de toepassing van AA/AF waar mogelijk aan de applicatie overgelaten, en is mipmapping op de hoogste kwaliteit ingesteld. In Nvidia's Control Panel staat de anti-aliasing transparancy-modus op multisampling en is de texture quality op high quality ingesteld. Ook hier wordt AA/AF waar mogelijk door de applicatie verzorgd.

Bij alle tests wordt zowel het minimale als het gemiddelde aantal frames per seconde gegeven, waarbij een hogere score uiteraard altijd beter is.

DiRT 2

DiRT 2 maakt voor het eerst zijn opwachting in een gpu-review. De pc-versie van het spel werd uitgesteld opdat de ontwikkelaar nog de kans had om DirectX 11-technieken in te bouwen. Hoewel de HD 5670 een DirectX11-kaart is, is er niet met DirectX 11 getest, omdat dat onspeelbare framerates oplevert. Bovendien zou de vergelijking met voorgaande videokaarten van ATI en Nvidia mank gaan. Er wordt gebruik gemaakt van de ingebouwde benchmark, die een aantal keer gedraaid wordt. De instellingen staan op zijn hoogst en er wordt 4xAA toegepast.

DiRT 2 - 1280x1024 - Max - 4xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 5770 1GB
*******
+
**
54,1
GTS 240 1GB
******
+
*
45,0
HD 4830 512MB
*****
+
*
39,7
9600GT 1GB
*****
+
*
36,7
HD 5670 512MB
*****
+
*
36,0

De HD 5670 is de langzaamste videokaart van het stel, maar de videokaart stelt niet teleur. DiRT 2 is goed speelbaar met deze framerates, en als de 9600GT niet standaard overgeklokt was van 600MHz naar 650MHz, dan had de HD 5670 deze kaart verslagen.

DiRT 2 - 1680x1050 - Max - 4xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 5770 1GB
*******
+
**
48,9
GTS 240 1GB
******
+
*
40,9
HD 4830 512MB
*****
+
*
35,7
HD 5670 512MB
*****
+
*
32,7
9600GT 1GB
****
+
*
31,9

De HD 5670 is op 1680x1050 sneller dan de 9600GT. Als de AA uitgezet wordt, blijven er op deze resolutie prima speelbare framerates over. De HD 5670 laat meteen zien meer dan een htpc-kaart te zijn.

Far Cry 2

Far Cry 2 is nog altijd een zware benchmark die de gpu's de nodige moeite geeft. Zoals gebruikelijk wordt de small ranch-benchmark gedraaid, met de hoogst mogelijke instellingen en met 4xAA.

Far Cry 2 - 1280x1024 - Ultra high - 4xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
GTS 240 1GB
*******
+
**
44,8
9600GT 1GB
*****
+
**
36,7
HD 4830 512MB
*****
+
**
32,8
HD 5670 1GB
****
+
**
30,7
HD 5670 512MB
****
+
*
29,1

Far Cry 2 is op de hoogste instelling en 4xAA net een tandje te zwaar voor de HD 5670. De videokaart kan echter een heel eind meekomen met de HD 4830, wat geen slechte prestatie is. Of de HD 5670 over 512MB of 1GB geheugen beschikt, doet er weinig toe.

Far Cry 2 - 1680x1050 - Ultra high - 4xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 5770 1GB
******
+
**
44,3
GTS 240 1GB
******
+
**
39,7
HD 4830 512MB
*****
+
**
32,8
9600GT 1GB
*****
+
**
31,4
HD 5670 512MB
***
+
**
25,6
HD 5670 1GB
****
+
*
25,5

Op de wat hogere resolutie neemt de HD 4830 plots afstand van de HD 5670's, die ook de 9600GT aan zich voor bij moeten laten gaan. Dat is niet verwonderlijk; hoewel AMD met zijn nieuwe kaarten de 9600GT en de GT 240 wil beconcurreren, is Far Cry 2 een titel die de voorkeur aan Nvidia-kaarten geeft.

Tom Clancy's: H.A.W.X.

In tegenstelling tot Far Cry 2 geeft HAWX de voorkeur aan ATI-kaarten, met name omdat HAWX gebruik maakt van DirectX 10.1 en daar zijn de ATI-kaarten goed in. Ook bij HAWX wordt er gebruik gemaakt van de ingebouwde benchmark, terwijl fraps het aantal fps bijhoudt.

Hawx - 1280x1024 - Maximum - 4xAA/0xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 4830 512MB
******
+
***
51,1
GTS 240 1GB
*****
+
**
43,2
HD 5670 1GB
******
+
*
42,5
HD 5670 512MB
*****
+
**
39,7
9600GT 1GB
*****
+
**
38,5

De HD 5670 weet de 9600GT af te troeven, maar het verschil is klein. Alleen de 1GB-uitvoering weet een significant verschil met de 9600GT op de klokken te zetten.

Hawx - 1680x1050 - Maximum - 4xAA/0xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 5770 1GB
******
+
**
53,9
HD 4830 512MB
****
+
**
42,5
GTS 240 1GB
****
+
*
35,2
HD 5670 512MB
***
+
**
32,9
HD 5670 1GB
***
+
**
32,4
9600GT 1GB
***
+
**
31,2

De HD 5670's zijn de 9600GT opnieuw te snel af, en wederom is het verschil marginaal. Het extra werkgeheugen van de 1GB-versie heeft zijn magische werking echter verloren. We zien verder dat de HD 5770, met 800 streamprocessors, bij lange na niet twee keer zo snel is.

Batman: Arkham Asylum

Batman: Arkham Asylum werd enige tijd geleden in onze benchmarksuite opgenomen, aangezien het op formidabele wijze gebruik maakt van de populaire Unreal 3.0 Engine. Er wordt alleen geen gebruik gemaakt van AA, omdat Nvidia daar een oneerlijk voordeel mee opdoet.

Batman: Arkham Asylym - 1280x1024 - Max - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
GTS 240 1GB
****
+
****
122,0
HD 4830 512MB
****
+
***
102,0
HD 5670 1GB
****
+
***
94,0
9600GT 1GB
***
+
***
92,0
HD 5670 512MB
****
+
***
91,0

De HD 5670 en de 9600GT zijn aan elkaar gewaagd, maar de HD 5670 heeft betere minimale fps-scores dan de 9600GT. De framerates zijn overigens zo hoog dat de AA makkelijk ingeschakeld kan worden.

Batman: Arkham Asylym - 1680x1050 - Max - 0xAA/16xAF
GPU#VRAMMinimum » Gemiddelde Score (fps)
HD 5770 1 1GB
*****
+
***
115,0
GTS 240 1 1GB
****
+
***
95,0
HD 5670 1 1GB
***
+
**
73,0
9600GT 1 1GB
***
+
**
71,0
HD 5670 1 512MB
***
+
**
71,0

We zien hetzelfde gebeuren als bij 1280x1024: de HD 5670's en de 9600GT zitten erg dicht bij elkaar, maar de HD 5670's zetten hogere minima neer.

Call of Duty: Modern Warfare 2

Call of Duty: Modern Warfare 2 vervangt de Call of Duty: World at War-benchmark. De nieuwste telg van de razend populaire serie kan natuurlijk niet in onze testsuite ontbreken. Alle instellingen staan op zijn hoogst, maar er wordt geen gebruik gemaakt van AA, aangezien dit voor onder andere de HD 5670 te veel gevraagd is.

Call of Duty: Modern Warfare 2 - 1280x1024 - Max - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
GTS 240 1GB
******
+
***
75,7
HD 4830 512MB
*****
+
***
74,6
HD 5670 1GB
****
+
***
62,5
9600GT 1GB
****
+
***
62,5
HD 5670 512MB
****
+
***
62,3

De HD 5670's presteren nagenoeg hetzelfde als de 9600GT. Op 1280x1024 is het spel prima speelbaar, zolang er geen AA wordt gebruikt.

Call of Duty: Modern Warfare 2 - 1680x1050 - Max - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 5770 1GB
******
+
***
81,7
GTS 240 1GB
****
+
***
67,4
HD 4830 512MB
****
+
***
66,0
HD 5670 512MB
***
+
**
54,6
HD 5670 1GB
***
+
**
54,1
9600GT 1GB
***
+
**
52,8

Op de wat hogere resolutie streven de HD 5670's de 9600GT voorbij, zij het marginaal. Het scheelt niet veel maar CoD: MW2 is nog steeds vrij goed speelbaar.

Crysis Warhead

Crysis Warhead is samen met Stalker: Clear Sky het zwaarste spel in onze benchmark-serie. Het heeft dan ook weinig nut om het spel op de allerhoogste instellingen te draaien; reden om de game met de 'Gamer'- in plaats van met de 'Enthusiast'-instellingen te testen.

Crysis Warhead - 1280x1024 - Gamer - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
GTS 240 1GB
******
+
**
32,7
HD 4830 512MB
*****
+
**
25,7
9600GT 1GB
*****
+
**
25,6
HD 5670 512MB
****
+
**
23,5

Zoals verwacht is Crysis zelfs op de lagere instellingen en de lage resolutie van 1280 bij 1024 beeldpunten een maatje te groot voor de HD 5670. Van een videokaart van 75 euro mag je duidelijk geen wonderen verwachten.

Crysis Warhead - 1680x1050 - Gamer - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
GTS 240 1GB
******
+
**
25,7
HD 4830 512MB
*****
+
**
20,4
9600GT 1GB
*****
+
**
20,3
HD 5670 512MB
****
+
**
16,6

Op 1680x1050 is het geen pretje meer om de Crysis-benchmark te draaien. De HD 5670 moet hier zelfs in de 9600GT en de HD 4830 zijn meerdere erkennen.

Stalker: Clear Sky

Na Crysis Warhead is Stalker: Clear Sky het voor de grafische kaart meest veeleisende spel. De instellingen werden dus wederom naar beneden bijgesteld. Ook op 'Medium' hebben de videokaarten nog steeds moeite met deze benchmark.

Stalker: Clear Sky - 1280x1024 - Medium - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 4830 512MB
*******
+
**
35,4
GTS 240 1GB
******
+
**
33,4
9600GT 1GB
****
+
**
24,4
HD 5670 512MB
****
+
**
22,1

De HD 5670 stelt wederom teleur, vooral ten opzichte van de HD 4830, die juist erg goed presteert ten opzichte van bijvoorbeeld de GTS 240.

Stalker: Clear Sky - 1680x1050 - Medium - 0xAA/16xAF
GPUVRAMMinimum » Gemiddelde Score (fps)
HD 4830 512MB
*******
+
**
30,4
GTS 240 1GB
******
+
**
28,2
HD 5670 512MB
****
+
**
20,5
9600GT 1GB
****
+
**
20,1

De framerate van de HD 5670 gaat op de hogere resolutie met ruim zeven procent achteruit, terwijl de andere videokaarten opmerkelijk meer dan het dubbele inleveren. Ongeveer 20fps is natuurlijk nog steeds geen speelbare framerate.

Energieverbruik en geluid

De HD 5670 is de eerste DirectX 11-videokaart zonder pci-e-connector. De overige geteste videokaarten hebben wel een extra pci-e connector nodig om van voldoende prik voorzien te worden. Enkel de GT 240 van Nvidia, die marginaal sneller is dan de 9600GT, kan het ook af zonder pci-e-connector.

De HD 5670 kan door zijn lage verbruik dus in vrijwel elk systeem met een pci-e x16-slot geprikt worden. AMD geeft een verbruik op van maximaal 61W, wat voor de voedingen in pc's van Dell, HP en dergelijke geen probleem zou moeten zijn. Ook in een htpc zal de HD 5670 met zijn idle-verbruik van 14W geen gek figuur slaan.

Zoals gebruikelijk werd het stroomverbruik van het gehele systeem eerst gemeten terwijl de HD 5670 duimen zit te draaien, en vervolgens terwijl de kaart door Furmark tot het uiterste gedreven wordt. Op hetzelfde moment werd ook de geluidsproductie gemeten.

Energieverbruik

Vermogensopname systeem - Idle
Verbruik (Watt)
GTS 240
**********
163
9600GT
*********
153
HD 5770
*********
148
HD 5670 1GB
*********
147
HD 4830
*********
147
HD 5670 512MB
*********
146

Het systeem verbruikt met de HD 5670 marginaal minder dan de HD 5770. Officieel zou de HD 5770 met de 2d-clocks 4W meer verbruiken, maar met een systeem dat van zichzelf al 130W trekt, is dat nauwelijks merkbaar. Alleen de GTS 240 onderscheidt zich, en wel op negatieve wijze.

Vermogensopname systeem - Load
Verbruik (Watt)
HD 5770
**********
263
GTS 240
**********
258
HD 4830
**********
250
9600GT
*********
237
HD 5670 1GB
********
217
HD 5670 512MB
********
207

De 40nm-technologie werpt vooral onder load zijn vruchten af. Hoewel de HD 5670 regelmatig ongeveer even goed presteert als de 9600GT, wordt er een stuk minder energie gebruikt. De extra 512MB werkgeheugen van de HD 5670 1GB kost wel duidelijk meer energie.

Geluidsproductie

Geluidsproductie systeem - Idle
Geluidsdruk (dBA)
HD 5670 1GB
**********
45,1
HD 5770
**********
44,4
HD 5670 512MB
*********
42,7
GTS 240
*********
42,1
HD 4830
*********
41,0
9600GT -

De 9600GT is passief gekoeld en produceert dus geen geluid. De HD 4830 is erg stil, en dat is waarschijnlijk te danken aan driver-updates: voorheen maakte de koeler meer geluid. De HD 5670 512MB is ondanks zijn kleine ventilator bijna onhoorbaar, aangezien er amper hitte afgevoerd hoeft te worden. Jammer genoeg draait de fan op de Asus HD 5670 1GB niet langzamer dan de minimale 20 procent, waardoor deze grotere ventilator meer lucht verplaatst en meer herrie maakt dan nodig is.

Geluidsproductie systeem - Load
Geluidsdruk (dBA)
HD 5770
**********
57,4
GTS 240
*********
52,3
HD 5670 512MB
********
48,0
HD 5670 1GB
********
45,1
HD 4830
********
45,1
9600GT -

Onder load is het de Asus HD 5670 1GB die samen met de HD 4830 het stilst is. De HD 4830 profiteert van het overvloedige gebruik van koper, terwijl de Asus-kaart met zijn relatief grote koeler eenvoudig koel blijft en de fan dus niet al te hard hoeft te draaien. De kleine fan van de ATI HD 5670 512MB moet daarentegen een stuk sneller roteren om de videokaart niet boven een temperatuur van 85 graden Celsius uit te laten komen.

Conclusie

De vraag was of de HD 5670, met 'slechts' 400 streamprocessors, niet eerder een veredelde htpc-kaart was dan een budget-gamekaart. Niets blijkt echter minder waar: de HD 5670 houdt zich prima staande, zelfs in de zwaardere spellen. Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert. Reden tot klagen hadden we alleen in Crysis Warhead en Stalker: Clear Sky. De HD 5670 is dus wel degelijk een gamerskaart, zij het voor gamers met een erg beperkt budget; voor wie wat meer te besteden heeft, ligt de HD 5770 meer voor de hand.

Vooral de prestaties per watt zijn uitstekend te noemen en ook de geluidsproductie is erg laag. De HD 5670 biedt verder de mogelijk om drie beeldschermen aan te sluiten door middel van ATI Eyefinity, maar let wel, niet alle HD 5670's zijn voorzien van een displayport, en die is noodzakelijk voor de aansturing van een derde beeldscherm.

Uit de benchmarks kwam verder nog naar voren dat de HD 5670 512MB nagenoeg hetzelfde presteert als de HD 5670 1GB. Aangezien de HD 5670 de rekenkracht ontbeert om op hogere resoluties genoeg frames te produceren, is het extra geheugen eigenlijk overbodig. Wij raden dan ook aan om de extra euro's in de beurs te houden en voor de 512MB-uitvoering te kiezen. En wie de HD 5670 512MB nog niet goedkoop genoeg vindt, moet maar even wachten tot februari: dan komt AMD met de HD 5500 en de HD 5450.

-Update:

Donderdag 21 januari, 14:50: De Call of Duty: Modern Warfare 2-benchmark is opnieuw gedraaid met de HD 5670 512MB en de HD 5670 1GB. De eerdere problemen deden zich niet meer voor: wat de oorzaak van de eerder gevonden slechte resultaten is, is nog niet duidelijk. De grafieken zijn aangepast met de nieuwe resultaten.

Asus HD 5670 Asus HD 5670 ATI HD 5670 ATI HD 5670 Nvidia GTS 240

Reacties (100)

100
96
75
5
0
11
Wijzig sortering
Call of Duty: Modern Warfare 2 is opnieuw getest en de HD 5670 presteert nu een stuk beter. Wat er is mis is gegaan tijdens de eerste benchmarks is nog niet duidelijk, maar de HD 5670 presteert nu nagenoeg gelijk aan de 9600GT.
"dat voor jou de resolutie niet hoger hoeft dan 1280x768 is absoluut geen argument daarin, wie koopt er uberhaubt een htpc zonder die in HD te willen gebruiken..."

Je slaat de plank aardig mis nu, wat heeft een htpc met HD te maken?
Juist, in principe niets.
Maar dat terzijde, welke resolutie denk je dan dat mensen draaien als ze de htpc op een HD-Ready toestel hebben aangesloten (zoals ik, en waarschijnlijk zat andere.....)
In mijn geval is dat dus 1280x768 (en niet 1366x768)

"liever een passief gekoelde kaart + grote stille case-fan dan een zo'n klein monstertje op de kaart zelf."

Over welke fabrikant heb je het dan, want er zijn ook zat fabrikanten die een fan plaatsen van rond de 80 mm namelijk.
En hij hoeft ook niet geheel geruisloos te zijn, want met het gemiddelde omgevingsgeluid hoor je dat toch niet.(even uitgaande van ca 40-45 db wat het fannetje produceert)

"dat jij deze voor je htpc hebt gekocht maakt het nog niet een geschikte kaart."

Waar zeg ik dat dan?
Ik heb nog helemaal geen kaart gekocht.

"Dat "er genoeg mensen zijn waarvoor deze kaart wel voldoende is" betwijfel ik. een gamer koopt beter, voor een htpc is hooguit de chip leuk maar de kaart as-is te duur en de rest van de standard dell-pc internetters kan prima met minder toe."

En verder bestaat er dus niks?
Er bestaan alleen gamers, mensen met een htpc die alleen (hd)films kijken en standaard dell-pc internetters?
Kom op, naast de (die-hard) gamers die (terecht) de betere kaarten nemen, zijn er genoeg mensen die ook wel eens een spelletje willen spelen, ook al doen ze dat dan op een htpc of hun dell-pc, en genoegen nemen met lagere instellingen dan 1920x1200 high/very high/ultra high.

"Deze kaart is qua framerate gewoon low-end wat mij betreft en dus te duur."

Ik ben van mening dat deze kaarten prima presteren op de wat lagere resoluties (zoals bv 1280x768 dus)
En waar haal je vandaan dat ie te duur is ten opzichte van de concurrentie?
Bij mijn weten was de GT240 de directe concurrent van de 5670
De goedkoopste GT240 in de pricewatch is 71 euro en de goedkoopste 5670 gaat voor ruim 74 euro, dus die vlieger gaat niet op

[Reactie gewijzigd door MieJuul op 24 januari 2010 14:23]

De 5670 komt dus op het niveau uit van de 9600GT. Stroomverbruik buiten beschouwing gelaten.

Ik vind dat eigenlijk wel pijnlijk te noemen. Een 9600GT is al op te scharrelen voor 60 euro, terwijl je voor een 5670 op dit moment nog 75 euro kwijt bent. Daar staan dan wel weer extra futures tegen over, en een lager stroomverbruik. Daarnaast zijn de drivers wellicht nog niet optimaal, dus er is nog hoop!

Maar ik kan niet volmondig zeggen dat de 5670 de vloer aanveegt met de 9600GT.
Er klopt helemaal niets van deze review. De 5670 is sneller dan de GT240:

http://www.anandtech.com/video/showdoc.aspx?i=3720&p=6

Edit.

Met mark gesproken. Het gaat om een GTS240 Dit is een 9800 GT rebrand. Alleen beschikbaar in de OEM wereld. Heel erg verwarrend als je het mij vraagt. Ik zou die kaart persoonlijk niet mee nemen in de review.

[Reactie gewijzigd door Astennu op 21 januari 2010 15:16]

Nee, maar daarentegen is de 5670 een budget kaart, en de 9600GT een omgedoopte 8000 serie-kaart, die als topmodel in de markt is gezet.
De 9600GT is nooit een topmodel geweest...
Wel was die in verhouding nogal snel voor wat meestal een x600 maar was (zie 8600GT).
ik denk dat je in de war bent met de 9600GSO, wat in feite gewoon een 8800GS is, wat op zijn beurt als ik me niet vergis weer een kreupele 8800GT is.
De 9600GT is wel degelijk bedoeld als een midrange kaart met een G94 core.
Ik sta versteld.

Hoe kunnen de resultaten nu zo erg verschillen met andere review sites ? Zie:

http://www.computerbase.d...rformancerating_qualitaet

en

http://www.anandtech.com/video/showdoc.aspx?i=3720&p=6

Het lijkt wel of er hier een 5450 getest is ipv een 5670. Hij verslaat de GT240 in andere reviews dik.

Tijd om alles opnieuw te testen ? Want er klopt helemaal niets van.

[Reactie gewijzigd door Astennu op 21 januari 2010 13:40]

The_Mask zegt hierboven ergens dat het niet om een GT240 gaat maar om de GTS 240, daar zit het verschil dus in... Goed opgemerkt van hem :P
Je haalt nu twee dingen door elkaar. Tweakers heeft geen GT 240 getest alleen maar een GTS 240 (die overigens helemaal niet te koop is in de winkel aangezien het een OEM kaart is).

[Reactie gewijzigd door Stefanovic45 op 21 januari 2010 13:45]

Heb met mark gesproken hij bevestigd dat het is min of meer ene 9800 GT.

nVidia en dat rebrand gedoe....

Ik zou die kaart er maar uit halen veel mensen zullen denken dat dit de GT240 is. En dat is niet zo. Die is namelijk 50% trager dan de 9800 GT.
Vreemd, MW2 zou toch niet zon groot verschil moeten maken? Ik denk dat we moeten kijken wat de catalyst van deze maand qua performance zal brengen.

Jammer dat de 4770 niet meegenomen is in de benchmark.

[Reactie gewijzigd door Relief2009 op 21 januari 2010 09:16]

inderdaad, die presteert beter dan een hd4830 (praktisch gelijk aan een hd4850),heeft een lagere aanschafprijs dan de hier geteste modellen(vergelijkbaar met de goedkopere hd4670's) en doet het qua energieverbruik onder load ook niet slecht (idle is een ander verhaal omdat het geheugen niet terugklokt).

[Reactie gewijzigd door Bastard op 21 januari 2010 16:01]

Leuk kaartje voor weinig geld. Wat ik soms jammer vindt aan deze tests is dat wanneer er zulke videokaarten worden getest (voor de budgetgamer oid), er wel een overgeklokte i7 als CPU wordt gebruikt...

Denk dat mensen die zo'n kaartje kopen geen i7 kopen, maar eerder voor een AMD Phenom II 955 BE gaan (of lager).
Dit zou althans voor mij het geval zijn en ben denk ik zeker niet de enige :)
Wat SouLLeSSportal boven me zegt klopt, het is zelfs zo dat er benchmarks zijn van high-end kaarten met een i7 (zonder overclock) en dat je zelfs dan al ziet dat de CPU de bottleneck wordt. Gevolg: alle kaarten scoren precies even hoog, en je hele resultaten zijn dus eigenlijk verprutst. Daarom liever het zekere voor het onzekere met een opstelling met een i7@3,8GHz. Hoewel een i7 zonder OC met deze kaartjes geen bottleneck gaat geven maar T.net test met een standaardopstelling om de verschillende benchmarks vergelijkbaar te houden, vandaar ook nu de OC.
De cpu botrtlenech zit vooral bij lagere resoluties en mindere 3D settings. Schroef je die op naar 8xAA, 16 xAF en 1920x1280 of hoger + alle eyecandy op high/max; zit de bottleneck allang niet meer bij de CPU. Zeker niet met singlekaart setups.
Je hebt dan brute triple Quad CF opstellingen nodig of Tri-sli om nog een beetje de cpu botlleneck te kunnen opzoeken.

Vind zowiezo sommige benchmarks, zoals nij moederborden pure onzin. Wat boeit het hoeveel FPS de cpu's genereren met een videokaart op resoluties van 640x480/800x600 |:( Geen hond die ooit op zo'n resolutie draait 8)7

Wat men laat zien is een potentieele botteneck. Prachtig! Weet je wat? Begin de potentieele bottleneck eens bij wat normalere resoluties; minstens 1280x1024 zou ik zeggen.

Timmie heeft wel zeker een punt, vooralk met zulke videokaarten is de CPU echt van ondergeschikt belang. Ik zou zeggen: leg er eens scores naast van een AMD Ahtlon x4 620!
Anoniem: 196662
@Madrox22 januari 2010 08:23
"8xAA, 16 xAF en 1920x1280"
En dan hebben alle budgetkaarten een fps van 1-5. Daar schiet je zeker niets mee op en mensen die het niet volgen gaan plots denken dat het slechte kaarten zijn.

Om graka's te vergelijken bestaat er geen andere manier dan je andere hardware te overdrijven. Als je enkel één kaart wil testen, mag het echter wel gerust gebeuren om de rest van het systeem te laten varieren.
Het beste van al is de combo maar Tweakers is nu eenmaal niet gratis en iemand 2weken laten testen is ook niet prettig. 'T moet daar geen bandwerk worden voor die jongens.
Ben ik het niet mee eens, dit soort grafische kaarten koop je meestal nie tin combinatie met een i7 920 of hoger. Doe er dan ook een wat normalere cpu bij om te testen.
Wat ik zeg over de bottleneck, geldt trouwens ook op lagere resoluties. Op lagere resoluties telt de cpu botteneck minder zwaar, omdat de performance vooral van de GPU moet komen.

Waarom er overdreven moet worden is vind ik op zijn zachts gezegt dubieus, je koopt zo'n gpu niet voor de CPU van de volgende generatie; je koopt hem met wat er nu beschikbaar is of voor wat je al hebt.
Anoniem: 95522
@Madrox24 januari 2010 18:59
juist het tegenovergestelde is waar:

Op het moment dat je graka geen fuck hoeft te doen (oftewel alles low/uit, 640x480 etc) dan wordt je processor de bottleneck... want die berekend de AI en physics en het geluid/reverbs enzo, verzin het maar, daar heeft (tenzij CUDA/DCompute/HavocFX/OpenAL) de videokaart niets mee te maken, die zit uit zin neus te vreten want de processor is nog niet klaar, alles wat je videokaart dus hoeft te doen is het beeld zo snel als de berekeningen van de CPU klaar zijn het op het beeld te toveren...
Vind zowiezo sommige benchmarks, zoals nij moederborden pure onzin. Wat boeit het hoeveel FPS de cpu's genereren met een videokaart op resoluties van 640x480/800x600 Geen hond die ooit op zo'n resolutie draait
Tot je een paar jaar later een graka-upgrade deed en je CPU ineens de bottleneck werd, dan is de potentie van een CPU toch wel belangrijk.

Het is gewoon heel simpel: wil je videokaarten testen, zorg dan dat je de bottleneck bij de videokaarten legt, ook al betekent dat een i7@3,8GHz. Als je CPU's test, leg dan de bottleneck bij de CPU's, al betekent dat een resolutie van 800x600 en low settings. Anders ben je helemaal niet aan het testen wat je wilt testen! Dan krijg je zo'n waardeloze conclusie: alle CPU's scoorden even goed, want we hadden een GPU-bottleneck 8)7 doe dan geen review, je wilt juist zien hoe goed die dingen scoren.

En waarop jij hier doelt, een gebalanceerd systeem, maak je niet met benchmarks maar met bijvoorbeeld een BBG. Daar gaat deze hele HD5670-review echter niet over.

[Reactie gewijzigd door bwerg op 22 januari 2010 13:04]

Tot je een paar jaar later een graka-upgrade deed en je CPU ineens de bottleneck werd, dan is de potentie van een CPU toch wel belangrijk.
Dat is natuurlijk een drogreden; met zo'n redenatie moet je dus altijd voor de snelste/duurste gaan, want ow ow, stel je voor....over een paar jr 8)7

Ik doel niet perse om een gebalanceerd systeem, ik doel op een systeem met meer gevoel voor de werkelijkheid. We testen toch ook de topsnelheid van auto's niet door ze van een berg af te mieteren ? Natuurlijk niet, hoewel in potentie zo'n auto natuurlijk veel harder kan dan die in reallife doet :)
Anoniem: 95522
@Madrox24 januari 2010 19:02
nee... maar we testen ze wel op een racetrack waar ze hun totale potentie kunnen laten zien... en niet op de snelweg waar je maar 120 mag... want tjsah... dagelijks gebruik he....
Ze combineren het met een overgeklokte cpu zodat je kan zien dat de fps cap ligt aan de kaart en niet de cpu ;) Dat geeft een beter vergelijkbaar beeld dan dat je een minder goed presterende cpu koppeld aan een sterke videokaart. Daar bedoel ik dan niet een phII 955 mee.
De huidige meet-gegevens zijn zeker relevant, maar het is ook interessant om te zien wanneer de videokaart de bottleneck vormt van je systeem. Iemand met een CPU/mobo/RAM/videocard combo van 2 jaar terug (oid) kan zich afvragen wat de beste upgrade is. Nu test je de videokaart in een vacuum (door de CPU/RAM bottleneck zoveel mogelijk weg te halen), maar door de getest videokaart in verschillende systemen te hangen kun je erachter komen dat met een budget systeempje de videokaart juist niet de bottleneck is en zo je aankoop beslissingen kunt aanpassen.
Ik zou zelf een kaart als deze eerder met een Athlon II combineren. Een Phenom II is hier denk ik niet eens nodig, aangezien die tijdens games aardig mee kan komen met een i7. Als je een Phenom II koopt kan je die beter combineren met een HD5700 serie kaart, imo.

Toch zou ik graag een test zien met een videokaart en meerdere processoren om te kijken wanneer tijdens gamen de processor de bottleneck wordt. Want we weten dan bij een Crossfire-opstelling met meerder HD5870 kaarten de i7 de beperkende factor wordt, maar wat is nou de minimale processor voor een kaart als de HD5670?
Enkel de GT 240 van Nvidia, die marginaal sneller is dan de 9600GT, kan het ook af zonder pci-e-connector.
AMD geeft een verbruik op van maximaal 61W
Wat me vervolgens opvalt is dat het systeem met GT240 258 W nodig heeft onder load terwijl het verbruik met de HD 5670 512MB op 207 W bfijft steken. Zit de Radeon kaart dan zo ver onder het opgegeven verbruik of gaat de GeForce over het maximum voor een PCI-expres slot heen?
Je haalt nu twee dingen door elkaar. Tweakers heeft geen GT 240 getest alleen maar een GTS 240 (die overigens helemaal niet te koop is in de winkel aangezien het een OEM kaart is).
Dat doen ze om de processor zo min mogelijk de performance te laten beinvloeden.
Nee, dat doen zo om het maximale verschil te kunnen laten zien wat mogelijk is.
Het kan net zo makkelijk met een lichtere cpu getest worden, dat is net zo eerlijk.
De resultaten zullen dan waarschijnlijkk dichter bij elkaar liggen. Misschien is dat meteen de reden dat dat juist niet gedaan word; het is minder sexy en het verkoopt niet lekker ;)
Anoniem: 169504
@Madrox21 januari 2010 16:44
"Nee, dat doen zo om het maximale verschil te kunnen laten zien wat mogelijk is."

Dat is toch precies wat ik zeg, pannenkoek.
Nee, de performanceverschillen worden juist uitvergroot, terwijl dat bij zwakkere cpu's minder is. Da's toch echt ff anders ;)
Hij zegt, Dat doen ze om de processor zo min mogelijk de performance te laten beinvloeden
Oftewel, de grafische kaarten krijgen de kans om een zo groot mogelijk verschil te laten zien.

Lezen!
Juist. En precies daarom krijg je een vertekend beeld waardoor mensen kunnen gaan denken dat die verschillen er ook zijn met lichtere cpu's. Daarom zeg ik: gooi er ook eens resultaten bij met lichtere cpu's'zoals bijv. de bijna 2x goedkopere AMD Phenom II x4 955 bijv! Dat is ook geen kleintje ;)
Maar ze kunnen onmogelijk alle cpu`s gaan testen. Dit is de volle potentie van de kaart. Dat jou pc daar misschien niet goed genoeg voor is kunne zei niets aan doen. Als jij een onderdeel wil kopen zou je ook een cpu review van jou CPU moeten opzoeken met zijn maximale potentieel. Als je de CPU de bottleneck maakt zoals jou suggestie, dan word ik daar weinig wijzer uit. Dan had de 5670 net zo goed gepresteerd als de 9600gt en nu is het toch in het voordeel van de 9600gt (jammer genoeg, die kaart is al bejaard).
Dit valt me eigenlijk behoorlijk tegen. Nu zegt TNET:
Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert. Reden tot klagen hadden we alleen in Call of Duty: Modern Warfare 2, Crysis Warhead en Stalker: Clear Sky
Letterlijk: We hebben enkel reden tot klagen in 3 van de 7 (45%) van de benchmarks.
Ik vind dat jullie de conclusie veel te positief hebben getrokken. De benchmarks laten zien dat de kaart niet aan de verwachtingen voldoet. Zelfs de bijna antieke 9600GT haalt de 5670 regelmatig bij of zelfs in!
Ik vind dat juist een heel mooie conclusie. Ik verwacht niet dat af-en-toe spelers zomaar MW2, CW en Stalker in de kast hebben liggen. Dat zijn eerder mensen die spelletjes van >2 jaar oud doen, die voor € 15,- of minder in de bak liggen. Deze kaart zou daar perfect voor zijn, zeker omdat je ten opzichte van de 9600GT DX11 meekrijgt.

En nero355: de passieve versie komt er vast nog wel, anders een geschikte aftermarket koeler erop schroeven.
Dat zijn eerder mensen die spelletjes van >2 jaar oud doen, die voor € 15,- of minder in de bak liggen. Deze kaart zou daar perfect voor zijn, zeker omdat je ten opzichte van de 9600GT DX11 meekrijgt.
Ik vraag me hierbij alleen af wat een spel van >2 jaar oud aanmoet met DX11? Lijkt niet voor de hand liggen dat die toen al DX11 ondersteuning hadden.

Verder ben ik het zeker met je eens.
je moet ook niet vergeten dat het gros van deze kaarten verkocht gaat worden door OEM's.
er zijn misschien wel kaarten uit een vorige generatie die misschien net wat beter zijn voor het zelfde geld, maar daar kan een OEM niet meer op vertrouwen omdat die niet meer gemaakt worden.

en dx11 compute shaders zal je ook voor steeds meer dingen kunnen gebruiken in de toekomst. en oems kunnen weer een dx11 stikker op de doos plakken en krijgen een goedkope weinig verbruikende goed beschikbare kaart van ATI.

voor de retail markt is hij idd misschien wat minder interessant. (zolang je het hogere verbruik en geluidsproductie van oudere kaarten geen bezwaar vind)

[Reactie gewijzigd door Countess op 21 januari 2010 13:10]

Dus jij vind het raar dat een budget kaartje niet met elke game een acceptable performance geeft? Ik vind het terecht dat T.net de game benchmarks niet zo heel zwaar laat wegen. Het is immers niet de doelgroep hiervoor. Had MW2 nou dezelfde problemen op een 5870 dan lijkt mij dat T.net niet dezelfde conclusie had getrokken.

Je kan nou eenmaal niet voor een dubbeltje op de eerste rang zitten.
Deze kaart volgt de 4670 op die net zo snel was/is als de good old 1900XTX of 7900GT/GTX.
Toen onlangs mijn 1900XTX kapot ging had ik graag deze kaart gekocht !! Helaas was die er nog niet dus toen maar een 5770 gekocht :)

Zou wel graag een passieve willen zien. Kan me niet voorstellen dat er echt een Fan nodig is voor die kaart ?!
Anoniem: 272260
21 januari 2010 09:18
Ik zou toch niet graag een fps spelen tegen < 30 fps... tis speelbaar ma das dan ook alles. Passieve heatsink erop en de htpc in zou ik zeggen!
Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert.
Tevens moet niet vergeten worden dat dit zeker geen hoogste settings zijn geweest, geen aa of aaf aan, 1280x1024 zie je bijna niet meer geloof ik.

Ik zie hier een kaart 2 jaar nadat de 8800gt van mij uit kwam en hij presteerd niet eens beter maar zelfs onder het niveau van die kaart. Dat het bij een aantal games acceptabele fps kon laten zien op het minimale niveau vind ik nou niet echt een prestatie die als gamerskaart kan worden aangeduid. Het is natuurlijk ook niet een kaart die GEEN games kan draaien maar het is zeker een budget instapkaart.

Er is voor deze kaart eigenlijk een specifiek doel en dat is een htpc kaart als die silent versie komt. De combinatie van wat deze kaart biedt voor een dergelijke prijs maakt dat er zeker een low profile kaart van moet komen :)
Ik zie hier een kaart 2 jaar nadat de 8800gt van mij uit kwam en hij presteerd niet eens beter maar zelfs onder het niveau van die kaart.
Nou is een monsterkaart van enkele honderden euro's (destijds) vergelijken met een budgetkaart van ~70 euro ook niet helemaal eerlijk natuurlijk :P

Ik vind het wel een gamerskaart. Als je ziet dat er het meeste gegamed wordt op standaard Dell/HP-pc's met nog veel slechtere kaarten, dan is dit ding helemaal niet slecht te noemen. De omschrijving "wel degelijk een gamerskaart, zij het voor gamers met een erg beperkt budget" lijkt me dan ook terecht.

Overigens vindt ik de GT240 erg veel verbruiken, gezien zijn 40nm, zowel in idle als load... Hopelijk wordt dat met fermi beter uitgevoerd (zal ook wat meer noodzaak voor zijn :P)

[Reactie gewijzigd door bwerg op 21 januari 2010 11:02]

monsterkaart is zwaar overdreven, het was een uppermidrange kaart hoor, voor 200 e en dat meer dan twee jaar geleden. Maar wat hier gezegd wordt dat het een wel een gamerkaart is vind ik iets te ver gaan. de nuance zou iets duidelijker moeten zijn ipv te zeggen: het is wel een kaart waarmee je kan gamen alleen kost hij niks. Voor de prijs geeft hij op zich redelijke prestaties en mw2 zal waarschijnlijk met een driver update snel worden opgelost maar het is niet echt een gamerskaart voor een klein budget als bv de 4770 was of de 9600gt.(ook al was die iets duurder)
8800gt was dan ook een paniektaktiek van NVIDIA omdat ze niets anders vonden tegen AMD. Daardoor was ze zo goedkoop en zal die kaart een plaats in de blijvende geschiedenis krijgen.

En het is wel degelijk een gamerskaart alleen wil je dwangmatig te verwend denken omdat wij hogere eisen hebben. Miljoenen kinderen spelen games met kaarten die trager zijn dan deze.
uhm de 8800gt was heersend op moment van release, niet de top maar zo goede bang for buck was er sinds tijden niet te vinden, het was de 4850 of 5850 van toen.
Wat jij zegt nu zie ik ook terug in de conclusie alleen zeggen zei het anders. Vind dat je drukte maakt om niks. Het is weldegelijk een instap gamers kaart. Voor een HTPC is hij gewoon te duur en te krachtig, waar anders zou je hem willen indelen ?

Het is misschien niet de geweldige instap videokaart zoals de HD4770 of 9600GT, maarja, volgens mij waren die toch ook wat duurder bij hun "launch".
Overigens vindt ik de GT240 erg veel verbruiken
Tweakers heeft geen GT240 getest in deze review alleen een OEM GTS 240.
lol, jou 8800GT heet nu GTS250 (G92 -> G92b) en kost nog steeds 100 euro, terwijl de HD5670 75 is.

dan kun je gaan discuseeren of die 25% prijsverschil gerechvaardigt is gezien het prestatie verschil of de eigenschappen.
maar het lijkt mij aan alle kanten een krome vergelijking xD
dat is zoals al gezegd een verbeterde en sneller geclockte versie van de zelfde core een gts250 is sneller dan een 8800gt met 512mb. Dus ik vind het zeer zeker wel een goede vergelijking.
Het is maar wat iemand ervan vind, ik vind het gewoon een net niet kaart voor gamen maar een htpc vind ik het juist wel een goede kaart voor.
Bwa, de GTS250 is een relabelde GF9800GTX+, dus dat is al iets beter dan een GF8800GT. Alhoewel je voor de rest gelijk hebt.
En ze hebben deze GPU ook nog eens getest met een systeem van 1000EUR of meer..
Toen het nieuwsbericht van deze kaart op de FP verscheen dacht ik dat het een goede vooruitgang zou zijn ten opzichte van mijn huidige Nvidia 7950GT, maar als ik 't zo bekijk is het interessanter om er 30 euro meer tegenaan te gooien, en een 5770 te halen.

Toffe review though, laat de verschillen tussen de 5770, 5670 en de oudere 4000 serie goed zien :)
30 euro? Een 5670 kost krap 80 euro, een ongeveer 135. Dat is toch een verschil van 55 euro.
Adviesprijs van de 5670 is 99 dollar, mijn ervaring is dat het dollarteken vaak vervangen wordt door een euroteken. Dan is het verschil 30 euro.

Je hebt wellicht gelijk, als de 5670 ergens voor (99 dollar = 60-70 euro) te krijgen is, heb ik het nergens over en is het prijsverschil een stuk groter ineens.
Kiek 'ns oan, 75 euro. Hij staat al in de pricewatch, en zo te zien ook meteen goed leverbaar. :)

Als ik me niet vergis zijn NVidia-kaarten relatief duurder in Europa dan in Amerika, al weet ik niet waarom. Daarbij komt de euro=dollar-regel beter in de buurt.

[Reactie gewijzigd door bwerg op 21 januari 2010 11:22]

Anoniem: 196662
@Pixeltje22 januari 2010 08:29
Je ervaring mag dan eens geupdate worden want telt al 2jaar niet meer :)
Huidige regel is: x$ MSRP = € x*0.7 tot € x*1 winkelprijs bij ons

Bij producten waar vele webshops met elkaar concurreren (zoals een graka) zal je soms tot 70% geraken tov dollarprijs. Je hebt wel van die vreemde zaken welke maar in één of twee webshops te vinden is, daar durven ze dan groot geld scheppen.
Anoniem: 171689
@Pixeltje21 januari 2010 11:15
Dan is je ervaring aardig achterhaald inderdaad.
Zoals altijd zijn de resultaten hier weer compleet anders dan op guru3D. Om maar even wat te noemen: FPS op 1600x1200 met MW2=47. De resolutie wijkt dan wel wat af, maar niet zo heel veel dat de fps verdubbeld, verder is het testsysteem nagenoeg gelijk aan die van guru. De review van Guru kun je hier lezen en daar wordt deze kaart ook in crossfire getest.

Mooie review verder maar ik blijf het appart vinden dat de reviews hier altijd zo veel verschillen.

[Reactie gewijzigd door djfrankel op 21 januari 2010 11:03]

Persoonlijk heb ik de neiging om MW2 nog een keer te testen. Verder verschilt onze review, zoals alle reviews overal verschillen, omdat wij een ander level testen, en misschien ook met andere instellingen. Verder vermelden wij zowel minima als gemiddelden, waar Guru3D onterecht alleen gemiddelden meldt. Alleen gemiddelden kunnen een zeer slecht beeld geven, want de speelbaarheid van een spel wordt bepaald door de minima (als je elke 10 seconden 20fps haalt is dat niet fijn).
Aan de andere kant: Als je 1 seconde een drop hebt naar 15 FPS, komt dit duidelijk naar voren in een grafiek zoals deze. Ik vind dat persoonlijk niet zo erg. Als ik gemiddeld maar niet te vaak onder de 30 FPS kom.

Dit zal dan ook op een andere manier moeten worden weergegeven. Je zou dan met lijngrafieken moeten gaan werken.

Maar laat er geen onduidelijkheid over zijn: De manier zoals jullie de grafieken weergeven vind ik goed. Je kunt nooit iedereen tevreden houden.
Het gebeurt wel eens dat we een drop hebben, vanwege een hickup of iets dergelijks. Maar ik kijk ook naar de fraps-resultaten en dan kan ik vrij snel zien of er ergens een enkele drop is geweest, of dat de de minima gewoon regelmatig rond een bepaald getal liggen. Lijngrafieken zijn opzich wel mooi, zoals bij HardOCP, misschien iets voor de toekomst.
Dat is inderdaad een goede oplossing _/-\o_

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee