Door Marc Rademaker

Redacteur

HD 5670: budget-gamekaart of veredelde htpc-kaart?

Conclusie

De vraag was of de HD 5670, met 'slechts' 400 streamprocessors, niet eerder een veredelde htpc-kaart was dan een budget-gamekaart. Niets blijkt echter minder waar: de HD 5670 houdt zich prima staande, zelfs in de zwaardere spellen. Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert. Reden tot klagen hadden we alleen in Crysis Warhead en Stalker: Clear Sky. De HD 5670 is dus wel degelijk een gamerskaart, zij het voor gamers met een erg beperkt budget; voor wie wat meer te besteden heeft, ligt de HD 5770 meer voor de hand.

Vooral de prestaties per watt zijn uitstekend te noemen en ook de geluidsproductie is erg laag. De HD 5670 biedt verder de mogelijk om drie beeldschermen aan te sluiten door middel van ATI Eyefinity, maar let wel, niet alle HD 5670's zijn voorzien van een displayport, en die is noodzakelijk voor de aansturing van een derde beeldscherm.

Uit de benchmarks kwam verder nog naar voren dat de HD 5670 512MB nagenoeg hetzelfde presteert als de HD 5670 1GB. Aangezien de HD 5670 de rekenkracht ontbeert om op hogere resoluties genoeg frames te produceren, is het extra geheugen eigenlijk overbodig. Wij raden dan ook aan om de extra euro's in de beurs te houden en voor de 512MB-uitvoering te kiezen. En wie de HD 5670 512MB nog niet goedkoop genoeg vindt, moet maar even wachten tot februari: dan komt AMD met de HD 5500 en de HD 5450.

-Update:

Donderdag 21 januari, 14:50: De Call of Duty: Modern Warfare 2-benchmark is opnieuw gedraaid met de HD 5670 512MB en de HD 5670 1GB. De eerdere problemen deden zich niet meer voor: wat de oorzaak van de eerder gevonden slechte resultaten is, is nog niet duidelijk. De grafieken zijn aangepast met de nieuwe resultaten.

Asus HD 5670 Asus HD 5670 ATI HD 5670 ATI HD 5670 Nvidia GTS 240

Reacties (100)

100
96
75
5
0
11
Wijzig sortering
Call of Duty: Modern Warfare 2 is opnieuw getest en de HD 5670 presteert nu een stuk beter. Wat er is mis is gegaan tijdens de eerste benchmarks is nog niet duidelijk, maar de HD 5670 presteert nu nagenoeg gelijk aan de 9600GT.
"dat voor jou de resolutie niet hoger hoeft dan 1280x768 is absoluut geen argument daarin, wie koopt er uberhaubt een htpc zonder die in HD te willen gebruiken..."

Je slaat de plank aardig mis nu, wat heeft een htpc met HD te maken?
Juist, in principe niets.
Maar dat terzijde, welke resolutie denk je dan dat mensen draaien als ze de htpc op een HD-Ready toestel hebben aangesloten (zoals ik, en waarschijnlijk zat andere.....)
In mijn geval is dat dus 1280x768 (en niet 1366x768)

"liever een passief gekoelde kaart + grote stille case-fan dan een zo'n klein monstertje op de kaart zelf."

Over welke fabrikant heb je het dan, want er zijn ook zat fabrikanten die een fan plaatsen van rond de 80 mm namelijk.
En hij hoeft ook niet geheel geruisloos te zijn, want met het gemiddelde omgevingsgeluid hoor je dat toch niet.(even uitgaande van ca 40-45 db wat het fannetje produceert)

"dat jij deze voor je htpc hebt gekocht maakt het nog niet een geschikte kaart."

Waar zeg ik dat dan?
Ik heb nog helemaal geen kaart gekocht.

"Dat "er genoeg mensen zijn waarvoor deze kaart wel voldoende is" betwijfel ik. een gamer koopt beter, voor een htpc is hooguit de chip leuk maar de kaart as-is te duur en de rest van de standard dell-pc internetters kan prima met minder toe."

En verder bestaat er dus niks?
Er bestaan alleen gamers, mensen met een htpc die alleen (hd)films kijken en standaard dell-pc internetters?
Kom op, naast de (die-hard) gamers die (terecht) de betere kaarten nemen, zijn er genoeg mensen die ook wel eens een spelletje willen spelen, ook al doen ze dat dan op een htpc of hun dell-pc, en genoegen nemen met lagere instellingen dan 1920x1200 high/very high/ultra high.

"Deze kaart is qua framerate gewoon low-end wat mij betreft en dus te duur."

Ik ben van mening dat deze kaarten prima presteren op de wat lagere resoluties (zoals bv 1280x768 dus)
En waar haal je vandaan dat ie te duur is ten opzichte van de concurrentie?
Bij mijn weten was de GT240 de directe concurrent van de 5670
De goedkoopste GT240 in de pricewatch is 71 euro en de goedkoopste 5670 gaat voor ruim 74 euro, dus die vlieger gaat niet op

[Reactie gewijzigd door MieJuul op 24 januari 2010 14:23]

De 5670 komt dus op het niveau uit van de 9600GT. Stroomverbruik buiten beschouwing gelaten.

Ik vind dat eigenlijk wel pijnlijk te noemen. Een 9600GT is al op te scharrelen voor 60 euro, terwijl je voor een 5670 op dit moment nog 75 euro kwijt bent. Daar staan dan wel weer extra futures tegen over, en een lager stroomverbruik. Daarnaast zijn de drivers wellicht nog niet optimaal, dus er is nog hoop!

Maar ik kan niet volmondig zeggen dat de 5670 de vloer aanveegt met de 9600GT.
Er klopt helemaal niets van deze review. De 5670 is sneller dan de GT240:

http://www.anandtech.com/video/showdoc.aspx?i=3720&p=6

Edit.

Met mark gesproken. Het gaat om een GTS240 Dit is een 9800 GT rebrand. Alleen beschikbaar in de OEM wereld. Heel erg verwarrend als je het mij vraagt. Ik zou die kaart persoonlijk niet mee nemen in de review.

[Reactie gewijzigd door Astennu op 21 januari 2010 15:16]

Nee, maar daarentegen is de 5670 een budget kaart, en de 9600GT een omgedoopte 8000 serie-kaart, die als topmodel in de markt is gezet.
De 9600GT is nooit een topmodel geweest...
Wel was die in verhouding nogal snel voor wat meestal een x600 maar was (zie 8600GT).
ik denk dat je in de war bent met de 9600GSO, wat in feite gewoon een 8800GS is, wat op zijn beurt als ik me niet vergis weer een kreupele 8800GT is.
De 9600GT is wel degelijk bedoeld als een midrange kaart met een G94 core.
Ik sta versteld.

Hoe kunnen de resultaten nu zo erg verschillen met andere review sites ? Zie:

http://www.computerbase.d...rformancerating_qualitaet

en

http://www.anandtech.com/video/showdoc.aspx?i=3720&p=6

Het lijkt wel of er hier een 5450 getest is ipv een 5670. Hij verslaat de GT240 in andere reviews dik.

Tijd om alles opnieuw te testen ? Want er klopt helemaal niets van.

[Reactie gewijzigd door Astennu op 21 januari 2010 13:40]

The_Mask zegt hierboven ergens dat het niet om een GT240 gaat maar om de GTS 240, daar zit het verschil dus in... Goed opgemerkt van hem :P
Je haalt nu twee dingen door elkaar. Tweakers heeft geen GT 240 getest alleen maar een GTS 240 (die overigens helemaal niet te koop is in de winkel aangezien het een OEM kaart is).

[Reactie gewijzigd door Stefanovic45 op 21 januari 2010 13:45]

Heb met mark gesproken hij bevestigd dat het is min of meer ene 9800 GT.

nVidia en dat rebrand gedoe....

Ik zou die kaart er maar uit halen veel mensen zullen denken dat dit de GT240 is. En dat is niet zo. Die is namelijk 50% trager dan de 9800 GT.
Vreemd, MW2 zou toch niet zon groot verschil moeten maken? Ik denk dat we moeten kijken wat de catalyst van deze maand qua performance zal brengen.

Jammer dat de 4770 niet meegenomen is in de benchmark.

[Reactie gewijzigd door Relief2009 op 21 januari 2010 09:16]

inderdaad, die presteert beter dan een hd4830 (praktisch gelijk aan een hd4850),heeft een lagere aanschafprijs dan de hier geteste modellen(vergelijkbaar met de goedkopere hd4670's) en doet het qua energieverbruik onder load ook niet slecht (idle is een ander verhaal omdat het geheugen niet terugklokt).

[Reactie gewijzigd door Bastard op 21 januari 2010 16:01]

Leuk kaartje voor weinig geld. Wat ik soms jammer vindt aan deze tests is dat wanneer er zulke videokaarten worden getest (voor de budgetgamer oid), er wel een overgeklokte i7 als CPU wordt gebruikt...

Denk dat mensen die zo'n kaartje kopen geen i7 kopen, maar eerder voor een AMD Phenom II 955 BE gaan (of lager).
Dit zou althans voor mij het geval zijn en ben denk ik zeker niet de enige :)
Wat SouLLeSSportal boven me zegt klopt, het is zelfs zo dat er benchmarks zijn van high-end kaarten met een i7 (zonder overclock) en dat je zelfs dan al ziet dat de CPU de bottleneck wordt. Gevolg: alle kaarten scoren precies even hoog, en je hele resultaten zijn dus eigenlijk verprutst. Daarom liever het zekere voor het onzekere met een opstelling met een i7@3,8GHz. Hoewel een i7 zonder OC met deze kaartjes geen bottleneck gaat geven maar T.net test met een standaardopstelling om de verschillende benchmarks vergelijkbaar te houden, vandaar ook nu de OC.
De cpu botrtlenech zit vooral bij lagere resoluties en mindere 3D settings. Schroef je die op naar 8xAA, 16 xAF en 1920x1280 of hoger + alle eyecandy op high/max; zit de bottleneck allang niet meer bij de CPU. Zeker niet met singlekaart setups.
Je hebt dan brute triple Quad CF opstellingen nodig of Tri-sli om nog een beetje de cpu botlleneck te kunnen opzoeken.

Vind zowiezo sommige benchmarks, zoals nij moederborden pure onzin. Wat boeit het hoeveel FPS de cpu's genereren met een videokaart op resoluties van 640x480/800x600 |:( Geen hond die ooit op zo'n resolutie draait 8)7

Wat men laat zien is een potentieele botteneck. Prachtig! Weet je wat? Begin de potentieele bottleneck eens bij wat normalere resoluties; minstens 1280x1024 zou ik zeggen.

Timmie heeft wel zeker een punt, vooralk met zulke videokaarten is de CPU echt van ondergeschikt belang. Ik zou zeggen: leg er eens scores naast van een AMD Ahtlon x4 620!
Anoniem: 196662
@Madrox22 januari 2010 08:23
"8xAA, 16 xAF en 1920x1280"
En dan hebben alle budgetkaarten een fps van 1-5. Daar schiet je zeker niets mee op en mensen die het niet volgen gaan plots denken dat het slechte kaarten zijn.

Om graka's te vergelijken bestaat er geen andere manier dan je andere hardware te overdrijven. Als je enkel één kaart wil testen, mag het echter wel gerust gebeuren om de rest van het systeem te laten varieren.
Het beste van al is de combo maar Tweakers is nu eenmaal niet gratis en iemand 2weken laten testen is ook niet prettig. 'T moet daar geen bandwerk worden voor die jongens.
Ben ik het niet mee eens, dit soort grafische kaarten koop je meestal nie tin combinatie met een i7 920 of hoger. Doe er dan ook een wat normalere cpu bij om te testen.
Wat ik zeg over de bottleneck, geldt trouwens ook op lagere resoluties. Op lagere resoluties telt de cpu botteneck minder zwaar, omdat de performance vooral van de GPU moet komen.

Waarom er overdreven moet worden is vind ik op zijn zachts gezegt dubieus, je koopt zo'n gpu niet voor de CPU van de volgende generatie; je koopt hem met wat er nu beschikbaar is of voor wat je al hebt.
Anoniem: 95522
@Madrox24 januari 2010 18:59
juist het tegenovergestelde is waar:

Op het moment dat je graka geen fuck hoeft te doen (oftewel alles low/uit, 640x480 etc) dan wordt je processor de bottleneck... want die berekend de AI en physics en het geluid/reverbs enzo, verzin het maar, daar heeft (tenzij CUDA/DCompute/HavocFX/OpenAL) de videokaart niets mee te maken, die zit uit zin neus te vreten want de processor is nog niet klaar, alles wat je videokaart dus hoeft te doen is het beeld zo snel als de berekeningen van de CPU klaar zijn het op het beeld te toveren...
Vind zowiezo sommige benchmarks, zoals nij moederborden pure onzin. Wat boeit het hoeveel FPS de cpu's genereren met een videokaart op resoluties van 640x480/800x600 Geen hond die ooit op zo'n resolutie draait
Tot je een paar jaar later een graka-upgrade deed en je CPU ineens de bottleneck werd, dan is de potentie van een CPU toch wel belangrijk.

Het is gewoon heel simpel: wil je videokaarten testen, zorg dan dat je de bottleneck bij de videokaarten legt, ook al betekent dat een i7@3,8GHz. Als je CPU's test, leg dan de bottleneck bij de CPU's, al betekent dat een resolutie van 800x600 en low settings. Anders ben je helemaal niet aan het testen wat je wilt testen! Dan krijg je zo'n waardeloze conclusie: alle CPU's scoorden even goed, want we hadden een GPU-bottleneck 8)7 doe dan geen review, je wilt juist zien hoe goed die dingen scoren.

En waarop jij hier doelt, een gebalanceerd systeem, maak je niet met benchmarks maar met bijvoorbeeld een BBG. Daar gaat deze hele HD5670-review echter niet over.

[Reactie gewijzigd door bwerg op 22 januari 2010 13:04]

Tot je een paar jaar later een graka-upgrade deed en je CPU ineens de bottleneck werd, dan is de potentie van een CPU toch wel belangrijk.
Dat is natuurlijk een drogreden; met zo'n redenatie moet je dus altijd voor de snelste/duurste gaan, want ow ow, stel je voor....over een paar jr 8)7

Ik doel niet perse om een gebalanceerd systeem, ik doel op een systeem met meer gevoel voor de werkelijkheid. We testen toch ook de topsnelheid van auto's niet door ze van een berg af te mieteren ? Natuurlijk niet, hoewel in potentie zo'n auto natuurlijk veel harder kan dan die in reallife doet :)
Anoniem: 95522
@Madrox24 januari 2010 19:02
nee... maar we testen ze wel op een racetrack waar ze hun totale potentie kunnen laten zien... en niet op de snelweg waar je maar 120 mag... want tjsah... dagelijks gebruik he....
Ze combineren het met een overgeklokte cpu zodat je kan zien dat de fps cap ligt aan de kaart en niet de cpu ;) Dat geeft een beter vergelijkbaar beeld dan dat je een minder goed presterende cpu koppeld aan een sterke videokaart. Daar bedoel ik dan niet een phII 955 mee.
De huidige meet-gegevens zijn zeker relevant, maar het is ook interessant om te zien wanneer de videokaart de bottleneck vormt van je systeem. Iemand met een CPU/mobo/RAM/videocard combo van 2 jaar terug (oid) kan zich afvragen wat de beste upgrade is. Nu test je de videokaart in een vacuum (door de CPU/RAM bottleneck zoveel mogelijk weg te halen), maar door de getest videokaart in verschillende systemen te hangen kun je erachter komen dat met een budget systeempje de videokaart juist niet de bottleneck is en zo je aankoop beslissingen kunt aanpassen.
Ik zou zelf een kaart als deze eerder met een Athlon II combineren. Een Phenom II is hier denk ik niet eens nodig, aangezien die tijdens games aardig mee kan komen met een i7. Als je een Phenom II koopt kan je die beter combineren met een HD5700 serie kaart, imo.

Toch zou ik graag een test zien met een videokaart en meerdere processoren om te kijken wanneer tijdens gamen de processor de bottleneck wordt. Want we weten dan bij een Crossfire-opstelling met meerder HD5870 kaarten de i7 de beperkende factor wordt, maar wat is nou de minimale processor voor een kaart als de HD5670?
Enkel de GT 240 van Nvidia, die marginaal sneller is dan de 9600GT, kan het ook af zonder pci-e-connector.
AMD geeft een verbruik op van maximaal 61W
Wat me vervolgens opvalt is dat het systeem met GT240 258 W nodig heeft onder load terwijl het verbruik met de HD 5670 512MB op 207 W bfijft steken. Zit de Radeon kaart dan zo ver onder het opgegeven verbruik of gaat de GeForce over het maximum voor een PCI-expres slot heen?
Je haalt nu twee dingen door elkaar. Tweakers heeft geen GT 240 getest alleen maar een GTS 240 (die overigens helemaal niet te koop is in de winkel aangezien het een OEM kaart is).
Dat doen ze om de processor zo min mogelijk de performance te laten beinvloeden.
Nee, dat doen zo om het maximale verschil te kunnen laten zien wat mogelijk is.
Het kan net zo makkelijk met een lichtere cpu getest worden, dat is net zo eerlijk.
De resultaten zullen dan waarschijnlijkk dichter bij elkaar liggen. Misschien is dat meteen de reden dat dat juist niet gedaan word; het is minder sexy en het verkoopt niet lekker ;)
Anoniem: 169504
@Madrox21 januari 2010 16:44
"Nee, dat doen zo om het maximale verschil te kunnen laten zien wat mogelijk is."

Dat is toch precies wat ik zeg, pannenkoek.
Nee, de performanceverschillen worden juist uitvergroot, terwijl dat bij zwakkere cpu's minder is. Da's toch echt ff anders ;)
Hij zegt, Dat doen ze om de processor zo min mogelijk de performance te laten beinvloeden
Oftewel, de grafische kaarten krijgen de kans om een zo groot mogelijk verschil te laten zien.

Lezen!
Juist. En precies daarom krijg je een vertekend beeld waardoor mensen kunnen gaan denken dat die verschillen er ook zijn met lichtere cpu's. Daarom zeg ik: gooi er ook eens resultaten bij met lichtere cpu's'zoals bijv. de bijna 2x goedkopere AMD Phenom II x4 955 bijv! Dat is ook geen kleintje ;)
Maar ze kunnen onmogelijk alle cpu`s gaan testen. Dit is de volle potentie van de kaart. Dat jou pc daar misschien niet goed genoeg voor is kunne zei niets aan doen. Als jij een onderdeel wil kopen zou je ook een cpu review van jou CPU moeten opzoeken met zijn maximale potentieel. Als je de CPU de bottleneck maakt zoals jou suggestie, dan word ik daar weinig wijzer uit. Dan had de 5670 net zo goed gepresteerd als de 9600gt en nu is het toch in het voordeel van de 9600gt (jammer genoeg, die kaart is al bejaard).
Dit valt me eigenlijk behoorlijk tegen. Nu zegt TNET:
Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert. Reden tot klagen hadden we alleen in Call of Duty: Modern Warfare 2, Crysis Warhead en Stalker: Clear Sky
Letterlijk: We hebben enkel reden tot klagen in 3 van de 7 (45%) van de benchmarks.
Ik vind dat jullie de conclusie veel te positief hebben getrokken. De benchmarks laten zien dat de kaart niet aan de verwachtingen voldoet. Zelfs de bijna antieke 9600GT haalt de 5670 regelmatig bij of zelfs in!
Ik vind dat juist een heel mooie conclusie. Ik verwacht niet dat af-en-toe spelers zomaar MW2, CW en Stalker in de kast hebben liggen. Dat zijn eerder mensen die spelletjes van >2 jaar oud doen, die voor € 15,- of minder in de bak liggen. Deze kaart zou daar perfect voor zijn, zeker omdat je ten opzichte van de 9600GT DX11 meekrijgt.

En nero355: de passieve versie komt er vast nog wel, anders een geschikte aftermarket koeler erop schroeven.
Dat zijn eerder mensen die spelletjes van >2 jaar oud doen, die voor € 15,- of minder in de bak liggen. Deze kaart zou daar perfect voor zijn, zeker omdat je ten opzichte van de 9600GT DX11 meekrijgt.
Ik vraag me hierbij alleen af wat een spel van >2 jaar oud aanmoet met DX11? Lijkt niet voor de hand liggen dat die toen al DX11 ondersteuning hadden.

Verder ben ik het zeker met je eens.
je moet ook niet vergeten dat het gros van deze kaarten verkocht gaat worden door OEM's.
er zijn misschien wel kaarten uit een vorige generatie die misschien net wat beter zijn voor het zelfde geld, maar daar kan een OEM niet meer op vertrouwen omdat die niet meer gemaakt worden.

en dx11 compute shaders zal je ook voor steeds meer dingen kunnen gebruiken in de toekomst. en oems kunnen weer een dx11 stikker op de doos plakken en krijgen een goedkope weinig verbruikende goed beschikbare kaart van ATI.

voor de retail markt is hij idd misschien wat minder interessant. (zolang je het hogere verbruik en geluidsproductie van oudere kaarten geen bezwaar vind)

[Reactie gewijzigd door Countess op 21 januari 2010 13:10]

Dus jij vind het raar dat een budget kaartje niet met elke game een acceptable performance geeft? Ik vind het terecht dat T.net de game benchmarks niet zo heel zwaar laat wegen. Het is immers niet de doelgroep hiervoor. Had MW2 nou dezelfde problemen op een 5870 dan lijkt mij dat T.net niet dezelfde conclusie had getrokken.

Je kan nou eenmaal niet voor een dubbeltje op de eerste rang zitten.
Deze kaart volgt de 4670 op die net zo snel was/is als de good old 1900XTX of 7900GT/GTX.
Toen onlangs mijn 1900XTX kapot ging had ik graag deze kaart gekocht !! Helaas was die er nog niet dus toen maar een 5770 gekocht :)

Zou wel graag een passieve willen zien. Kan me niet voorstellen dat er echt een Fan nodig is voor die kaart ?!
Anoniem: 272260
21 januari 2010 09:18
Ik zou toch niet graag een fps spelen tegen < 30 fps... tis speelbaar ma das dan ook alles. Passieve heatsink erop en de htpc in zou ik zeggen!
Als we een paar grafisch minder veeleisende games hadden gebenchmarkt, bijvoorbeeld Left 4 Dead 2 of Dragon Age: Origins, dan zou blijken dat de HD 5670 ook in die games zonder meer speelbare framerates oplevert.
Tevens moet niet vergeten worden dat dit zeker geen hoogste settings zijn geweest, geen aa of aaf aan, 1280x1024 zie je bijna niet meer geloof ik.

Ik zie hier een kaart 2 jaar nadat de 8800gt van mij uit kwam en hij presteerd niet eens beter maar zelfs onder het niveau van die kaart. Dat het bij een aantal games acceptabele fps kon laten zien op het minimale niveau vind ik nou niet echt een prestatie die als gamerskaart kan worden aangeduid. Het is natuurlijk ook niet een kaart die GEEN games kan draaien maar het is zeker een budget instapkaart.

Er is voor deze kaart eigenlijk een specifiek doel en dat is een htpc kaart als die silent versie komt. De combinatie van wat deze kaart biedt voor een dergelijke prijs maakt dat er zeker een low profile kaart van moet komen :)
Ik zie hier een kaart 2 jaar nadat de 8800gt van mij uit kwam en hij presteerd niet eens beter maar zelfs onder het niveau van die kaart.
Nou is een monsterkaart van enkele honderden euro's (destijds) vergelijken met een budgetkaart van ~70 euro ook niet helemaal eerlijk natuurlijk :P

Ik vind het wel een gamerskaart. Als je ziet dat er het meeste gegamed wordt op standaard Dell/HP-pc's met nog veel slechtere kaarten, dan is dit ding helemaal niet slecht te noemen. De omschrijving "wel degelijk een gamerskaart, zij het voor gamers met een erg beperkt budget" lijkt me dan ook terecht.

Overigens vindt ik de GT240 erg veel verbruiken, gezien zijn 40nm, zowel in idle als load... Hopelijk wordt dat met fermi beter uitgevoerd (zal ook wat meer noodzaak voor zijn :P)

[Reactie gewijzigd door bwerg op 21 januari 2010 11:02]

monsterkaart is zwaar overdreven, het was een uppermidrange kaart hoor, voor 200 e en dat meer dan twee jaar geleden. Maar wat hier gezegd wordt dat het een wel een gamerkaart is vind ik iets te ver gaan. de nuance zou iets duidelijker moeten zijn ipv te zeggen: het is wel een kaart waarmee je kan gamen alleen kost hij niks. Voor de prijs geeft hij op zich redelijke prestaties en mw2 zal waarschijnlijk met een driver update snel worden opgelost maar het is niet echt een gamerskaart voor een klein budget als bv de 4770 was of de 9600gt.(ook al was die iets duurder)
8800gt was dan ook een paniektaktiek van NVIDIA omdat ze niets anders vonden tegen AMD. Daardoor was ze zo goedkoop en zal die kaart een plaats in de blijvende geschiedenis krijgen.

En het is wel degelijk een gamerskaart alleen wil je dwangmatig te verwend denken omdat wij hogere eisen hebben. Miljoenen kinderen spelen games met kaarten die trager zijn dan deze.
uhm de 8800gt was heersend op moment van release, niet de top maar zo goede bang for buck was er sinds tijden niet te vinden, het was de 4850 of 5850 van toen.
Wat jij zegt nu zie ik ook terug in de conclusie alleen zeggen zei het anders. Vind dat je drukte maakt om niks. Het is weldegelijk een instap gamers kaart. Voor een HTPC is hij gewoon te duur en te krachtig, waar anders zou je hem willen indelen ?

Het is misschien niet de geweldige instap videokaart zoals de HD4770 of 9600GT, maarja, volgens mij waren die toch ook wat duurder bij hun "launch".
Overigens vindt ik de GT240 erg veel verbruiken
Tweakers heeft geen GT240 getest in deze review alleen een OEM GTS 240.
lol, jou 8800GT heet nu GTS250 (G92 -> G92b) en kost nog steeds 100 euro, terwijl de HD5670 75 is.

dan kun je gaan discuseeren of die 25% prijsverschil gerechvaardigt is gezien het prestatie verschil of de eigenschappen.
maar het lijkt mij aan alle kanten een krome vergelijking xD
dat is zoals al gezegd een verbeterde en sneller geclockte versie van de zelfde core een gts250 is sneller dan een 8800gt met 512mb. Dus ik vind het zeer zeker wel een goede vergelijking.
Het is maar wat iemand ervan vind, ik vind het gewoon een net niet kaart voor gamen maar een htpc vind ik het juist wel een goede kaart voor.
Bwa, de GTS250 is een relabelde GF9800GTX+, dus dat is al iets beter dan een GF8800GT. Alhoewel je voor de rest gelijk hebt.
En ze hebben deze GPU ook nog eens getest met een systeem van 1000EUR of meer..
Toen het nieuwsbericht van deze kaart op de FP verscheen dacht ik dat het een goede vooruitgang zou zijn ten opzichte van mijn huidige Nvidia 7950GT, maar als ik 't zo bekijk is het interessanter om er 30 euro meer tegenaan te gooien, en een 5770 te halen.

Toffe review though, laat de verschillen tussen de 5770, 5670 en de oudere 4000 serie goed zien :)
30 euro? Een 5670 kost krap 80 euro, een ongeveer 135. Dat is toch een verschil van 55 euro.
Adviesprijs van de 5670 is 99 dollar, mijn ervaring is dat het dollarteken vaak vervangen wordt door een euroteken. Dan is het verschil 30 euro.

Je hebt wellicht gelijk, als de 5670 ergens voor (99 dollar = 60-70 euro) te krijgen is, heb ik het nergens over en is het prijsverschil een stuk groter ineens.
Kiek 'ns oan, 75 euro. Hij staat al in de pricewatch, en zo te zien ook meteen goed leverbaar. :)

Als ik me niet vergis zijn NVidia-kaarten relatief duurder in Europa dan in Amerika, al weet ik niet waarom. Daarbij komt de euro=dollar-regel beter in de buurt.

[Reactie gewijzigd door bwerg op 21 januari 2010 11:22]

Anoniem: 196662
@Pixeltje22 januari 2010 08:29
Je ervaring mag dan eens geupdate worden want telt al 2jaar niet meer :)
Huidige regel is: x$ MSRP = € x*0.7 tot € x*1 winkelprijs bij ons

Bij producten waar vele webshops met elkaar concurreren (zoals een graka) zal je soms tot 70% geraken tov dollarprijs. Je hebt wel van die vreemde zaken welke maar in één of twee webshops te vinden is, daar durven ze dan groot geld scheppen.
Anoniem: 171689
@Pixeltje21 januari 2010 11:15
Dan is je ervaring aardig achterhaald inderdaad.
Zoals altijd zijn de resultaten hier weer compleet anders dan op guru3D. Om maar even wat te noemen: FPS op 1600x1200 met MW2=47. De resolutie wijkt dan wel wat af, maar niet zo heel veel dat de fps verdubbeld, verder is het testsysteem nagenoeg gelijk aan die van guru. De review van Guru kun je hier lezen en daar wordt deze kaart ook in crossfire getest.

Mooie review verder maar ik blijf het appart vinden dat de reviews hier altijd zo veel verschillen.

[Reactie gewijzigd door djfrankel op 21 januari 2010 11:03]

Persoonlijk heb ik de neiging om MW2 nog een keer te testen. Verder verschilt onze review, zoals alle reviews overal verschillen, omdat wij een ander level testen, en misschien ook met andere instellingen. Verder vermelden wij zowel minima als gemiddelden, waar Guru3D onterecht alleen gemiddelden meldt. Alleen gemiddelden kunnen een zeer slecht beeld geven, want de speelbaarheid van een spel wordt bepaald door de minima (als je elke 10 seconden 20fps haalt is dat niet fijn).
Aan de andere kant: Als je 1 seconde een drop hebt naar 15 FPS, komt dit duidelijk naar voren in een grafiek zoals deze. Ik vind dat persoonlijk niet zo erg. Als ik gemiddeld maar niet te vaak onder de 30 FPS kom.

Dit zal dan ook op een andere manier moeten worden weergegeven. Je zou dan met lijngrafieken moeten gaan werken.

Maar laat er geen onduidelijkheid over zijn: De manier zoals jullie de grafieken weergeven vind ik goed. Je kunt nooit iedereen tevreden houden.
Het gebeurt wel eens dat we een drop hebben, vanwege een hickup of iets dergelijks. Maar ik kijk ook naar de fraps-resultaten en dan kan ik vrij snel zien of er ergens een enkele drop is geweest, of dat de de minima gewoon regelmatig rond een bepaald getal liggen. Lijngrafieken zijn opzich wel mooi, zoals bij HardOCP, misschien iets voor de toekomst.
Dat is inderdaad een goede oplossing _/-\o_

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee