'Alleen high-end videokaarten bruikbaar voor DirectX 10-spellen'

Ondanks de komst van high-end videokaarten als de GeForce 8800GTX en de Radeon HD 2900XT, kiezen veel gebruikers toch voor budget- en midrange-oplossingen. ExtremeTech bekeek of deze kaarten hun geld waard zijn.

In totaal nam ExtremeTech drie ATi- en drie nVidia-kaarten onder de loep, met een prijsniveau van 70 dollar voor een Radeon HD 2400Pro tot 200 dollar voor een GeForce 8600GTS. Duidelijk is dat Windows Vista met zijn Aero-interface en DirectX 10 hogere eisen stelt aan gpu's.

De benchmarks laten een duidelijk beeld zien: spellen die ook in DirectX 9 kunnen draaien, zijn structureel sneller dan de DirectX 10-versies en doen er grafisch nog weinig voor onder. In het spel Company of Heroes loopt het verschil zelfs op tot 30 procent, terwijl Microsoft beloofde dat Vista's DirectX 10 juist structureel sneller toegang zou geven tot de grafische api. Daarnaast constateerden de reviewers dat veeleisende spellen als Supreme Commander en Prey nauwelijks speelbaar zijn op de midrange-kaarten, terwijl de budgetmodellen amper vooruit te branden waren.

De eindconclusies van ExtremeTech zijn weinig verrassend te noemen. Wie de games van vandaag de dag en de nabije toekomst zonder haperingen en in volle glorie wil spelen, is aangewezen op de duurdere ATi Radeon HD 2900XT- of nVidia GeForce 8800GTX-videokaarten. Alle geteste midrange- en budgetkaarten zijn in de ogen van de reviewers hooguit nuttig voor het versnellen van Vista's Aero-interface en een enkel verouderd spelletje, terwijl de Radeon 2400Pro en de GeForce 8500GT geschikt zijn voor 'Oma's e-mail-pc'.

Passief gekoelde ATi Radeon HD 2400Pro

Door Dimitri Reijerman

Redacteur

17-08-2007 • 14:26

151

Bron: ExtremeTech

Lees meer

ATi ververst FireGL-aanbod
ATi ververst FireGL-aanbod Nieuws van 18 september 2007

Reacties (151)

151
144
34
13
0
1
Wijzig sortering
Anoniem: 114477 17 augustus 2007 16:14
Het is niet slim van spellenuitgevers om niet de mid-range als doelgroep te nemen. Gewoon al uit de gaus-kromme van potentieele klanten.

De belachelijkst successvolle games zijn altijd voor redelijk bescheiden systemen geweest.

Denk aan Half-Life of The Sims.

[Reactie gewijzigd door Anoniem: 114477 op 26 juli 2024 21:23]

Euh, met al die grafische settings is het perfect mogelijk om de "nieuwste en zware games" met een mid-end kaartje te spelen. Of vind je maar dat de maximale pracht al moet bereikt worden op zulke kaartjes? Dat zou dus willen zeggen dat het spel al verouderd is als het uit is, omdat er kaarten zijn die meer kunnen dan nodig om het spel te spelen op maximum settings.

Ik denk net dat het leuker is dat ze er genoeg grafische pracht in steken zodat ik dezelfde game een aantal jaar verder met een mid-end kaartje in al zijn glorie kan spelen. Dàt is pas fijntjes.
dion_b Moderator Harde Waren 17 augustus 2007 14:42
Tja, deze resultaten zijn niet verbazingwekkend, behalve dan mbt grote verschil DX9 en DX10 ten nadele van DX10 bij games met engine die beide ondersteunen.

Wat me wel verbaast is de conclusie dat je wegens gebreken in de DX10 engines en/of concept nu een high-end kaart moet kopen als je wilt gamen.

Juist *NU* is dat erg sterk af te raden:
- DX10.1 zit eraan te komen. Als blijkt dat daar de performanceissues opgelost worden zit je dan met je peperdure DX10.0-only kaart die je *nu* gekocht hebt.
- nagenoeg alles is even speelbaar en bijna even mooi onder DX9. *Nu* kun je dus DX10 performance beter negeren, zeker als je fatsoenlijk wilt gamen maar geen EUR 250+ overhebt voor een videokaart.

Op basis van exact dezelfde resultaten zou mijn conclusie dus zijn dat tenzij je genoeg geld overhebt om elk jaar EUR 500 aan videokaart uit te geven, je het beste voorlopig DX10 volledig negeert totdat performance issues opgelost zijn en sowieso kaarten die DX10 fatsoenlijk aankunnen in de mid-range segment aangekomen zijn :o
Het probleem vind ik persoonlijk de kleine stapjes die iedere keer gezet zijn de afgelopen 10 jaar en als je het mij vraagt is dat alleen maar een uitmelk weg geweest om de GPU kaart developers een zichzelf van continuiteit te waarborgen in omzet.

Als we terug kijken dan was de VooDoo Banshee de eerste echte kaart, na de VooDoo add-on kaarten, een ware revolutie. Ik herinner me nog goed dat ik voor het eerst HL speelde en al vrij snel de eerste beta's van CS : Online gaming was geboren en was de eerste stap richting grafische mogelijkheden voor gaming in zijn algemeen.

Als ik de weg tussen de Banshee, destijds op een P2 en de hedendaagse kaarten met alles wat er tussen ligt dan verzieken de hardware GPU bakkers feitelijk zelf de hele markt. Als ik gemiddeld om de 3 maanden een ander kaartje op de markt zie verschijnen die weer meer kan dan het huidige model en dan zie dat er vrijwel veel problemen zijn op het moment van uitkomen aangaande drivers, games die niet goed presteren en veelal veel beloven maar er maar weinig van waar maken dan gaan mijn haren rijzen gezien de prijzen die we moeten neertellen voor die kaarten.

Bekijk de prijzen van vandaag en je maag draait al vele rondjes. Wel kopen, niet kopen, te duur, welk model etc etc. Ik begrijp dan ook niet waarom de roadmap voor nieuwe kaarten worden opgerekt waardoor gamers langer voort kunnen met een dure investering, gamedevelopers meer tijd hebben om de grafische kracht toe te passen in hun games, inplaats van steeds maar weer hun engine moeten aanpassen omdat er al weer een nieuwere kaart/OS is verschenen en zichzelf eens op de markt zetten door inplaats van steeds van die kleine stapjes toe te voegen gewoon bij een volgend model een grote stap vooruit maken.

Nu is dat ook weer zo duidelijk te zien met Nvidia, nog steeds geen goeie drivers, SLi is nog steeds een probleem maar ondertussen laat je klanten bengelen die wel voor 650euro een dure kaart hebben gekocht. Hoe lang denken ze dat vol te kunnen houden, zowel de chip bakkers alswel voor gamers ?

Maak ongeveer eens in de 4 jaar een nieuwe kaart, breng dan voor je eigen markt een mid-high end kaart en fabriceer voor office gebruik dan alleen nog maar een goeie onboard chip in 2 modellen, alleen onboard graphics en eventueel met een PCi slot erin mocht men het toch nodig achte om te kunnen uitbreiden. Zo houd je de kosten laag heb je een langere ontwikkeltijd zodat je slagingskans van een goed produkt weg te zetten hoger komt te liggen en krijgen de mensen hierdoor meer waar voor hun geld. Hierdoor kunnen ook de verkoopprijzen omlaag voor high end kaarten aangezien meer kaarten van 1 type worden verkocht. Gaan de GPU bakkers dit niet inzien dan zullen ze steeds meer terrein verliezen denk ik aan de console's maar is in feit niet wat de gemiddeld gamer wil.

Tijd zal het leren, ik ben gestopt met die ongein omdat het een dure aangelegeheid is om steeds maar weer te upgraden om een nieuw spel in high settings te kunnen spelen. Met een console heb je daar nauwelijks last van aangezien ze maar met 1 SDK rekening te hebben houden en een console presteert nagenoeg altijd hetzelfde, afhankelijk hoe goed een game ontwikkelaar code. Als ik nu some lees hoeveel problemen de eerste kopers van een DX10 kaart hebben in het high end segment, zonder ook maar 1 DX10 spel tot nu toe gespeeld te kunnen hebben dan vind ik dat een trieste zaak vanwege de verwachtingen en de dure investering. Ik hoop dat ATi en Nvidia inzien dat ze verkeerd bezig zijn en dat gamen op de PC steeds minder aantrekkelijk word, daar waar een pak kaarten juist steeds meer gebruikt word, Texas poker anyone ? :)
Texas poker anyone ?
Nee QuakeZero plz (Quake 3 "remake" met nieuwe graphics, netwerkbrowser en ik neem aan architectuur) id heeft beloofd dat ie 60fps gaat halen, ook met oudere kaarten. En de game wordt nog gratis ook!

EDIT: Ja, ik zet dit echt overal neer, want ik ben razend enthousiast. Ik kan niet wachten totdat iedereen weer eens een deathmatch game gaat spelen. Painkiller was een absolute topper maar online was er niemand te vinden. En UT3? Die zal wel niet draaien op een x800?

[Reactie gewijzigd door hattorihanzo op 26 juli 2024 21:23]

Ik snap het hele probleem niet van de mensen die zeuren dat pc gaming zo duur is. Het is vrij simpel: als je de beste grafische prestaties wilt, dan moet je betalen. Punt.
Ik zie niet in hoe dit anders is dan bij bijvoorbeeld processoren (hoewel het proces daar wat langzamer gaat), waar je ook ontzettend veel geld op tafel moet leggen om de topmodellen te kopen. Maar als je een paar jaar lang niet upgradet krijg je ook problemen met de nieuwste games en programma's (ga maar eens HD video bewerken op een oude pc).

Gelukkig voor ons pc gamers hebben de ontwikkelaar van al die nieuwe coole games die uitkomen daar rekening mee gehouden, en daarom zit er bij vrijwel elk spel een hele serie sliders en knoppen om de grafische pracht omlaag te schroeven. En laten we eerlijk zijn, een spel van een paar jaar geleden op full detail ziet er ongeveer hetzelfde (of zelfs minder) uit als een spel van nu op medium of low detail. Dus wat is het hele probleem? Als je niet wilt upgraden omdat het je te duur wordt, dan moet je het gewoon niet doen.

En alle mensen die roepen dat een console zoveel geweldiger is: ga eens wat spelen vergelijken op de 360 en een 8800GTX, en je zult zien dat de 360 al negen maand lang verouderd is. En als de nieuwe generatie high-end kaarten uitkomt bijt de xbox helemaal het stof. (En hetzelfde geld uiteraard voor de PS3) Van mij mag iedereen die dat wil een 360 kopen, maar dat ding veroudert bijna net zo hard als mijn 8800GTX, dus tja...
Uit het orgineel artiekel:
Current DX10 games were actually built for DX9, and have DX10 portions more or less stapled on after the fact: One game that boasts DX10 support, Call of Juarez, has been available in Europe as a DX9 game for months. Company of Heroes has been around for almost as long in the States; the DX10 support comes through a patch.

It's possible that DirectX 10 will knock our proverbial socks off when games designed for it from the ground up become available. It's too early for an honest lab assessment of DirectX 10 just yet; we'll have to wait and see if it's worth that big grain of salt we just loaded onto your shoulders. Continued...

Vervolgens staat er ook nog in dit artiekel dat de 2900xt op 65nm gemaakt is( dit meot 80 zijn ). persoonlijk vindt ik dit artiekel een beetje rammelen. ( Eerst zeggen dat de goed koope dx10 kaartjes niet goed zijn en dan zeggen dat wat je gezegt hebt niet waar kan zijn?)

Het wel zo belangrijke stuk uit dit artiekel.

The number of stream processing units indicates how many of these special, multipurpose processing units are available on the card. Stream processing units aren't tied to processing graphical data, but to anything the graphics card's software interface wants to throw at it. ( De verrandering van DX9 naar DX10 zit hem hier in, deze kunnen dus beter benut worden in dx10 waardoor betere grafics. Een voor beeld: http://video.google.nl/videoplay?docid=-3410398896793444904 ) For example, AMD is involved in a program called Folding @ Home, a distributed computing initiative in which participating computers use their stream processing units to work on crunching data to fight cancer. It's similar to the popular SETI @HOME project, which crunches data from radio telescopes to look for patterns that could indicate intelligent life elsewhere in the universe.

Waar het dus op neer komt in dx10 is dat de stream processors beter bestuurd kunnen worden. Voor de wolken een het water een enz. Je bent dus bezig met het vergelijken van appels en peren. Tenzij je het zelfde probeert te maken( landschap ) in zowel dx9 als 10. Al hoe wel ik dit aan het filmpje dat hier boven staat betwijfel.

[Reactie gewijzigd door wiskid op 26 juli 2024 21:23]

Ondanks alle negatieve publiciteit over consoles, ik denk dat deze steeds intressanter beginnen te worden itt de PC.

De kosten voor de GPU's reizen de pan uit, en maken lang niet hun verwachtingen/voorspellingen waar!

[Reactie gewijzigd door Anoniem: 30986 op 26 juli 2024 21:23]

het zat er al aan te komen, het zit er al aan te komen en het was eigenlijk al duidelijk, dat je simpel weg met een budget DX10 kaart niet aan de bak kunt komen met highend DX10 games. Behoorlijk logisch, die dingen hebben gewoon te weinig rekenkracht voor games in de toekomst.
en dat van de consoles... tja, consoles zijn gemaakt voor games, pc's zijn niet alleen voor games gemaakt, maar ook voor andere taken. Daarnaast heb je met een console niet de mogelijkheid om up te graden, of minder legale content af te spelen. cd'tje rippen en winamp luisteren zit er ook niet bij.
[..]dat je simpel weg met een budget DX10 kaart niet aan de bak kunt komen met highend DX10 games. Behoorlijk logisch, die dingen hebben gewoon te weinig rekenkracht voor games in de toekomst.

Naar nu blijkt dus ook al niet genoeg rekenkracht om DX10 spellen te draaien die een ook DX9 modus hebben, die grafisch vergelijkbaar is. Terwijl die kaarten wel bloedsnel zijn in DX9.

Had MS niet heel het driver model omgegooid omdat het DX9 driver model zo inefficient was? Vista en DX10 waren toch het ultieme games-platform? Nog weinig van te merken tot op heden. Volgens mij is DX10 een grote hype geweest, allemaal marketing geneuzel om Vista te pushen. Het hele 'driver model kan niet op Windows XP argument' is wat mij betreft geen argument. Had DX10 lekker op het oude driver model gemaakt, dat blijkt kwa snelheid dus schijnbaar niet erg beperkend te zijn...

Anyway, het zal nog wel tot DX11 duren voordat de echt nieuwe features (eigenlijk alleen geometry shaders volgens mij, de rest is goed met DX9 te emuleren) ook echt zinvol gebruikt zullen gaan worden.
Dat zie je toch even verkeerd deze kaarten zijn in DX9 modus niet bloedsnel, het verschil tussen deze en de vorigge generatie is marginaal in de lagere klassen x5xx/x6xx. Verder zijn deze kaarten NIET gericht op gamers maar op mensen die een home theater systeem willen bouwen of gewoon geen gebruik maken van de brute kracht die een 8800 bevat.

Nvidia heeft alteid de x8xx (met ruimte voor een kleine verbetering in de x9xx) als gaming kaart uit gebracht, deze hebben de kracht om als beste koop te gelden voor een gamer.
Dat zie je toch even verkeerd deze kaarten zijn in DX9 modus niet bloedsnel, het verschil tussen deze en de vorigge generatie is marginaal in de lagere klassen x5xx/x6xx.

Hmm ik ben niet zoveel gewend op GPU gebied dus ik vind die dingen al gauw bloedsnel. Maargoed wat ik wilde zeggen, deze kaarten kunnen de DX9 mode van nieuwe games dus schijnbaar prima aan, terwijl er grafisch weinig verschil is met de DX10 versies (tenminste, dat maak ik uit het artikel aan). Met andere woorden: DX10 brengt blijkbaar toch wel een behoorlijke overhead met zeg mee, ook zonder gebruik te maken van echte DX10-only features.
Daarnaast heb je met een console niet de mogelijkheid om up te graden
Maar met mijn huidige grafische kaart van een paar tientjes houd ik geld over om een Gameconsole te kopen. Die hoef ik bovendien minder vaak te vervangen dan een high-end videokaart, dus tel uit je winst.
(Bovenstaande is pure theorie, ik speel geen zware grafische spelletjes en heb geen console anders dan Bash. Wel een videokaart van een paar tientjes).

[Reactie gewijzigd door 84hannes op 26 juli 2024 21:23]

Ik vraag me of of het gros hier weet welk spelconsole 'bash' is ;)
de gemiddelde tweaker hoort de woordspeling te begrijpen :P
console? /bin/bash ?
deze grap is alleen leuk als je hem niet uitlegt ;)
humor is like a frog. you can analyse it, but it tends to die in the process :+

en nu is het wachten op iemand die wat leuks weet over whackamole style frog-bashen
Anoniem: 201824 @M2M17 augustus 2007 19:24
Waar komt dat zo 'ineens' vandaan dan low budget kaarten van nu niet de spellen van nu soepel kunnen draaien? Vroeger was alles anders. Kon je met je simpele kaart veel meer dan nu. Zou het zijn omdat de verschillen tussen low en high nu steeds groter worden? Vroeger waren de high end kaarten de low budget kaarten van morgen. Nu lijkt dat over :(
'K heb sinds een half jaar de 8800gtx kaart 768mb, want m'n vorige kaart, een 6800xt 512mb, kon de meeste nieuwe spellen al niet eens meer draaien alhoewel die pas een jaar oud was (qua aankoop). Toch ben ik zelfs over de 8800gtx niet helemaal tevreden, wat overigens ook aan het spel FSx kan liggen, welke volgens MS het beste draait op Vista met z'n dx10.
Het is maar net welke eisen je stelt. Wil je alles full throtle zeg maar dan zul je even je portomenee moeten trekken. Voor gebruikers die veel minder eisen zijn de budgtekaarten gemaakt met de nadruk om enkel sommige DX10 features in Vista te gebruiken, denk aan oa Aero bijv.

GPU bakkers spelen daar marketingtechnisch handig op in door echt specifieke kaarten voor gamers te maken en kaarten voor niet gamers te maken. Daarnaaast heeft MS DX10 behoorlijk zitten promoten maar het vervolgens niet waar kunnen maken als ik het zo links en rechts hoor. Helaas moet ik zeggen want het leek veelbelovend, misschien dat het nog anders kan worden met spellen die echt voor DX10 zijn gemaakt en nog uit moeten komen.
Anoniem: 222963 @M2M17 augustus 2007 21:34
Uhhhm, mijn 360 kan CD's rippen en ik kan er muziek op luisteren. Minder legale content is een probleem! ;)
Nee, het probleem is dat de game makers zich aan de (een) wet van Moore houden qua snelheid, en de GPU dat momenteel niet haalt.

Dit komt door de huidige omschakeling van Grafische Kaart naar Universeele Floating Point reken kaart, waardoor de hele geheugen managment structuur op de GPU moest uitgebreid worden voor random read en writes etc. Kijk maar eens naar het verschil tussen Geforce 7 en Geforce 8 de architectuur is totaal verschillend.
The GeForce 8 series arrives with NVIDIA's first unified shader Direct3D 10 Shader Model 4.0 / OpenGL 2.0 [3] architecture. The design is a major shift for NVIDIA in GPU functionality and capability, the most obvious change being the move from the separate functional units (pixel shaders, vertex shaders) within previous GPUs to a homogeneous collection of universal floating point processors (called "stream processors") that can perform a more universal set of tasks.

[Reactie gewijzigd door djexplo op 26 juli 2024 21:23]

Los van het feit dat er geen wet van Moore wat betreft snelheid bestaat, klopt er weinig van jouw bewering.

GPU's zijn net een voorbeeld waarbij de wet van Moore uitermate goed gevolgd wordt. Het aantal transistoren per chip gaat mooi volgens de wet naar omhoog. De snelheid verdubbeld gemiddel om de 18 a 24 maanden. CPU's hebben dat pad al een tijdje geleden moeten opgeven.

Floating point heeft helemaal niets te maken met de geheugen management structuur. (Hoe kom je er bij?) Het verschil tussen GF7 en GF8 is inderdaad groot, maar kwa memory controller organizatie zijn ze redelijk gelijkaardig: een serie parallele 64-bit controllers.

Interne berekenining werden in GF7 ook allemaal mooi als 32-bits uitgevoerd. Weinig verschillend met GF8.

En dat ze naar een unified architecture overgestapt zijn, zou, in theorie, de efficientie net moeten verbeteren.

Het zou fijn zijn als je eens precies zou kunnen uitleggen hoe dat allemaal een negatieve invloed heeft op de snelheid?
De kosten voor de GPU's reizen de pan uit, en maken lang niet hun verwachtingen/voorspellingen waar!
Dat denk ik niet. Videokaarten worden al meerdere generaties lang voor een hoge prijs - 500E of nog iets meer - geintroduceerd (met HD2900XT als uitzondering). Denk aan de 7800GTX en de X1900XTX iets later. Maar ook de generaties daarvoor met X800XT PE en 6800Ultra waren dik boven de 500 euro. Ook de 9700Pro is 500 euro geweest en dat was toch wel een hele goede kaart voor die tijd.

Verder heb ik nog van geen enkele DX9 kaart het idee gehad dat ze hun belofte niet waarmaken. Nu hebben we de 8 serie van nVidia en de HD serie van ATi, welke zouden moeten schitteren in DX10. Dit is inderdaad nog niet gebeurd, maar dat komt omdat de huidige DX10 content gewoon gepatched is vanaf DX9. Veel features die DX10 mooier/sneller/beter zouden maken zijn nog niet (goed) geimplementeerd.

Het gevolg is dat geen enkele kaart fatsoenlijk die DX10 'pruttel' goed kan draaien. De slechte performance onder DX10 is vooral te wijten aan het niet goed gebruiken van de framebuffer, waardoor er onnodig veel bandbreedte wordt gebruikt. De bron hiervan moet ik even opzoeken, maar ik heb hier wel een grondig artikel over gelezen.

Edit: Heel attent Sirllobax O+

[Reactie gewijzigd door frankknopers op 26 juli 2024 21:23]

Er bestaat helemaal geen 7900Pro :+.
Waarom doet iedereen alsof dit een nieuwe ontwikkeling is. Je hebt nooit knap kunnen gamen op cheapo kaartjes daarom zijn het ook cheapo kaartjes. Als je er niet te veel geld aan wilt uitgeven dan neem je gewoon een vorige generatie high end kaartje wat in alle gevallen beter speelt dan de midrange van nu. Niks nieuws altijd al zo geweest!!!
Nou, ik game hier nog rustig verder (tegenwoordig op 'medium' settings) op een 6600GT. Toen dus voor €180. Het enige wat nu in de buurt komt qua performance/marktaanbod, is de 8800 GTS (320MB). Ook in de 7-serie was de 7600(GT) een perfecte kaart voor mensen die niet op 2 schermen speelden. M.A.W.; om nu serieus te kunnen gamen moet je €260 overschrijven, zowat 30% meer dan bij de vorige generaties. Voor wat ik vroeger dus voor mijn GT betaalde kan ik nu enkel een 8600GTS kopen, die in games vaak vernederd wordt door een 7600GT.

Voor mij mag je dit dus als een nieuwe ontwikkeling zien, omdat zowel ATI als Nvidia in deze generatie gewoonweg geen midrange gamingcards meer bieden.
@CycloneT

In consoles worden ook gewoon GPU's van ati / nvidia gebruikt.
Ik vind PC's juist handiger, waarom? Je kan er meer mee en je kan ze upgraden, zo kan je nog geld besparen ook.

[Reactie gewijzigd door Fox op 26 juli 2024 21:23]

De kosten voor de GPU's reizen de pan uit, en maken lang niet hun verwachtingen/voorspellingen waar!
Vertel me eens wanneer het anders was.

De eerste Voodoo kaarten deden ook 900-100 gulden destijds en toen werden die dingen amper benut aangezien het geheel nieuw was.
Oftewel je kunt beter een DX9 kaart in de zelfde prijsklasse kopen, aangezien deze in DX9 games betere prijs/prestatie verhouding hebben. De meerwaarde van DX10 is niet aanwezig, omdat DX10 games toch niet speelbaar zijn.
Dat was bij de introductie van DX9 ook het geval. Totdat de Ati 9800 uitkwam waren DX9 games ook niet goed speelbaar. Maar goed, afbranden is zo gemakkelijk.
Met dat verschil dat de 9x00 de eerste DX9 reeks was van ATi. 't Lijkt erop dat we tot de 2e of zelfs 3e generatie DX10 hardware zullen mogen wachten om deftige performance te krijgen.
Mag ik je cristallen bol even lenen?

En de makers van crysis claimen dat hun game goed gaat draaien in dx10 op een 8800GTX/8800GTS/2900XT en dit zijn mensen die in het verleden betrouwbaar zijn gebleken met hun beloftes.

Je baseert je gegevens nu op een handjevol dx9 engines die ze op het laatste moment nog wat gepimpt hebben om dx10 feautres in te bouwen. Ik wacht wel met mn oordeel tot er een fatsoenlijke dx10 game op de markt is.
Het valt me wel op dat je tegenwoordig bijna alleen DX10 --> Crysis! argumentatie ziet. Dus als ik het goed begrijp hebben we zometeen 1 spel dat 'vet gaaf' op DX10 draait ...
<zucht> Ik blijf wel lekker op m'n Wii doorspelen.
Misschien wel een betere prijs/prestatieverhouding, maar ik kan op mijn 8800GTX op m'n gemak Oblivion spelen, op maximum detail, 1680x1050. Dat trekt de vorige generatie kaarten toch echt nog niet :)
Ik vindt de vergelijking toch een beetje 'off'.
Wie koopt er nou zo'n systeem en stopt daar een 2400pro/8500gt in? Als je het mij vraagt zouden ze het test systeem dan ook aan de gebruiker aan moeten passen en niet alleen met 'High End' hardware testen. Zo geeft het een beetje verdraaid beeld.
Wie koopt er nou zo'n systeem en stopt daar een 2400pro/8500gt in
Dat doet er niet toe: indien wil weten welke grafische kaart de snelste is, dan moet je een systeem bouwen waarbij de te testen grafische kaarten zoveel mogelijk de 'bottlenecks' zijn. Wanneer je een realistischere configuratie bouwt, test je eerder verschillende systemen in plaats van verschillende videokaarten, want dan kan het gebeuren dat de CPU of het geheugen de bottleneck wordt en dan krijg je identieke scores.
Wie koopt er nou zo'n systeem en stopt daar een 2400pro/8500gt in?
Ik. Vorige maand een E6750 / 2GB / 8500GT. VMware draait als een tierelier onder Ubuntu, en de prijs/prestatie verhouding van de 8500GT is geweldig (80 euro).

En om 3D-modellen te maken in Blender heb ik aan die 8500GT voor mijn doel ook meer dan voldoende. Ik ben geen hardcore gamer, maar heb toch een minimale 3D-acceleratie nodig. Het is maar net wat je wil. Gebruikers zijn denk ik te verschillend om 'een test op aan te passen'.

Waarschijnlijk had ik het zelfs gered met de Intel onboard graphics op het moederbord, maar dat risico wilde ik niet lopen met meerdere monitoren. :)
Prijs/prestatie is de 8500GT helemaal niet geweldig :)
"
* keuze laptops is :

HP dv 9381 ea


HP dv 9595ed

Ik heb in een engels review gelezen dat de videao kaart van de dv9595ed dirctx10 ready is en 256mb dedicated en tot 1023 MB gedeeld ? ten opzichte van de dv9381ea waar 512mb video dedicated is.

Is het nu van belang voor komende spelletjes om directx10 ready te zijn of kun je beter wachten en gewoon de 512 dedicated memory nemen ? m.a.w. wat is het waarschijnlijke verschil ? ik was tot nu toe van mening dat het altijd dedicated moest zijn om echt goed te werken. De review noemde ook dat de 8600M in de toekomst beter uit de voeten kan omdat dan ook in directx10 er een ander gebruik van word gemaakt ? Ook word de volgende 8800 opvolger erg aangeprezen ( op wachten ? )

Dus bovenstaande is wat mij betreft de laptopkeuze maar ik sta open voor advies ;)
Wat er echt op moet kunnen draaien is: sibelius ( muziekprogramma, misschien autocad en snelle online spelletjes "

Bovenstaand is een voor mij te maken keuze binnen 2 weken.
Van wat ik hier lees als reacties wbt de videokaarten maak ik op dat ik dan dus beter de hp dv9381 kan nemen omdat alles dan beter draait?,....... klopt deze conclusie ?
Whieee Moderator Apple Talk @De Buurman17 augustus 2007 16:47
als je je vraag hier stelt is je kans op antwoord minimaal, aangezien het geheel offtopic is. Beter open je een topic op GoT in "Complete Systemen & Laptops" nadat je wat actief zoekwerk hebt verricht. Google is je vriend :)
Het is toch logisch dat budget kaarten slecht presteren in games?
Kijk maar naar de 9200 of 5200 series... (Daar heb ik ervaring mee.)

Ook logisch dat je een 8800gtx of 2900xt nodig hebt om de games van morgen in volle glorie te kunnen spelen.

Dat het met Dx10 slechter liep wist ik ook al.

Wat is er nieuw aan dit "nieuws" ?
Vrij weinig, eigenlijk. Volgens mij is dit al de vijfde midrange/budget videokaartentest die ik zie in twee weken. En overal komt dezelfde, voorspelbare conclusie uit. Dat budget/midrange kaarten niet genoeg kracht hebben om spellen met alle opties open te draaien.

Captain Obvious to the rescue!.....

Hebben ze niks anders te doen daar dan open deuren intrappen?
Als ze nou eens een budget setup nemen en dan aangeven wat je wél kan doen om een mooie balans tussen graphics en FPS te krijgen. Dáár hebben lezers ook wat aan. Dit zijn reviews waar we allemaal de uitslag al van konden zien aankomen en aan het eind zijn we nog niks opgeschoten.

Ik zou wel een budget en/of HTPC review willen zijn. Al dat gefocus op loodzware spellen.... Zeker met de huidige trend van HTPC's is dat, zo lijkt me, een veel interessanter onderwerp voor een steeds groter wordende doelgroep :)
Anoniem: 140100 @Vrijdag17 augustus 2007 18:48
Wat ik hier uit begrijp, is dat het probleem is dat deze kaarten minder performance increase leveren tov de vorige generatie dan de vorige generaties...

(8300 - 7300 < 7300 - 6200) enz enz enz

Op dit item kan niet meer gereageerd worden.