Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties

AMD gaat de volgende generatie Radeon-videokaarten van ATI met gddr5-geheugen uitrusten. De streamprocessors in de gpu zouden vanwege intensieve berekeningen baat hebben bij de hogere bandbreedte van dit geheugen.

AMD heeft geheugenbakker Qimonda in de arm genomen om de eerste batch van gddr5 te produceren voor gebruik in de Radeon HD4000-serie van ATI. De chipfabrikant heeft ook orders bij Samsung en Hynix geplaatst, die eveneens gddr5-geheugen gaan produceren. AMD kan op een later tijdstip, als de vraag naar het snelle geheugen gestegen is, bij de drie geheugenproducenten aankloppen voor de levering van gddr5-chips.

Het is niet bekend welke HD4000-kaarten van gddr5-geheugen voorzien worden. Volgens eerdere geruchten krijgt alleen het topmodel van de nieuwe Radeon-serie gddr5-geheugen; de overige modellen zouden gddr3-geheugen krijgen. De Radeon HD4850 zou 512MB aan gddr5 krijgen dat op 3,92GHz draait. Waarschijnlijk krijgt alleen het topmodel van de Radeon HD4000-serie gddr5 vanwege de verwachte hoge prijs van het geheugen.

Qimonda gddr5
Moderatie-faq Wijzig weergave

Reacties (85)

Het is WEL bekend op welke snelheid het geheugen loopt. Dat stond gisteren nog op Tweakers ;)
Ik las op XS dat waarschijnlijk de 4870 512mb GDDR3 krijgt en de 1024MB versie GDDR5 wat op 3.92 ghz loopt.

Het leukste nieuws vind ik dat de coresnelheid 4870 onafhankelijk is van de shadersnelheid :D

Op brief die gelekt staat en op XS staat, is de core 850mhz en de shaders 1050 mhz 8-)

http://www.xtremesystems.org/forums/showthread.php?t=188495

[Reactie gewijzigd door yori1989 op 21 mei 2008 11:20]

de hd4870 krijgt gddr3 of gddr 5. de hd4850 krijgt gddr 3..
kan dat veranderd worden in het artikel
Fixt, helemaal vergeten die zin aan te passen. Nu klopt het wel, thanks!

[Reactie gewijzigd door Robin op 21 mei 2008 11:18]

Puur nieuwschierigheid: De 3,92GHz waaraan gerefereerd wordt, is dat de GHz of de GT/s?

Sinds DDR en quadruppel gepompte bussen verwart dit mij lichtelijk. (Ook al is het GT/s, 1,96 GHz is ook dan nog een behoorlijke rappe klok)
Dit is DDR, dus de werkelijke snelheid van het geheugen is 1,96GHz.
Is het niet 998 mhz maar quad pumped ?
dan zou het QDR heten.
de geheugen BUS loop bij gddr5 iniedergeval op ongeveer 2ghz, en effectief op 4ghz.

de geheugen CELLEN lopen bij ddr1 op de helft van die effective snelheid (gelijk met de echte mhz dus), en bij ddr2 op 1/4de van die effective snelheid, (net als bij gddr3 trouwens).

maar als we het over clocksnelheden van geheugen hebben hebben we het eigenlijk altijd over de BUS snelheid, want dat geeft (samen met de bus-breedte) de hoeveelheid bandbreedte aan die het geheugen heeft.

ik weet eerlijk gezegt niet welke bus/cel verhouding gddr4 en 5 er op nahouden.
ik ga fff zoeken.
edit :
ddr3 heeft een verhouding van 1 op 8. en gddr4 en 5 zijn op ddr3 gebaseerd. (net als gddr3 op ddr2 is gebaseerd)
dus ik ga er vanuit dat het 1 op 8 is.
http://upload.infinityx.nl/DDR-DDRII-DDRIII.gif

[Reactie gewijzigd door Countess op 21 mei 2008 20:54]

de geheugen CELLEN lopen bij ddr1 op de helft van die effective snelheid (gelijk met de echte mhz dus), en bij ddr2 op 1/4de van die effective snelheid, (net als bij gddr3 trouwens).
Het is DDR, geen SDR... Double Data Rate... ;)
Verschil in DDR2 geheugen is dat er één data pakketje aan het begin en één datapakketjeaan het einde van een stroompulsje zit (DDR maakt gebruik van wisselspanning)

Nadel hiervan is echter hogere latencies... En ik dacht dat DDR3 zeg maar best of both worlds is... :)
dat bedoel ik dus met echt en effectieve mhz.
die DDR geld dan ook alleen voor de databus.
zie ook het plaatje, ddr1 = 100mhz cellen, 100mhz databus (echte), 200mhz data-rate(effective)
hiermee krijg je ddr-1 200. verdubbel alles om ddr-400 te krijgen natuurlijk.

en nee ddr3 maakt het alleen maar 'erger' door de geheugen cellen maar op 1/8 van de effective snelheid te laten werken.
maar als je ddr3 op 1600mhz hebt draaien moet je de zelfde latency kunnen bereiken (in tijd!) als dat je met ddr2-800 en ddr-1 400 kunt halen.
als je wilt weten wat de minimum latancy is in TIJD, kan je kijken naar hoe snel de geheugen CELLEN werken.
tot nu toe, vanaf ddr1 helemaal tot ddr3 is het nog niet mogelijk geweest om de geheugen cellen (officieel) hoger dan 200mhz te clocken. en daarom is de 'minimum' latancy mogelijk met bij ddr1 ddr2 en ddr3 gelijk.

wat ddr3 wel doet is wat meer overhead weg nemen, waardoor de gemiddelde tijd die nodig is om een scala aan verschillende (kleine-niet bandbreedte afhankelijk dus)) opdrachten te verwerken wat lager uit valt ivm ddr2 iniedergeval.
de random access latency zou bij ddr3 dus wat lager uit moeten vallen (maar verwacht geen wonderen).

[Reactie gewijzigd door Countess op 22 mei 2008 13:35]

Bedankt! Daar wordt ik wijzer van.
Volgens eerdere geruchten krijgt alleen het topmodel van de nieuwe Radeon-serie gddr5-geheugen; de overige modellen zouden gddr3-geheugen krijgen.
Waarom wordt GDDR 4 overgeslagen? Presteert deze in prijs/kwaliteit verhouding minder goed?
De HD3870 serie maakt gebruik van 512MB GDDR4 geheugen op 1126Mhz. ;) (Danku, mad_max)

[Reactie gewijzigd door FiXeR.nl op 21 mei 2008 13:49]

De X1950 XT en XTX gebruiken ook al GDDR4 geheugen. Op de XTX loopt het geheugen op 1000MHz en op de XT op 900MHz. Ze hebben GDDR4 geheugen dus niet overgeslagen.

@Pine Mangoes: Ja, je hebt helemaal gelijk!

[Reactie gewijzigd door pizzaislekker op 21 mei 2008 13:11]

Enkel de X1950XTX had GDDR4 geheugen. XT moest 't met good old DDR3 stellen :)
De HD 3870 heeft DDR4 1126Mhz (DDR=2252Mhz), iets meer dus dan 777MHz. ;)

(graag gedaan, FiXeR.nl)

[Reactie gewijzigd door mad_max234 op 21 mei 2008 16:04]

GDDR5 is echt retesnel geheugen. nVidia is nog niet zover. Die gebruikt dacht ik nog GDDR3 en GDDR4 op de Geforce 9 serie?
nvidia heeft nog geen gddr4 gebruikt en slaat het zelfs helemaal over.
De G staat voor graphics. De huidige CPU's hebben zulke bandwith niet nodig.
Hoop dat dit "geweldige" Qimonda geheugen het een heel stuk beter gaat doen dan het qimonda geheugen wat op de sparkle 8800GT zat. Dat klokte totaal niet over.

[Reactie gewijzigd door Robin4 op 21 mei 2008 13:51]

moet dat dan?
Wake up, je zit op tweakers.net . Natuurlijk moet het over te klokken zijn!
Ik heb er weinig verstand van, maar een paar vragen:

Wat is het snelheidsverschil tussen gddr3 en gddr5?

Is er ook een gddr4?
Dit is en blijft tweakers.net met de nadruk op tweakers. Die zijn verondersteld van dat soort dingen wel te weten of toch tenminste Google weten te gebruiken.

http://www.google.com/search?q=gddr3+gddr4+gddr5 levert toch wel wat op

[Reactie gewijzigd door aval0ne op 21 mei 2008 13:41]

Kaarten hiermee zullen een redelijk prijskaartje hebben.
Wel een voordeel is dat de oudere kaarten een stuk goedkoper zullen worden.
als deze zoveel duurder zouden worden, is dat niet bevordelijk voor de prijs van de huidige kaarten omdat die prijzen al lager liggen.

Maar toch lijken mij super kaarten :)
het waarschijnlijk niet genoeg is om de duurdere GTX 280 bij te houden
Ik ben geen ATI fanboy, maar: wie maalt erom dat deze kaarten de GTX 280 niet bij kunnen houden? De HD4870 is zometeen sneller dan een 9800GTX (imho dus snel genoeg), goedkoper dan een GTX 280 én zuipt flink wat minder energie (160W onder full load). AMD tovert qua prijs/performance én energieverbruik dus weer hetzelfde konijn uit de hoed als met de HD3870 (en HD3850)!

Indien deze informatie in de praktijk dus inderdaad correct is zal het mij iig niet verbazen dat deze kaart imho het érg goed gaat doen in de winkels, ook al is NVIDIA in deze generatie (waarschijnlijk) wederom sneller.

[Reactie gewijzigd door mindcrash op 21 mei 2008 11:43]

Het is niet echt alleen een opwaardering naar GDDR5 hoor. Het zijn echt enorm veel dingen die ze verbeterd hebben aan de RV770 tegenoer de RV670.
Zoals 1 ding, verdubbeling van de Texture units, 140 extra shaders en de de core en shaderclocks lopen niet meer 1:1 maar 1:1.25.
Deze kaart heeft dus veel meer power t.o.v. RV670!
Het is niet echt alleen een opwaardering naar GDDR5 hoor. Het zijn echt enorm veel dingen die ze verbeterd hebben aan de RV770 tegenoer de RV670.
Zoals 1 ding, verdubbeling van de Texture units, 140 extra shaders en de de core en shaderclocks lopen niet meer 1:1 maar 1:1.25.
Deze kaart heeft dus veel meer power t.o.v. RV670!
Dan mag de kaart ook wel een flinke bandbreedte hebben... Viel me op dat de laatste tijd de kaarten wat minder zijn in bandbreedte, qua bits. Zou deze dan 512bit bandbreedte krijgen?
dat is ook niet de bedoeling van de hd4780. daar is de hd4780X2 straks voor.
ze kosten daarom ook nog niet eens de helft van de gtx 280

edit : net als alles tot nu to zijn het geruchten maar die zou liggen op de 499 dollar, tegenover 229 dollar voor de hd4870.

[Reactie gewijzigd door Countess op 21 mei 2008 19:44]

Hoe weet jij de prijzen van de gtx 280 al? Ik heb deze nog nergens gezien......(kan ook aan mij liggen).
het waarschijnlijk niet genoeg is om de duurdere GTX 280 bij te houden
En daar heb je het al mee gezegd.
Die kaart gaat duurder zijn. Moet dan voor een mindere prijs dezelfde performance gehaald worden? De GTX280 zit in een hoger segment dan de HD4870.
Correctie, niemand weet wat de GTX280 gaat doen, dus alles wat je in die richting uitkraamt is onzin.

AMD/ATi hebben sinds de 3870, waar jouw verhaaltje wel voor op gaat, bewust gekozen voor een andere strategie, deze is zo succesvol gebleken dat AMD/ATi heeft besloten ditzelfde door te trekken naar de 4870.

Waar het dus bij de 3870 een gedwongen keuze was, is 't bij de 4870 een bewuste afweging. Marketingtechnisch is het ook zeer slim om te doen met alle milieugezever overal.

Daarbij is het natuurlijk heel handig om een goedkoop te produceren kaart met een relatief hoge snelheid en interessante 'features' naar wil te kunnen uitbrengen. Op prijs hoeven ze niet te letten, want winst maken ze tochwel. De kaart is sowieso voldoende voor alle recente spellen. 't is eigenlijk een optimale afweging tussen prijs/performance/features. Heel interessant al zeg ik 't zelf.

Van nvidia is nog niets te zeggen, want daar zijn nog geen vaste specs van uit, geen prijzen van uit en niemand weet welke features nvidia gaat toepassen. Wat betekent dat normaalgesproken de concurrentie spannend had moeten zijn, ware het niet dat AMD/ATi zoveel vrijheid heeft met de 4870 en hem kan positiioneren waar 'ie wil. En die kaart tochwel een nut en doelgroep heeft. Mensen kopen tegenwoordig geen kaarten meer van 400eur, tenminste, bijna niemand. Men wil meer 'bang for the buck', wat AMD nu 'gebruikt' met de 48xx serie. Heel slim.
De strategie van Nvidia was altijd dat ze alles over hunzelf achterhielden om ongemerkt aanpassingen aan hun strategie te kunnen maken, op voorwaarde dat ze weten wat de concurrentie doet. ( ooit ergens gelezen op fudzilla) Dat is ook een hele slimme zet. Maar toch denk ik dat ook nvidia meer bang for the buck moet gaan geven, je weet nu al zeker dat je goede prestaties hebt, maar tegen wat voor prijs. Daarom is AMD zo'n goed alternatief , want je zet gewoon een X2 of een CF opstelling in je PC..ben je nog steeds goedkoper uit.
http://www.dailytech.com/...Unveiled/article11842.htm

dat gaat de gtx 280 doen.. 40 shadingprocessors
dus erg snel.. maargeod alsnog de 4870x2 zal hem zeer waarschijnlijk bij kunnen houden zoniet inhalen.
Oef, impressive very impressive...... maar eerst maar eens benchmarks zien en een prijs. Nog 3 weken en dan zullen we meer weten.
Hebben we al wat van de GTX280 gezien dan ? Dus die 'waarheid' klopt al helemaal al voor geen koe (kant) Je zet jezelf niet veel beter neer als de 'ATI fan' Je beweert dat de GTX280 sneller is dan de 4870, terwijl er alleen nog maar geruchten zijn van de GTX280.
En tot zo ver heb ik al veel meer gezien van de 4xxx serie van ATI dan die nieuwe serie van Nvidia. Ik denk dat dat de waarheid is die een Nvidia fanboy (zoals jou dus) niet graag wil horen
Zullen we eerst es wachten tot de kaarten uit zijn? Voor we als nVidia fanboy's loze conclusies gaan trekken...
Zolang beide videokaarten er nog niet zijn kun je niet zeggen dat een dergelijke uitspraak "een waarheid als een koe" is. Het lijkt me in ieder geval niet dat iemand hier in het bezit is van een glazen bol. Laten we dus gewoon de verschillende videokaarten en (voor zover mogelijk) ONAFHANKELIJKE benchmarks afwachten. Met absolute cijfers natuurlijk en niet dit relatieve spul.
En dan zie je dat een HD4870 niet veel kans maakt tegen de GTX280
Was het niet zo dat Ati zijn HD4870 tegenover de niet-top-end van nVidia wil positioneren? Dat zullen we trouwens terugzien in de prijssegmenten. Als een HD4870 inderdaad zwakker is dan de GTX280, maar evenveel goedkoper als trager, dan wilt dat zeggen dat je ze niet onderling moet vergelijken als ware het directe concurrenten.
Oh, je let alleen op prestaties, dat zal nog moeilijk worden bij je zoektocht naar een vriend.
Mensen die zulke kaarten kopen letten enkel op prestaties ja.
Als dat GDDR5 op zo hoge klokfrequenties kan, waarom gebruiken we het dan niet als gewoon werkgeheugen, in plaats van DDR2/3?
Is er iets dat GDDR5 niet zo goed doet als DDR2/3?
Tuurlijk, GDDR is duurder, maar het is daarmee nog steeds niet duur.
latency is voor GPU's ook niet of nauwelijks van belang, ze weten lang van te voren al wat ze uit het geheugen nodig gaan hebben.
een CPU kan dat een stuk moeilijker voorspellen.

[Reactie gewijzigd door Countess op 21 mei 2008 19:58]

Of misschien de nadelen van ATI?
ATI maakt kwa hardware en kwa specificaties goeie kaarten maar laat het altijd op 1 vlak erg afweten. En dat zijn drivers, in windows valt het nog wel mee. Maar in Linux is het een drama de ATI drivers, en dan nog niet eens te beginnen over OpenGL games, die draaien helemaal slecht op ATI kaarten. Dat houdt in alle Quake 3 Engine games Doom3 Engine Games. Bijvoorbeeld Enemy Territory Quake Wars draaid echt brak op een HD3870. En ik ben geen fanboy, ik zou liever zelf ATI nemen zodat het beter is voor concurrentie. Heb zelf ook een HD3870 gehad maar naar 3 weken om de drivers weer weg gedaan. Inplaats van dat ze proberen een hele goeie kaart uit te brengen. Moeten ze wat meer geld in hun drivers steken. En het is ook dat veel games NVIDIA optimized zijn, dat is ook groot voordeel voor gamers. Komt gewoon omdat NVIDIA meer geld heeft, maar dat maakt de gamers niet zoveel uit.

[Reactie gewijzigd door Zenix op 21 mei 2008 12:32]

De ati drivers voor linux zijn echt in orde, niet op het niveau van nvidia maar sinds november vorig jaar hebben ze zeer goede performance & stabiliteit (& XGL ondersteuning). De ondersteuning is nog niet zo breed als de nvidia linux drivers bv het gebruik van meerdere schermen is slecht ondersteunt.
ATi is momenteel zeer sterk in OGL applicaties, vorig jaar is er een bijna helemaal nieuwe OGL driver geïmplementeerd.
ETQW draait prima op ati kaarten: http://www.behardware.com...md-radeon-hd-3870-x2.html
ik zeg ook niet dat het niet draaid.
Maar ik had veel meer problemen met de HD3870 met ETQW inplaats van 8800GTS 320MB ( je zou toch denken dat HD3870 beter is? ) Maar nee, vooral beeld was slechter. En een benchmark puur op FPS zegt niks voor mij, gaat om de feeling ingame en die was gewoon slecht haperingen enzo. Maar mooi dat je ze aan de weg timmeren met linux drivers. Maar ze zijn nog niet kwa drivers waar ze horen te zijn. Ik hoop dat het binnen afzienbare tijd wel zo is.

[Reactie gewijzigd door Zenix op 21 mei 2008 13:44]

Je beweert dat de HD3870 slechter presteerde dan de GF8800GTS320 in ETQW.

Ook zeg je dat de Radeon minder goeie beeldkwaliteit biedde.

De Radeon heeft meer last van haperingen zeg je.

Je hebt voor de rest niet gezegd of je die nadelen volledig en zuiver kan vastpinnen op de grafische kaart en zijn drivers. Je hebt niet gezegd of je voor elke kaart een nieuwe install van het OS hebt gedaan, of desnoods er grondig voor gezorgd dat de drivers van voorgaande kaart correct verwijderd zijn. Je hebt niet gezegd op welk hardwareplatform (moederbord/chipset) je de volledige test hebt uitgevoerd. Je hebt geen blijk gegeven van zekerheid dat geen enkel ander component de oorzaak kan zijn op zich of in relatie tot de Radeon van de mindere ervaring in ETQW.

Dat je persoonlijke ervaring met een Radeon slechter is geweest dan een GeForce is jammer. Maar je moet je ervaringen niet verkopen alsof ze algemeen geldend zijn. Daarvoor ontbreekt er veel te veel informatie en kennis over je ervaringen.

En het is draait met een t, niet met een d. Het staat zelfs nog in de laatste zin van de post boven die van jou. Moeite doen, het is een deugd. Zowel bij het stellen van oordelen waarom een bepaalde combinatie van hardware minder presteert dan een andere, als bij het opstellen van je schrijfsels.

Je ziet duidelijk dat ongeveer niemand wat heeft aan je bemerkingen als je daarvoor niet tot op het bot bent gegaan.

[Reactie gewijzigd door IveGotARuddyGun op 21 mei 2008 13:58]

Ik heb alles opnieuw geinstaleerd.
En kijk maar in mijn profiel als je wilt zien welk hardware platform. Kleine moeite.
En het is mijn persoonlijke mening. Kijk nou nog maar eens weer bij de nieuwe ATI drivers die net uit zijn. Wat staat daar? Wat zeggen de mensen daar? Ja wat ik ook al zei dat OpenGL brak is. En dat is dus ook geval in ETQW. Kijk maar eens ETQW staat ook nog bij known issues. Dus ik hoef me niet zelf te bewijzen als het gewoon een feit is.

En als je gaat praten over hoe ik schijf vind ik kinderachtig. Kom dan met argumenten waarom ik niet gelijk zou hebben. En niet over d en t.

En ik heb ook hele goeie ervaringen met ATI gehad in het verleden 9600pro/9800pro/X800Pro. Dat waren goeie kaarten voor die tijd met goeie drivers.
Misschien dat OpelGL brak is, maar ik heb nooit ergens last van met ATI drivers. Ik speel erg veel games en alles draait prima, ook DX10. Mocht er iets raars gebeuren, krijg je een melding dat de driver is gereset, en kun je gewoon verder werken. Bij nVidia drivers krijg je dan een BSOD.

Sterker nog, ik heb mijn 8800GTS teruggebracht en een HD2900XT voor terug gekocht, puur omdat ik helemaal strontziek werd van de nVidia drivers en het gelul er om heen.

Vroeger waren die ATI drivers slecht, en misschien onder Linux nog steeds wel, maar tegenwoordig vind ik ze super.
Ik heb het ook over Windows performance. DirectX games geen probs mee. Maar ik speel voornamelijk openGL games en zo zijn er veel mensen. Daarom is dat de enigste reden voor mij om geen ATI meer te kopen. Als ATI + openGL wel stuk beter gaat lopen dan kan de nieuwe kaart van mij wel een ATI worden maar ik zie het niet gebeuren. En ik wil wel af en toe linux draaien en dan is al dat geklooi stuk minder met nvidia. Het werkt gewoon simpel.

Kijk maar eens in de ATI topics vooral die van HD3870, hoeveel mensen zaten/zitten te smachten voor nieuwe drivers. Omdat ze allemaal hopen dat het een stuk beter is, maar meestal valt het tegen. Ik zie dat veel minder bij nvidia kaarten.

[Reactie gewijzigd door Zenix op 21 mei 2008 13:27]

Lekker boeiend, voor die paar tweakers die linux draaien zou ik ook geen bergen geld in drivers steken... Bovendien kan je toch niet echt games draaien in linux (ja joepie, half life 2 en nog wat oude games). Dus nee, dat vind ik geen argument om geen ATI kaart te kopen. Als je linux wil draaien koop je een iets met een intel onboard ding en met dualboot hoef je alleen maar een 2d omgeving te krijgen.
nVidia drivers zijn ook niet alles want de bluescreens die ik eens in de maand op mijn pc krijg zijn toch echt van nVidia.

Kijken we naar prijs prestatie, lijkt mij dat AMD de juiste weg inslaat, ipv de koning der prestatie te zijn kiezen ze voor de meeste bang for bucks (en energieopname). Voor Mid-end heeft AMD zeker mooie oplossingen, ook de uvd in de low-end kaarten vind ik een hele goede zet. Wil je pure gaming performance ongeacht energieverbruik en prijs, zou ik idd voor een nVidia gaan.
Je kan de meeste OpenGL games in Linux draaien. Enemy Territory Quake Wars waar ik het ook over had draaid ook in Linux. En dat is een nieuw spel. Maar ze moeten inderdaad vooral focussen op Windows drivers dat zou ik ook doen als ik hun was. Eerst maar eens die helemaal goed krijgen dan komt de rest.
Ik denk dat hij voor namelijk prijs/prestatie en energie verbruik bedoeld, drie punten waar ATi/AMD op het ogenblik beter scored dan Nvidia kwa GPU's. Naast de betere ondersteuning voor het afspelen van HD content (UVD).

*enigszins offtopic:
Niet gelijk Crysis er weer bijhalen, als deze nogaltijd niet volledig gedraaid kan worden. Naar mijn idee heeft Crysis bijna geen bestaansrecht. Zo bijzonder is de game zelf niet en als je dan ook nog zo programmeerd dat geen enkele gangbare Pc uit het highend-segment het volledig kan draaien dan doe je naar mijn idee als ontwikkelaar van een Game iets fout.

[Reactie gewijzigd door _Dune_ op 21 mei 2008 12:02]

Ik denk inderdaad dat die gamers groep steeds groter wordt. Je bent het immers op den duur wel zat om steeds maar weer belachelijk veel geld uit te moeten geven voor een topkaart. Op een gegeven moment zie je ook als enthousiaste gamer in dat je best genoegen kunt nemen met zo'n kaart die qua prijs/prestatie en energieverbruik beduidend beter is dan die topkaart die je net wat meer fps gunt. Die paar extra fps worden het (althans mij) steeds minder waard, maar er zal denk ik altijd wel een groep die-hard gamers bestaan die topkaarten (soms zelfs in twee- of drievoud) in hun systeem willen prikken. Leuk, maar na 5 graka-generaties lang een topkaart te hebben gehad, hoeft dat voor mij niet meer. Ik neem voortaan ook wel genoegen met een stap lager :)
Niet gelijk Crysis er weer bijhalen, als deze nogaltijd niet volledig gedraaid kan worden. Naar mijn idee heeft Crysis bijna geen bestaansrecht. Zo bijzonder is de game zelf niet en als je dan ook nog zo programmeerd dat geen enkele gangbare Pc uit het highend-segment het volledig kan draaien dan doe je naar mijn idee als ontwikkelaar van een Game iets fout.
Dat is wel erg makkelijk, omdat het jou niet uit komt en omdat jij toevallig Crysis niet leuk vindt moeten we het maar negeren? Ik vind Crysis namelijk wel belangrijk, en als ik de verhalen hoor van vrienden die het hebben gespeeld is het ook wel degelijk leuk. Bovendien draait het prima op mindere systemen als je het detail omlaag schroeft, en dan ziet het er nog steeds echt heel erg goed uit.

[Reactie gewijzigd door Snoitkever op 21 mei 2008 14:10]

Dat zijn 2 punten.

edit: Zijn de amd linux drivers tegenwoordig al een beetje fatsoenlijk?

@stefanass
Volgens mij niet, die drie punten sloegen op jou punt 1 en 2, punt 3 werd daar nog naast genoemt. Mijn "dat" verwees dus ook naar "prijs/prestatie en energie verbruik".

[Reactie gewijzigd door Alucard op 21 mei 2008 12:42]

Volgens mij noemt hij toch echt 3 punten:
1) prijs/prestatie verhouding
2) engergieverbruik
3) betere ondersteuning HD content
1) is aangetoond dat die niet zo is. Prijs / prestatie ligt duidelijk in het vorodeel van NVIDIA. Aan een 8800GT kan nog steeds geen ATI kaart tippen.

ik verwijs naar http://www.tomshardware.c...-graphics-cards,1805.html
waar de beste kaarten voor iedere prijsklasse staan.
Er zijn 8 prijsklasses voor PCIE kaarten, slecht in 2 (!) klasses weet ATi de overwinning te halen. Dit betekent dat in 6 van 8 klasses een NVIDIA kaart de beste koop is.

2) Energieverbruik/performance ligt NVIDIA aan kop.
3) de ondersteuning is even goed bij NVIDIA. Misschien dat ATi een paar cpu cycles minder nodig heeft maar daar staat een betere IQ van NVIDIA tegenover. Lees maar:
http://www.tomshardware.c...26/avivo_hd_vs_purevideo/
http://www.anandtech.com/showdoc.aspx?i=3047&p=1

[Reactie gewijzigd door aval0ne op 21 mei 2008 13:58]

2) Energieverbruik/performance ligt NVIDIA aan kop.
http://www.tomshardware.c...00gtx-review,1800-12.html
3870 is iets lager in idle, en nog iets meer hoger in stress dan de 8800GT. Het ligt er dus aan hoeveel je idlet tov hoeveel je gamet en de kaart stresst. Daartegenover staat inderdaad ook dat de 3870 iets trager is dan de 8800GT.

Dit komt uiteraard maar uit 1 review van 1 bron, dus betrouwbaarheid is niet optimaal, alhoewel het een gemiddeld beeld kan scheppen.
3) de ondersteuning is even goed bij NVIDIA. Misschien dat ATi een paar cpu cycles minder nodig heeft maar daar staat een betere IQ van NVIDIA tegenover. Lees maar:
http://www.tomshardware.c...26/avivo_hd_vs_purevideo/
http://www.anandtech.com/showdoc.aspx?i=3047&p=1
http://www.anandtech.com/showdoc.aspx?i=3258&p=4
Dit laat anders wel zien dat de HD HQV van recentere AMD/ATI oplossingen beter is in kwaliteit dan die van nVidia.

[Reactie gewijzigd door IveGotARuddyGun op 21 mei 2008 14:10]

Prijs/prestatie?

Al eens gekeken naar de HD3850??

Volgens yougamers "estimated 3d marks 2006" verrekend naar de europese prijzen:
HD3850 102.5 3dmarks per euro
HD3870 81.5 3dmarks per euro
8800 GT 81.5 3dmarks per euro
9600 GT 74 3dmarks per euro

Lijkt mij dat alles dat AMD aanbiedt betere prijs/performance heeft dan Nvidia zijn oplossingen. En met de 48xx zal het nog beter worden.

Even voor het plezier de processors er ook begezet: (cpumarks omgezet naar europese prijzen)

E6850 18 pcmarks per euro
E4500 21 pcmarks per euro
5600+ X2 23 pcmarks per euro
4400+ X2 32.5 pcmarks per euro

Controleer zelf op: http://www.yougamers.com/...rk06/priceandperformance/
en vergelijk de estimated 3dmarks en verreken ze naar de europese prijzen in de pricewatch.
Het is alleen een beetje jammer dat 3d-mark wat weinig over de performance zegt in de meeste games. het zou erg interessant zijn geweest als er ook bij games wordt vergeleken.
Het is alleen jammer dat de meeste games Nvidia optimized zijn.
3DMark laat een eerlijke bench zien
Prijs/prestatie?

Al eens gekeken naar de HD3850??

Volgens yougamers "estimated 3d marks 2006" verrekend naar de europese prijzen:
HD3850 102.5 3dmarks per euro
HD3870 81.5 3dmarks per euro
8800 GT 81.5 3dmarks per euro
9600 GT 74 3dmarks per euro

Lijkt mij dat alles dat AMD aanbiedt betere prijs/performance heeft dan Nvidia zijn oplossingen. En met de 48xx zal het nog beter worden.

Even voor het plezier de processors er ook begezet: (cpumarks omgezet naar europese prijzen)

E6850 18 pcmarks per euro
E4500 21 pcmarks per euro
5600+ X2 23 pcmarks per euro
4400+ X2 32.5 pcmarks per euro

Controleer zelf op: http://www.yougamers.com/...rk06/priceandperformance/
en vergelijk de estimated 3dmarks en verreken ze naar de europese prijzen in de pricewatch.
3dMarks zeggen NIETS over echte gameprestaties, dus je comment is waardeloos. Leesde link naar Toms Hardware en leer ...;
die image qualitate test is al van vorige jaar en erg sumier, zeker in uitleg.
en ATI heeft al een jaar gehad om hun noise reduction te verbeteren, hun enige zwakte punt.

en bij deze test van ongeveer de zelfde periode hebben ze er dit over te zeggen
http://arstechnica.com/ne...ayback-ati-vs-nvidia.html
"At extremely close range (2-3 inches), I could see slightly more noise when using ATI as opposed to NVIDIA, but the difference was imperceptible at even a two-foot viewing distance."
zelfs mijn monitor zit ik al meer als 2 voet vanaf, niet echt boeiend dus.

en om even naar een pagina uit jouw link te refereren.
http://www.tomshardware.c...-hd-purevideo,1711-9.html
en de pagina's erna precies het zelfde.
pure video werkt alleen onder vista dus
werk je nog met XP krijg je meer dit.
http://www.extremetech.com/article2/0,2845,2295367,00.asp

en waar tomshardware zijn prijzen vandaan haalt weet ik niet (newegg geloof ik?) maar pricewatch is het iniedergeval niet.

[Reactie gewijzigd door Countess op 22 mei 2008 01:09]

Ben jij niet het fiasco vergeten met Assassin's Creed en DX10.1/SM4.1?

Dat draaide tot 20% sneller op ATI HD 38xx hardware ZONDER kwaliteitsverlies terwijl het spel onder de TWIMTBP omkoperij van nVidia valt. Daarna heeft Ubisoft het eruit gesloopt wegens hele vage redenen. En iedereen weet wel waar het over gaat.
Puur schandalig en vrijwel iedereen is het daar mee eens.

nVidia heeft dit niet en zal de komende generatie ook niet krijgen, terwijl ook S3 SM4.1 hardware levert. Tja dan zal nVidia druk uitoefenen om spelmakers te verhinderen te optimaliseren met SM4.1.

Het lijkt mij heel duidelijk: de HD48xx serie gaat hele hoge ogen gooien op ALLE fronten van de hardware/software, voor relatief heel weinig geld.

Met de R600 uitrol liep ATI 8 maanden achter, dat moeten ze zien in te halen en vooralsnog is hun inhaalrace bijzonder indrukwekkend!
Als die patch nog te verkrijgen is, dan maakt het toch niet uit.. dan kan je als je een DX10.1 kaart hebt alsnog 20% meer frames krijgen, is die patch er niet..dan moeten we even lelijk naar Nvidia kijken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True