Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 42 reacties
Bron: T-Break

ATi logo (kleiner)Bij T-Break is een review verschenen over de ATi Radeon X800XL met 512MB geheugen. De kaart heeft dezelfde kloksnelheden als de 256MB variant, maar onderscheidt zich positief van deze variant door de aanwezigheid van twee DVI-poorten. Minder positief is de toevoeging van een externe stroomaansluiting. Het blijkt dat het extra geheugen weinig invloed heeft op de prestaties. Zelfs op 1600x1200 met 4x FSAA en 16x anisotropic filtering is het verschil hoogstens enkele procenten. Daarnaast kan de kaart nieuwe games met deze instellingen niet met 60FPS op het beeld toveren wat het nut van het extra geheugen nog verder beperkt. De reviewer concludeert dan ook dat het aanschaffen van een dergelijke kaart zonde van het geld is, de aanzienlijk goedkopere 256MB variant is een veel betere keus.

Moderatie-faq Wijzig weergave

Reacties (42)

Het blijkt dat het extra geheugen weinig invloed heeft op de prestaties. Zelfs op 1600x1200 met 4x FSAA en 16x anisotropic filtering is het verschil hoogstens enkele procenten. Daarnaast kan de kaart nieuwe games met deze instellingen niet met 60FPS op het beeld toveren wat het nut van het extra geheugen nog verder beperkt.
Tja, door dat extra RAM worden dan weer 'casual gamers', die een vette kaart denken binnen te halen, misleid :o
Het is een kewstie van tijd...
Toen ik mijn 256MB kaart kocht was het volgens alle reviews toen ook overdreven..
En kijk nu eens, het is mainstream.
Als het de video kaart is die in je profiel staat dan ben je zelf ook in marketing getrapt.

Een geforceFX 5200 met 256 mb is echt niet snel te noemen namelijk. Met andere worden zonde van het geld vergeleken met een 128 mb variant. Ook als is het 20 euro verschil
then again.. de fx5600 zijn ook brak :)
Dat is helemaal bullshit want die chip is niet geschreven voor een bepaalde hoeveelheid geheugen, anders zou die 512MB helemaal niet werken.

Die 512MB is gewoon meer dan waar je met de huidige games behoefte aan hebt, of het is zoveel dat andere delen van je kaart een bottleneck gaan vormen en je er dus niks mee opschiet.
Volgens mij haal je een paar zaken door elkaar. 256 Bit/512bit bussen en het onboard videogeheugen.

De GPU is idd "geschreven" mét een bepaalde bit-bus, 256 bit is mainstream maar er zijn ook al 512 bits bussen (Matrox Parhelia?). Da's héél wat anders dan onboard video-geheugen, je opmerking slaat daarom taal nog teken.

Het enige wat al dat video-geheugen nodig heeft zijn de spellen, vooral de spellen met grote bitmaps, high-res afgebeeld (1600x1200), multi-layer texturing en dan ook nog met 4xAA en 16xAF. Alleen dan ga je veel geheugen aanspreken en is véél geheugen op je videokaart de moeite waard.

Natuurlijk heb je wél een krachtige GPU (en CPU) nodig om al dit fraais met een redelijke FPS op je scherm te toveren, wat zeker geldt voor de nieuwste spellen.

Speel je liever in 1280x1024 of lager (zoals ik, ik zie liever wat grotere figuurtjes dan dat ik een loep nodig heb) dan is 256MB of 512MB videokaarten algauw overkill.
Dat je een loep nodig hebt ligt natuurlijk maar net aan je beeldscherm :)

Ik speelde alles in 1024x768, maar nu ik een 17inch tft heb, 'moet' ik wel alles in 1280x1024 spelen. En dan is het niet kleiner :P
als je er totaal geen verstand van hebt zeg dan ook nix plz.
Het geheugen op je videokaart wordt gebruikt om textures in te laden zodat je deze in-game supersnel tot je beschikking hebt.
Dus zolang je geen grote textures gebruikt heb je sowiezo weinig aan veel geheugen. (zelfs 256 is in veel gevallen overbodig omdat veel mensen nog draaien op een vrij lage resolutie zoals 800x600 of 1024x768)
Ik zelf heb een X800XT-PE met 256mb geheugen en die draait HL2 zelfs nog soepel op 1920x1440.
Dus 512mb zal iig voor de huidige games en de generatie die komen gaat (3dmark05) nog zo goed als geen nut hebben.
Kijk liever naar de GPU dus.....
Ik geef je geen ongelijk.
Maar alles is tijdgebonden.
Over 2 jaar zijn huidige topkaarten ook prut.

En ja de FX5200 is nooit een goeie kaart geweest, maar draaide TOEN alles. Niet op volle resolutie, maar dat kunnen de eerste FX5600's ook niet meer.
Het is gewoon zo dat z'n chip "geschreven" is voor 256 mb en alles wat je daar extra opplakt werkt niet optimaal. Dus als er een chip op komt met native 512mb heb je er pas voordeel bij.
Inderdaad. Het is eigenlijk een kip en ei verhaal.
Videokaarten krijgen meer geheugen/snelheid/etc omdat men zwaardere games verwacht. Zwaardere games worden geschreven omdat men een bepaalde ontwikkeling verwacht in de ontwikkeling van hardware.
Ik denk dat het globaal zo werkt.
GeoForce2 komt op de markt. Direct daarna gaat men verder ontwikkelen voor GeoForce3. Maar omdat dat een dusdanig grote stap is duurt het te lang uit marketing oogpunt. Gelukkig kan men onderdelen/inzichten van de nieuwe GF3 ook gebruiken op GF2. Dus komt er een GF2 Pro en XT.

ATi en nVidia weten al erg veel van toekomstige games.
(contacten met grote developers) Ze zijn nu de volgende generatie kaarten aan het ontwikkelen waarvoor wel games zullen zijn. Als spinoff krijgen wij nu 512MB en natuurlijk omdat 'die andere doet het ook'
Wil je altijd het nieuwste v/h nieuwste dan word je lekker over de bak getrokken.
Echt een "casual" gamer ben je eigenlijk al niet, wanneer je deze kaart aanschaft. De "casual" gamer denkt dat ie nog genoeg heeft aan een videokaart van ¤50. Ik denk dat deze kaart goed is voor pc-bouwertjes, die zich kunnen onderscheiden met een videokaart van 512MB, waardoor een nietswetende YUP, die de kaart waarschijnlijk toch niet vol gaat benutten, denkt dat hij mega waar voor zijn toch al overvloedige geld krijgt......
offtopic:
een win-win situatie dus :D
driverheaven en beyond3d hebben ook al een review online

http://www.driverheaven.net/reviews/x800_512/
http://www.beyond3d.com/reviews/sapphire/512/

en er zullen er nog wel meer zijn ;)
Ik denk dat 512 MB geheugen alleen echt veel zin kan hebben bij topmodellen. Als de GPU toch niet de rekenkracht heeft om genoeg FPS op het scherm te toveren dan kan meer geheugen daar toch geen verschil in brengen.
512 MB is juist reuze handig voor moderne grafische schillen zoals Quartz in Mac OS X.

quartz extreme van mac os x bijvoorbeeld beeldt de backing stores van window elementen af op opengl surfaces. deze surfaces worden dan autonoom door de GPU in de framebuffer getekend. het uitzoekwerk hoe de windows overlappen e.d. wordt volledig door de GPU gedaan (compositing). hoe meer vram de GPU ter beschikking heeft hoe minder vaak de backing stores via de relatief trage weg van AGP8x/PCI-Express benaderd hoeven te worden. de hoge fillrate van moderne 3d videokaarten komt dankzij een voldoende grote "VRAM cache" volledig ter beschikking voor de GUI met minimale DMA transfers van pc werkgeheugen naar videoram.

op deze site kun je meer over deze GUI versnelling door GPU lezen :

http://arstechnica.com/reviews/os/macosx-10.4.ars/13

dit is de mac os x beschrijving, laatst was er op tweakers een beschrijving van een uitleg over de longhorn equivalent : aero. dus een voor gamers middelmatige kaart met veel vram is voor mac os x op dit moment lucratief en voor de windows wereld wellicht eind 2006 als longhorn gereleased zal worden.
Voor hogere resoluties dan 1600x1200 zou het wel kunnen schelen; bv de 23"/24" op 1920x1200 of de Apple 30" ACD met 2560x1600.
Die 30" apple heeft Dual-link DVI nodig en dat vind je nog niet op de moderne GPU (afgezien van apple GPU's en prof-kaarten). Aangezien normaal DVI (dus niet dual-link niet boven de 1920x1440 komt zullen deze GPU's ook geen baat van het extra geheugen hebben bij die "enorm" hoge resolutie's.
Als ik naar de plaatjes op T-Break kijk zie ik toch echt een dual link aansluiting.

Voor info over DVI aansluitingen kun je bv hier kijken

Edit: De ATI X800 XT (256MB) is toch echt verkrijgbaar voor de Mac met een Dual link DVI aansluiting....... Technisch is het dus goed mogelijk, of ATI het op deze kaart heeft toegepast een tweede.

Ik ga er trouwens niet vanuit dat de kaart het ondersteund. Er is namelijk vrijwel geen aanleiding voor. Enkel een paar schermen (zoals die van Apple en IBM) hebben resoluties die dual link benodigen. Maar blind aannemen dat de kaart het niet kan is ook wel erg makkelijk.Het is een kwestie van een dual link TMDS transmitter toevoegen. En aangezien de kaart al sowieso een single link transmitter nodig heeft (voor de tweede DVI poort) kan ATI best wel eens een stap verder gegaan zijn bij het referentieontwerp.
Ga er nou maar toch echt vanuit dat een X800XL echt geen dual-link ondersteunt ookal heeft hij de connector's.
Op de site van ATI staat er ook niks over bij de X serie, en bij een site die gespecialiseerd is in dual-link schermen stond deze kaart niet tussen het lijstje van mogelijke GPU's.
Zou kunnen inderdaad, die hoge resoluties trek je alleen niet in recente spellen, dus is het nog steeds niet nuttig :Y)

Het enige waar zulke hoeveelheden geheugen eventueel nuttig voor zouden kunnen zijn is volgens mij spul als de toekomstige GUI in OSen als Longhorn, waar elk windowtje in 3D gerendert word, en dus z'n eigen stukje geheugen opeet. Maar tegen de tijd dat Longhorn uit is, zijn we alweer 2 generaties GPU's verder :)
En over 2 jaar is deze kaart mainstream, en dat is het hele idee erachter.
Consumenten zonder verstand van grafische kaarten kopen deze op basis van het aantal Mb's geheuegen dat erop zit. Je hoort ze ook altijd zeggen "een 256 Mb videokaart", dit wil natuurlijk geen bal zeggen, maar ATI en Nvidia verdienen eraan dus ik verwijt ze niks, slim zelfs.
Zolang ik zelf maar weet wat goed is heb ik er geen last van.
Als nou al die "weinigwetende Mycom-(ver)kopers" deze kaartje kopen en ATI/nVidea veel winst maken, kunnen zij weer sneller een leuke nieuwe GPU voor de "veelwetende niet Mycom-(ver)kopers" ontwikkelen. :9
De kaart heeft dezelfde kloksnelheden als de 256MB variant, maar onderscheidt zich positief van deze variant door de aanwezigheid van twee DVI-poorten.
Weliswaar hebben de huidige kaarten welke zich baseren op het reference design van Ati slechts 1 DVI- en 1 D-Sub poort, echter de Asus Radeon X800 XL heeft wel reeds 2 DVI-poorten en zal toch echt een stuk goedkoper zijn dan dit nieuwe 512MB model :)
Vindt het zoiezo een beetje nutteloos om nu nog een nieuwe varaint van deze kaart uit te brengen. Over een maand worden waarschijnlijk de nieuwe kaarten van Nvidia en Ati al geintroduceerd(op de Computex beurs).
Ik denk dat deze hoeveelheid geheugen vooral handig is bij MMORPG games, aangezien ieder character een andere skin heeft is het niet het formaat, maar vooral het aantal textures, dat invoed uitoefend op de performance.
En daardoor kan veel geheugen wel een nut hebben, ook al is de kaart zelf niet snel.
Ik vind het dan ook jammer dat ze deze kaart niet getest hebben met bijvoorbeeld WoW.
Veel van de mensen hier denken te rechtlijnig. Dat het extra geheugen bij een aantal benchmarks geen prestatiewinst oplevert, wil niet zeggen dat dat in de toekomst ook niet gebeurt. Als er spellen uitkomen met grotere textures, kan die extra 256 mb wel degelijk de prestaties positief beinvloeden!

Het uiteindelijke voordeel van het extra geheugen valt dus absoluut niet te meten met huidige benchmark-software of de meeste huidige games.
Dat valt juist wel te meten.
Grotere textures zijn over het algemeen mooier, omdat ze meer details bevatten.
Meer details betekend meer werk voor de video-kaart, bij grotere textures heb je dus een snellere video-kaart nodig.
Veel geheugen op een slechte kaart plempen zorgt er wel leuk voor dat die kaart al die textures in zn geheugen kan hebben, maar verder kan ie er niet veel mee, omdat hij de rekenkracht niet heeft. De framerates zijn dus 2x niks.
Bij toekomstige games zal dit echt niet heel veel veranderen
Lijkt me niet dat deze kaart puur op gamers gericht is, aangezien GPU kracht bij games veel zwaarder weegt. Grafische programma's die veel grafische data verwerken en nodig hebben hebben zullen veel meer hebben aan zoveel ram geheugen. :Y)
Het bewerken van grafische data gebeurt toch vrijwel helemaal in het gewone ram? Heeft toch weinig met je ram op je videokaart te maken (afgezien van de hoogte*breedte*kleuren gegeheugengrootes van enkele MBs)?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True