Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 71 reacties
Bron: X-bit Labs

Naar verwachting zullen er in het najaar videokaarten verschijnen met 512MB geheugen. Wellicht zullen ATi en nVidia hun partners vragen hun nieuwe high-end videochips, waar- schijnlijk de R480 en NV48, te combineren met 512MB GDDR3-geheugen. Het geheugen van videokaarten wordt over het algemeen elke twaalf ā achttien maanden verdubbeld. Aangezien de eerste non-professionele kaarten met 256MB geheugen, de GeForce FX 5900 Ultra en Radeon 9800 Pro, midden vorig jaar geīntroduceerd werden, lijkt het aannemelijk dat de stap naar 512MB in de tweede helft van dit jaar zal worden gezet. Het feit dat er nu ook low-end kaarten met 256MB geheugen beginnen te verschijnen, lijkt dit te versterken.

Het is overigens nog maar de vraag of de stap naar 512MB geheugen veel zal uitmaken voor de prestaties. Bij de eerste generaties videokaarten met een nieuwe geheugencapaciteit is er meestal geen performanceverbetering, althans niet als gevolg van het extra geheugen. Maar uit marketingtechnisch oogpunt is het wel interessant, aangezien de minder goed geīnformeerde consument sneller de neiging zal hebben een kaart te kopen met meer geheugen. Of we deze herfst daadwerkelijk 512MB-videokaarten zullen zien, hangt af van ATi's en nVidia's partners, die de videokaarten bouwen. Mogelijk oordelen zij dat de productiekosten door het dure GDDR3-geheugen te hoog zijn om het rendabel te houden.

nVidia GeForce FX 5900 Ultra perspic (topview, groot)
De GeForce FX 5900 Ultra, een van de eerste consumentenkaarten met 256MB geheugen
Moderatie-faq Wijzig weergave

Reacties (71)

Het kan blijkbaar wel al goed zijn om Doom3 in Ultra modus te spelen.

Ultra modus vereiste een 3.4 gig P4 of equivalent AMD systeem. 2 gig ram, en geforce 6800ultra of ati x800xt met 512 ram

Zeker met toeters en bellen als AF en Anti Aliasing aan, met hoge resoluties, zal die 512 ram misschien benut worden :o
Onzin, antialiasing heeft niets met geheugen van de videokaart te maken. Dit wordt volldig verzorgd door de GPU (zoniet de CPU).

Resolutie heeft ook niet te maken met het geheugen.

Textures en vertexes is de enige data die in het geheugen van een videokaart worden geladen.

En ja op dit moment is 128 MB voldoende. Alleen voor de toekomst weet je het niet. Dus genoeg geheugen is er nooit.
Je moet hier niet de slimme gaan uithangen :+ , want sommige grafische kaarten gebruiken supersampling als Anti -aliasing techniek. Dit betekend dat die kaarten alles intern renderen met 4096*xxxx ofzo. Dus het maakt dan wel degelijk uit hoeveel onboard ram je hebt volgens mij !
Ik heb het op opgezocht

http://www.ibiblio.org/hwws/previous/www_1999/presentations/z3/sld008. htm

http://www.cs.virginia.edu/~cs551dl/lecture8/sld008.htm

en je hebt gelijk.

Dit heeft wel alleen te maken met het antialisassen van textures. Maar dat is toch het voornaamste dat je ziet in een spel.

Dus mijn oprechte excuses

Ik moet mezelf nogmaals verbeteren:

With the release of the GeForce 2, NVIDIA introduced a basic but efficient anti-aliasing method called supersampling that used different 2x or 4x levels (using a 2 or 4 times higher resolution). It works like this: when supersampling is enabled the GPU internally rendered the scene in a higher resolution than the one it should be displayed in, and then lowered the resolution by applying a filter before the scene can be finally displayed. The major drawback of this technology was the fact it really slows down the whole graphic display resulting in a poor FPS rate. NVIDIA’s answer to this problem is the new QuinCunx extension brought by the GeForce 3. Their new technique is supposed to give the visual result of a 4x anti-aliasing with the speed of a 2x one. To do so, QuinCunx (no, this is not slang!) interpolates pixels more efficiently than before: instead of using only two points of the scene to interpolate colors, it now combines adjacent pixels.

(link: http://www.activewin.com/reviews/hardware/graphics/hercules/3dprophetI II/gpu2.shtml).

Dus het geld niet alleen voor textures maar voor de gehele 3D scene.
Voor de toekomst weet je het zowiezo nooit, maar je gaat niet een pc kopen die klaar is voor de toekomst, want dat is een pc nooit :? Het maakt vandaag de dag niet uit of je een 128 of 256 mb kaart koopt. en voor de dag van morgen, dat zie je morgen wel weer......
Dan denk ik dat het snel over is met het PC gamen. Voor het zelfde bedrag als alleen die videokaart heb je dan drie consoles met drie verschillende superspellen.
Tja en dan heb ik het nog niet over twee gigabyte geheugen en een processor van minimaal een halve rug (in euro's)
Ik hoorde dat je voor Unreal Engine 3 minimaal 1024MB nodig hebt om het echt optimaal te kunnen draaien, vanwege de textuur resoluties van 2048x2048 en dan ook nog Pixel Shader 3.0. Dat staat op een cd met video's van E3.

Ik zie het nu al voor me
ATi Radeon 9200SE 512MB
Tja 2048*2048. Dat is 4,1 miljoen pixels. Als je draait op 1024*768 heb je dus in theorie 20% van de power nodig. En op 1024 zijn de meeste spellen nog vrij goed te spelen.
Ik wil niet veel zeggen, maar ik kom toch nog steeds oude spellen tegen die mijn Geforce3 nog steeds niet vloeiend kon spelen al waren die spellen 2 jaar ouder dan de kaart. Kaart was van 2001. Nu bijvoorbeeld bij mijn Radeon 9600XT heb ik ook nog steeds dat spellen van 2001 soms niet vloeiend spelen, of hoogste settings. Met andere woorden, als je van een spel van 3 jaar oud met een huidige kaart speelt en je zet alles open, dan nog kun je een framerate drop krijgen.
Ik heb een AthlonXP 3000+ 400fsb, 512MB Dual DDR 400, Radeon 9600XT en NForce2-400U chipset (Asus A7X8-E Deluxe)
Van alles gebruik ik de laatste drivers.

EDIT: Klopt inderdaad wel dat een 9800Pro sneller is dan een 9600XT in hoogste settings, maar je verwacht toch wel van een 9600XT dat spellen van 3 jaar oud met een hoge framerate speelbaar zijn op hoogste settings, anders zou het betekenen dat spellen plus minus met specs worden geschreven voor 3 tot 4 jaar de toekomst in voor een High-end kaart. Wat dus nu het geval is. Ik bedoel ik weet dat een 9600XT een Mid-End kaart is, maar samen met de rest is het toch een redelijk snel systeempje...3 jaar geleden waren de eerste AthlonXP's (1400+, 1600+, 1800+) High-end.

EDIT2: Moet je die 80fps ook nog eens een keer halen.
Mja - hoe relevant zijn framerate drops? Ik vind alles boven de 80fps acceptabel, eerlijk gezegd.

Daarnaast zie je veel brakke software (Steam/Counterstrike anyone?) waar mensen met een GF2 GTS hogere framerates halen dan mensen met bijvoorbeeld een Radeon 9600Pro

Ben wel benieuwd hoe dat gaat uitpakken met HL2 straks..
"Alles boven 80 fps is acceptabel": je denkt nog steeds dat je ook maar enig verschil ziet boven 30 (ok, misschien 40) fps? Vroeger, in de tijd van "my first Voodoo2" was ik superblij met 30fps op 800x600 in Half-Life, daarvoor haalde ik nl maar 20 op 640x480 met m'n Rendition v2100.
Ik zie duidelijk verschil tussen 60fps en 80fps, maar schijnbaar heeft niet iedereen zulke goede ogen als ik.
...dan zul jij je flink ergeren in een bioscoop. Daar is de framerate 24 fps.
Wat dacht je van Grandprix 4 met updates en patches, hoogste settings, 32fps, maar vaak drops naar 24fps. Spel is van 2002. Dus deze is 2 jaar oud.
Nu heb je het wel over een grafische engine die schaalt met de vooruitgang der techniek ;)
Het verschil tussen een radeon 9600XT en een 9800 pro is wel zeer groot in de hoogste settings.
aangezien de minder goed geīnformeerde consument sneller de neiging zal hebben een kaart te kopen met meer geheugen.
Straks krijg je nog n00bs met meer geheugen op hun GPU dan op hun mobo :o.
Dat was vroeger bij sommige MSX'en ook al het geval: 64 kb geheugen en 128 kb videogeheugen.
Een van de voordelen van AGP was dat de videokaart gebruik kon maken van de overcapaciteit van het interne geheugen. Zullen ze binnenkort mobo's en videokaarten introduceren die het tegenovergestelde kunnen :+?
Linux KAN dit al jaren (min of meer)

Linux kan het videogeheugen gebruiken als block device zodat je er swap op kan zetten, of een filesystem.

Ik kan me voorstellen dat het voor een kernel programmeur niet onoverkomenlijk is om dit videogeheugen te 'mappen' als hoofdgeheugen en dit via NUMA-technologie efficient in te zetten.
Wat een onzin om 512 MB op een videokaart te zetten. Het verschil tussen 128 en 256 MB is al nauwelijks merkbaar. De textures die in huidige games gebruikt worden (ja, ook in de nieuwste Half Life 2 en Doom 3) passen daar al makkelijk in.
Ik geloof dat er in Doom 3 levels zitten die 160 MB aan textures zullen vreten. Tuurlijk nog ruim genoeg voor 256 MB kaarten maar bij 128 MB ga je swapping krijgen. Niet dat het belachelijk veel zal uitmaken waarschijnlijk, maar toch het even aan te geven dat het wel zeker handig kan zijn om 256 MB te nemen. Al is 512 MB op het moment nog zeker wel overkill.
Mooi dan wordt er tenminste iets gedaan met die AGP 8x bandbreedte. :)
Als textures geswapt gaan worden gaan de prestaties zeker achteruit, heel erg. De bandbreedte van 30-40 gb/s van videogeheugen is heel wat meer dan de, wat was het ook alweer voor AGP8x, 3,2gb/s ofzo? Een heel groot verschil in ieder geval.
Om Doom 3 op de hoogste kwaliteit te spelen zal een 512MB tellende grafische kaart benodigd zijn.
Doom3 esysteem eisen:
Een CPU van 2GHz tot 3GHz, een GeForce 4 of vergelijkbare kaart en 512MB RAM wordt in staat geacht tot goede spelprestaties; vanaf meer dan 3GHz CPU, een GeForceFX 5800 of vergelijkbaar en meer dan 512MB geheugen wordt er gesproken van een geweldig systeem dat uitstekende framerates en spelprestaties zal neerzetten.
Waar haal jij de wijsheid vadaan dat je voor doom3 een vga kaart met 512mb geheugen nodig hebt?
Zelf geven ze aan dat een systeem met een GeForceFX 5800 al geweldig zal zijn, en dat terwijl een FX 5800 nou niet echt een topper van de bovenste plank is.

Zelf denk ik dat niemand momenteel zit te wachten op een vga kaart met 512mb geheugen. De prestaties gingen van 128mb naar 256mb ook niet denderend vooruit.
In unreal tournament 2004 staat geneens een optie op je texture filtering van compressed af te halen.
trouwens, met alles op highest in 1600x1200@32 bit draait alles nog perfect in dit spel (32 bots op adept anders kan ik het niet winnen).
Hij heeft gelijk, ik heb het namelijk ook gelezen, voor maximum resolutie ongecomprimeerde :P textures in Doom3 heb je niet genoeg aan 512MB op de videokaart.
Zet voor de lol eens texturecompressie uit in ut2k3/2k4 en kijk wat dat doet op je kaartje, 5fps ofzo op een 128MB :P
lache, namelijk om in 2006 fatsoenlijk de nieuwste unrealengine based games te kunnen spelen heb je een videokaart nodig met 1GB aan geheugen..
dus dan ben je er met 512 nog niet..
Doom 2006 zal waarschijnlijk in 2010 uitkomen :P
En ik kan me ook niet voorstellen dat HalfLife 2 geen high-res texture mogelijkheid heeft. Voor textures van 2048/2048 is 512 MB ook geen overbodige luxe.
512MB is trouwens al achterhaald, ik ben nu een HD aan't tweaken op m'n videokaart, dus binnenkort een 80GB-videokaart :+
ddr3 6.4gbit throughput maximum. je hdd 150mb (indien het een sata is) maximum... ik zie een klein probleem ;)
wat ik niet snap trouwens wat ze beschrijven is dat iedere 24a36 maanden het geheugen verdubbeld maar de bandweidte van het geheugen wordt ook steeds hoger. dus de theoretische doorzet van het geheugen verdubbeld niet in 24 maanden met verviervoudigd zelfs
waar haal jij die 6.4gbit vandaan?
per chip misschien maar met een snelheid van 1000mhz effectief en een busbreedte van 256bit kom ik toch op iets andere cijfers. zoals 32Gbyte/s
Dan moet je wel niet gaan zeuren als je videokaart retetraag wordt :Y) :+
Raid 50 installeren begrijp ik uit een post van Femme met minimaal vijf schijven. Dat zou het op moet lossen.

Nu nog wachten op G-NTFS-3
Ze doen er ook alles aan om BeOS uit de markt te duwen, ze moeten van het 1GB limiet van BeOS afweten, en aangezien het videokaart geheugen daar ook in word meegerekent, ben je snel de lul :+
Misschien kan iemand iets schrijven zodat als we niet gamen (gebeurd ook wel eens) dat geheugen dan kunnen gebruiken als extra werkgeheugen ??? :) :)
Dan zou het misschien makkelijk zijn , anders zie ik hier het nut ook nog niet echt.
Ja, dat wordt nu inimiddels wel interessant. Als je al een kaart van 256MB hebt, gebruik je daar maximaal (bij 1600*1200*16M) ongeveer 5,5 mb van. Dan is 250MB extra werkgeheugen toch mooi meegenomen.
Tja dan zit je weer met het principe van shared memory op je VGA eigenlijk.....Liever niet hoor voor mij.....
Ja maar met shared memory gaat het van je standaard werkgeheugen af, nu komt het erbij }>
Het is maar een idee.
ja dat denk ik ook altijd.. en als je toch bezig bent kan je meteen de processor ook gebruik :D
Longhorn zou toch toch al de GPU gebruiken om vector based pictogrammen / lettertypen te berekenen ?
En die nieuwe S3 Kaarten worden gebruikt bij encoderen van verschillende videoformaten.. en volgens mij hebben ATI en nVidia ook support voor encoden van een (beperkter) aantal videoformaten.
DirectX 10 zal vermoedelijk een nieuwe geheugen managment systeem introduceren, waarbij het geheugen op de videokaart werkt als cache voor het werkgeheugen. (Net zo als bij een CPU)
Nuttig, want 80% van het geheugen op de videokaart wordt niet actief gebruikt. Dus helemaal geen probleem om dat weg te swappen naar je normale werkgeheugen via de AGP bus.

Dan kan de hoeveelheid duur video geheugen op de videokaart weer teruggebracht worden tot normale porties (64MB ofzo) en is je normale geheugen voor alle toepassingen bruikbaar.

Zal alleen nog wel een jaartje of twee duren voor we zo ver zijn...
Er zijn geruchten dat ATI en MS met de Xbox2 deze technique al gaan toepassen.
denk dat het pas volledig benut wordt over enkele jaren :)
Dat is een beetje het kip en het ei probleem he...

Zolang er nog amper mensen zijn met een bepaalde kaart zullen er ook nog niet echt spelletjes voor zijn. Maar zodra een bepaalde kaart er is, zijn er nog niet direct spelletjes die hem ten volle benutten...
Vind ik niet.

FarCry benut toch al aardig de krachten van de nieuwe kaarten van Nvidea en ATI. De 6800-serie en de X800 serie.
Klopt Farcry op de hoogste setting krijgt mijn systeem nu al op de knieeen.
Een AMD64 3000+, 1000Mb ddr400, 9800XT 256Mb.

Sommige binnen scenes met veel tegenstanders werd het beeld schokkerig en het vulcano level werd zelfs een slide show!!!

Ik weet niet of het geheugen op de videokaart de beperkende factor is. Vaak zijn de videokaarten linear sneller met de kloksnelheid van de CPU. Dus het is wachten op een test van Anandtech of Ome Tom.
dus met andere woorden akan ik beter me x800 XT cancelen en w8en tot de herft??

bedoel kep nix aan een 500 euro video kaart die geen doom3 aan kan op hoogste settings kunnen spelen. pfff ik wil best wel wat geld uit geven voor een video kaart .. maar wil dan wel de beste hebben...
Als je het goed programmeerd zou dat prima moeten gaan. Volgens mij is het iig wel sneller dan gewoon ram maar het lijkt me dat de agp bus een beperkende factor wordt met max 2GB/s

Buiten dan lijkt me het onmogelijk aangezien dit geheugen er niet voor is gemaakt. Je kan toch ook niet zomaar MacOS op een pc installeren ? ( toch? :+ )
Buiten dan lijkt me het onmogelijk aangezien dit geheugen er niet voor is gemaakt. Je kan toch ook niet zomaar MacOS op een pc installeren ? ( toch? :+ )
Wat heeft geheugen architectuur te maken met processor architectuur? Bar weinig ... het gaat dan om adresseringen... vrij transparant gaat dat voor het OS ... daar heb je chipsets voor ;)
Een jaar geleden was ik zo blij met de video-card, waarvan hierboven de pic staat, echter lijkt het nu zo gedateerd? Toen ik mijn 128 mb 9800 pro vergeleek met mijn nieuwe 5900U dacht ik toch echt een groot verschil te kunnen waarnemen.
Geloof dat mijn bankrekening de enigste was helaas :) En toch ga ik weer voor een verdubbeling van het video-memory maar dan wel in PCI-E.

Het 'kijk mij eens hebben' gevoel is ook wel leuker
hey, als je geld over hebt, leef je uit :)

maar ik zou 't geheugen op een videokaart niet de doorslag laten wezen voor welke kaart je koopt

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True