Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: The Inquirer

The Inquirer komt met het bericht dat GDDR3 niet op tijd beschikbaar zal zijn voor zowel de NV40 van nVidia als de R420 van ATi. Beide nieuwe GPU's ondersteunen zowel DDR 1, GDDR2, als GDDR3 maar zullen gebruik maken van GDDR2. Dit komt doordat DDR1 te traag is om goed samen te werken met de grafische chips aangezien het maar tot 1GHz goed z'n werk kan doen. Het GDDR2 dat gebruikt gaat worden is hoger te klokken, namelijk 600 tot 800MHz wat 1200 tot 1600MHz effectief zal zijn, ruim boven de 1GHz-barrière van DDR1. Er wordt verder in het artikel gemeld dat de NV40 zestien geheugen-chips zal gebruiken en dat nVidia de geheugensnelheid op 750MHz wil laten lopen, wat effectief 1500MHz is.

ATi logo (klein)De hoofdreden dat GDDR3 niet gebruikt zal worden is dat het nu nog de sample- en testfase doorloopt waardoor het bij het lanceren van beide nieuwe GPU's niet in grote hoeveelheden beschikbaar zal zijn. De verwachting is dat GDDR3 in het derde kwartaal van dit jaar wel op de markt zal zijn, waardoor het waarschijnlijk gebruikt zal worden voor de volgende GPU's van beide fabrikanten: de NV45 van nVidia en de R450 of R480 van ATi.

nVidia LogoHet GDDR2-geheugen dat voor de NV40/R420 gebruikt zal worden heeft de extreem lage latency van 1,25ns, en gekoppeld aan de 256-bit geheugeninterface van beide GPU's zou dit een bandbreedte van ongeveer 37,5 tot 50GB/s opleveren. Ter vergelijking: een Radeon 9800 Pro heeft een theoretische bandbreedte van 21,8GB/s en de Geforce FX 5900 Ultra komt op 27,2GB/s.

Lees meer over

Gerelateerde content

Alle gerelateerde content (33)
Moderatie-faq Wijzig weergave

Reacties (39)

Nou is de vraag hoeveel dit in performance zou uitmaken ten opzichte van DDR3. Met de tijd dat ze DDR2 al wouden gaan gebruiken bleek DDR1 effectief op de kaarten nog sneller te zijn... Misschien hetzelfde effect als met de nieuwe P4, dat deze trager werkt op de eerste steppings maar hoe meer Mhz je eruit perst des te sneller ze gaan werken ten opzichte van de vorige steppings.
En natuurlijk kan DDR3 uiteindelijk hoger worden geclocked dan DDR2, wat (meestal) in een sneller resultaat komt. Hetzelfde geld voor DDR2 op DDR1...

Nouja dit is puur speculatie, we zullen de waarheid hopelijk snel zien.. Ik heb mijn Radeon 9700 Pro nou al zo lang, en sommige spellen draaien niet eens soepel meer op een beetje hoge settings... Dus toe aan een nieuwe kaart ben ik misschien wel :)

@fstieger99:
Overkill qua features is misschien wel waar, qua overlay op textures van ATi drivers waar niemand op zit te wachten omdat het dan 6x langzamer gaat draaien.. Echter kan het bij oude spellen natuurlijk wel weer leuk zijn. Maar dan nog, zo overkill zijn ze niet, als ik zie dat een Radeon 9800XT met een 3.2Ghz P4 nog niet alles lekker trekt.. Voorheen was het volgens mij altijd zo dat kaarten sneller waren dan de software, nu begint het andersom te komen en dat vind ik verdomt vevelend..
Ik denk ook dat GDD3 niet zo erg veel zou opleveren. Niet alleen redenerend vanuit de ervaringen met DDR2 en DDR1, maar ook gezien de veranderende eisen van de spellen.

Nu de GPU's en spellen helemaal via shaders gaan werken, zie je dat de geheugen bandbreedte minder belangrijk wordt, en het zaakje GPU begrensd wordt. HL2 was daar al een mooi voorproefje van.
GDDR3 is vooral qua stroomverbruik en dus ook warmteproductie zeer interessant, 50% minder is op z'n minst imprssionant. Ook de latency is lager dan zelfs DDR1 wat een serieuze winst geeft tov GDDR2.
indrukwekkend/impressive.

Latency is idd lager, maar access time daar hoor je niets over. 800 Mhz CAS 200-50-50-50 staat misschien leuk, maar effectief is het niet zo snel als je zou denken
Ik vind het van de huidige generatie videokaarten alleen zo jammer dat ze volgestopt worden met features die nu nog overkill zijn maar wanneer je ze echt nodig hebt er alweer iets snellers op de markt is.
Wij als consumenten lopen volgens mij allemaal met onze ogen dicht. :Z (mezelf incluis)
JC zei het enkele maanden geleden nog
eerstegeneratie hardware is eigenlijk vooral voor de ontwikkelaars
(Maar vergeet niet: de R300: 1e gen dx9 maar 2e gen dx8.1 en 3e gen dx7 ...)
JC moet dat wel zeggen, want zijn DX8 generatie engine met DX9 shadows lijkt anders wel erg ver achter te lopen op de uitgebreide DX9 engine van Valve.

En beiden willen natuurlijk de engine wel aan zoveel mogelijk andere ontwikkelaars verkopen.

(En ja ik weet dat JC's engine openGL is, maar zo is het onderscheid wat makkelijker aan te geven)

In de tijd van de GF1, 2 en 3 was het inderdaad zo dat eerste generatie hardware vooral voor ontwikkelaars was. Nvidia ontwikkelde zijn hardware ook met dat in het achterhoofd, en de ontwikkelaars hadden toch niet zo bijster veel behoefte aan de nieuwe features.

Met DX9 was dat anders. De ontwikkelaars hadden wel behoefte aan de features, en de hardware van ATI ook krachtig genoeg om er onmiddellijk gebruik van te maken.
DX9 shaders zijn er snel gekomen omdat HLSL zo snel te integreren was (en makkelijk te leren).
JC ligt mijlenver voor op de 'source' engine.
1) alle lichten zijn dynamisch
2) fysisch correcte schaduwen
3) geintegreerde physics (geen opgeplakte havoc, gewoon sneller)
4) uniform lichtmodel
5) alles is bump / normal of offset mapped
6) .. (de rest is redelijk technisch en wil ik anders wel eens later op in gaan)

kort: De D3 engine is een stuk voor, hoewel je dat op het eerste zicht niet ziet. Soft stencils (voor zachte schawusen) zijn wiskundig correct maar dus ook veel moeilijker (ongeveer 1/3 prestatie verlies) dus zijn ze nu nog geen optie. Uiteindelijk is de D3 engine de toekomst.

BTW heb je al eens de screens gezien waarop het verschil tussen het dx9 pad en het dx8.1 pad worden getoont in HL2, alleen een getraint oog ziet het! HL2 is net als pax payne, het eerste spel dat gebruik maakt van de nieuwe features, maar dat betekent niet dat het specifiek voor dx9 was gebouwd.
Oh ja, de D3 engine is zoveeeeel beter.
Alleen ziet D3 er uit als een DX8 spel met DX9 schaduwen.
Dan doe je toch wel iets ontzettend fout als het er ondanks een vermeende geweldige engine helemaal niet goed uit ziet.

(Kan het wel verklaren overigens, want JC heeft een deal met Nvidia. En een FX is nou eenmaal traag in DX9, behalve met de schaduwen. Dus het best case scenario voor een FX is een DX8.1 spel met DX9 schaduwen)
D3 is volgens mij geen DX, maar OpenGL...
Beter lezen:
(En ja ik weet dat JC's engine openGL is, maar zo is het onderscheid wat makkelijker aan te geven)
@garagaholic
dx versies staan ook voor features

@mjtdevries
1) Ik zie de dingen vanuit een technisch perspectief, hoe hard jou ogen je bedriegen kan ik nix aan doen.
2) Ander spel andere graphics, de stijl van D3 en HL2 is anders, btw check de d3 trailer www.doom3.com dan zie je onmiddellijk het verschil.
En wat voor features zijn dan bv overkill in de 9700/9800 Radeon serie?

Ik heb al de nodige spellen die een heel groot gedeelte van die features gebruiken. Eigenlijk is high dynamic range rendering het enige dat nog mist in spellen. Maar dat HL2 zodanig vertraagd zou worden was niet te voorzien.
Enkel HDRI? Wat dacht je van hardware bumpmapping (ofwel pixel/vertex shader 3.0, die eigenlijk volgens oude dx9 specs al in kaarten zoals de 9800 had moeten zitten)?
Alles wat je via shaders doet is per definitie software.

NB: Een shader is een stukje door de spel fabrikant geschreven programma code dat door de GPU wordt uitgevoerd. Net zo als een Pentium of Athlon dus software uitvoert.

Hardware bumpmapping zat in alle oude kaarten. En afgezien van de prestatie, was het grote nadeel dat iedere fabrikant zijn eigen versie had, en de spel fabrikant weer een nog iets andere variant zou willen.

Hoewel deze hardware nog wel in de videokaarten zit, wordt het compleet vervangen door de software bumpmap implementatie in de shaders. Voordeel daarvan is dat het op iedere videokaart werkt, en de spel fabrikant de meest geschikte variant kan uitkiezen. Hij kan het zelfs mengen met andere shaders (reflecties bijvoorbeeld...).

Prestatie is geen grote issue meer. Bumpmapping wordt op dit moment volop gebruikt. Zelfs een RPG als 'Knights of the Old Republic' stikt van de bumpmaps.

Wat op dit moment nog niet zo erg veel gebruikt wordt is displacement mapping. Misschien dat je daarmee in de war bent.
Bij bumpmapping wordt door lichtval e.d. alleen de illusie van relief geschapen. (Gebeurt dus in een pixel shader)
Bij displacement mapping wordt daadwerkelijk de vorm van het object veranderd. (Heeft dus een vertex shader nodig). Maar dat vergt dus verschrikkelijk veel meer rekenkracht, dus dat vermijd je als dat kan. Daarom zie je dit nog nauwelijks.

Het verschil tussen pixels shader, en vertex shader implementatie van dit soort effecten kun je vaak goed zien bij water. Met pixels shaders zie je prachtige rimpels, maar waar het water over gaat in land, bijvoorbeeld bij een rots, hou je gewoon een stationaire rechte rand.
Wanneer je hiervoor vertex shader toepast, zou het water inderdaad op en neer deinsen lang de rotsen.

Een mooie tussenoplossing zou zijn om grote oppervlakten met een pixel shader te doen, en de randen met een vertex shader. Moeten ze alleen nog netjes aansluiten. Dat moet toch wel te doen zijn.
Huidige generatie kaarten volgestopt met features die overkill zijn????

Noem eens een paar van die features, want ik zie niet in waar je dan op doelt.
Met de huidige focussering op shaders krijg je juist de situatie dat alle features in software uitgevoerd zijn.

Vroeger had je features in de vorm van bumpmapping, n-patches etc. Dat is allemaal verleden tijd. Dit soort zaken worden nu gewoon software matig uitgevoerd, in de vorm van shaders die soort de GPU worden afgehandeld.
In dat opzicht heeft de huidige videokaart net zo min features die overkill zijn, als een Pentium die heeft.
Ben blij dat ze geen GDDR3 gebruiken. Is in het begin toch alleen maar te duur en alleen leuk als 'patser-factor', maar net als AGP 8x en 256MB videogeheugen is het een overkill wat nog helemaal niet nodig is.
Daar ben ik het echt niet mee eens. De reden dat AGP 8x niet zoveel uitmaakt tov AGP 4x is dat het geheugen op de videokaart voldoende groot is om alle textures die in moderne games worden gebruikt te bevatten. Er hoeft dus helemaal niet veel data over de AGP bus heen gepompt te worden. Let wel; de bandbreedte is verhoogd, maar de latenties zijn niet afgenomen van AGP 4x naar AGP 8x. De AGP bus draait immers nog steeds op 66 MHz. Om dezelfde reden (textures zijn nog niet zo heel groot) is het gebruik van 256 MByte tov 128 Mbyte videogeheugen weinig zinvol. Echter, zeker bij anisotropisch filteren, heb je een enorme geheugenbandbreedte nodig. Je zal daar het resultaat van GDDR3 wel zien. Kijk maar eens naar benchmarks waarin het geheugen wordt overgeklokt. Je ziet meteen een toename in prestatie. Bij hedendaagse videokaarten is de geheugenbandbreedte immers vaak de bottleneck. Heb je ooit wel eens gehoord van mensen die hun AGP bus gaan overklokken? Ik niet; het is namelijk ook niet zinvol.
Je moet het in verband zien.
De reden dat AGP niet gebruikt wordt, is dat die geheugen bus veel langzamer is dan als je geheugen rechtstreeks op de kaart benaderd. Daarom dat je die enorme bergen geheugen op je videokaart krijgt. Zo gauw het zaakje niet meer in je geheugen van de videokaart past, gaat je prestatie keihard naar beneden.
En dus zijn spel fabrikanten voorzichtig met de grootte van hun textures, omdat ze magische barrieres overschrijven die enorme prestaties consequenties kunnen hebben.

In de toekomstige DirectX specificaties is men bezig dit probleem op te lossen via een nieuwe vorm van geheugen beheer. Je krijgt dan de situatie dat het geheugen op je videokaart als cache gaat werken t.o.v. je normale geheugen via de AGP bus.
Geheugen voor videokaarten is beduidend duurder dan je normale werkgeheugen, en qua kosten een zeer groot deel van je videokaart kaart. Er "gewoon" effe 512 MB opgooien is dus geen optie. (Kijk jij maar eens naar de prijsverschillen tussen 128 en 256MB kaarten....)

Het erge is, dat het grootste gedeelte van dat geheugen weliswaar gevuld is, maar NIET gebruikt wordt. Een complete texture staat ingeladen bijvoorbeeld, terwijl het hoogste (en grootste) mip-map niveau vrijwel nooit wordt gebruikt.

Helaas, op dit moment kan dat onderscheid tussen actieve en ongebruikte geheugen blokken niet gemaakt worden. Als er dan dus informatie over videokaart geheugen en normaal geheugen verspreid staat, krijg je de situatie dat de GPU zijn actieve data via de AGP bus moet halen. En dat wil je inderdaad niet.

Door een ander geheugen managment, zou je het daadwerkelijk gebruikte deel van bijvoorbeeld je mip-map op het videokaartgeheugen zetten, en de rest op je normale geheugen. Dat draait dus nog net zo snel als daarvoor. De AGP bus wordt dan alleen gebruikt voor het bijhouden van die cache, en dat kan met een lagere bandbreedte gebeuren.

Wat je dan krijgt is exact hetzelfde als wat nu bij CPU's gebeurd. De CPU kijkt ook niet direct in je ram, maar werkt ook via verschillende cache niveaus. Dat moet bij GPU's ook gaan gebeuren.

Je krijgt dat de situatie dat je duur video geheugen voor goedkoper normaal geheugen kan inwisselen.
Verder is de prestatie van je spel veel minder gevoelig voor de exacte hoeveelheid geheugen op de videokaart. Dat zorgt voor veel grotere flexibilieit voor de spel fabrikanten, en daardoor hogere beeldkwaliteit bij dezelfde hardware.
En verder is het natuurlijk plezierig dat je al die bergen geheugen voor je spellen ook voor andere toepassingen kunt gebruiken, i.p.v. dat het nutteloos staat te wezen.

Voor meer detail: http://www.beyond3d.com/articles/directxnext/index.php?p=2
hoezo probleem ? Geheugen word relatief steeds goedkoper, gooi er gewoon 512 Mb op als dat nodig is. Heb je geen moeilijke of trage AGP oplossing voor nodig. Je spel moet nml. constant ververst worden om soepel te draaien, sterke wisselingen van de pixel-stroom zijn daarom uit den boze. Het verschil mag dan ook maar zeer klein zijn en niet een factor 2X of hoger zoals met je systeemgeheugen. Dat je Office-app wat vertraagt zal niemand wakker van liggen, als je game om de X-sec vertraagt wel....

ps: over die prijsverschillen: Dat het soms zo'n groot verschil is, komt meer door de marketing/prijsstelling van de handel dan de werkelijke kosten van het geheugen. enkele vb:
De 9800 pro 128/256 MB verschillen zijn bij club 3D +/- 140 euro (240/380) , Saphire 270 euro (230/500) en bij de Nvidia 5900 TD(128) en Ultra TD (256) van de Asus is het "slechts" 100 euro (280/380). Kijk je naar de vlub-3D 9600 XT 128/256 is het maar 10 euro. In het ene geval kan het geheugen gewoon niet zo duur zijn (zie Saphire) en in het andere weer niet zo goedkoop (Club-3D). Maw: geen touw aan vast te knopen. De winkel kiest zijn winst-marge naar believen.
je vergeet iets, 512 Mb is nu nog overkill

1) of je gebruikt zeer veel chips (32 of 64) en je hebt een V5 6000 achtig bord qua grote en onoverzienbare complexiteit
-> te duur, economisch zeker niet haalbaar
2) je boet snelheid in voor quantiteit
-> geen optie voor de huidige 3dkaarten
hoezo probleem ? Geheugen word relatief steeds goedkoper, gooi er gewoon 512 Mb op als dat nodig is
Geheugen voor videokaarten met lage latency's en een hoge clocksnelheid is helemaal niet goedkoop.

Jij vergelijkt normaal PC3200 (400MHz effectief) geheugen met dat op videokaarten wat vaak genoeg op 600 tot 800MHz effectief draait. Dit is dan ook veel duurder en zeker bij bijv. een FX 5900 Ultra kun je er niet zomaar 256MB bijprikken zonder grote prijsstijging.
iets trager Videogeheugen is nog altijd sneller dan je werkgeheugen en niet zo duur als het snelste video-geheugen. Ik zei 512, echter ALS dat nodig is. 256 Mb is voorlopig nog meer dan genoeg, klopt.
Nieuw geheugenmanagment is leuk, maar niet relevant. Het word nog niet gebruikt. En als er meer geleund gaat worden op je systeem-geheugen, moet je dat ook weer uitbreiden. Kost ook weer geld.
Ze kunnen natuurlijk ook een videokaart maken met 2 geheugen-kanalen; 1tje voor het supersnelle geheugen voor de actieve blokjes en 1tje voor de grote mip-maps. Zelfde idee, maar nu gewoon onboard. Geen gezeik met bussen op je mobo, agp/pci-express fratsen en chipsets.

De beste weg is nog altijd de kortste.
Als ze het geheugen-managment buitenom, via een omweg kunnen lussen; kan dat zeker ook onboard. Hoeven ze ook geen moeilijke, omslachtige oplossingen te verzinnnen.
De reden dat AGP 8x niet zoveel uitmaakt tov AGP 4x is dat het geheugen op de videokaart voldoende groot is om [..]. Er hoeft dus helemaal niet veel data over de AGP bus heen gepompt te worden.
Dat "grote" geheugen moet ook (steeds) gevuld worden. Daar brengt het nog wel iets.
Heb je ooit wel eens gehoord van mensen die hun AGP bus gaan overklokken? Ik niet;
Ik wel, maar het leidt vaak tot instabiliteit.
De mijne draait stabiel op 86 mhz ipv 66, videokaart is helaas maar agp 4x. (Ti4600, doet het overigens nog steeds vrij goed in alle games)
1.25ns is niet de latency, dat is de rating - die ook in MHz wordt uitgedrukt.

De echte "latency" zal zoals gewoonlijk vele male hoger zijn dan dat van systeemgeheugen, enkel bruikbaar voor grafische kaarten.
1.25ns = 800 Mhz (dus 1600 DDR)

F = 1 / t(s)
Latency en access time zijn belangrijk..

Daarom zie je ook geen BH5 reepjes met ATI DDR-1 er op gesoldeerd :+
Zal Ati en nVidea weinig uitmaken lijkt me. In ieder geval een goed excuus om snel na lancering van hun producten met ultra-versies te komen inclusief GDDR3...
kunnen ze die dingen niet ombouwen tot een soort CPU... :-| mij lijkt het dat intel en AMD behoorlijk achter blijven bij ATI en NVIDIA
waarom? dat de geheugen interface 256 bit is wil niet zeggen dat de gpu zelf dit ook is.
....hier gaat dus toch nog de wet van murphey op...bijna alweer een verdubbeling :P hebben we al een richtprijs? iemand...niet te hard zeggen hoor.
Nu alleen nog een game die deze sloot aan bandbreedte kan vullen...
Dat zal er wel weer op neer komen dat wanneer het wel beschikbaar is ze weer een mooie ultra versie op de markt kunnen gooien die ook meteen ultra duur is.
750 Mhz? Binnenkort mogen onze vrienden van Tom's Hardware Guide die kaarten eens testen met vloeibaar helium, is toch voor superconductors. :P
aan de 256-bit geheugeninterface van beide GPU's zou dit een bandbreedte van ongeveer 37,5 tot 50GB/s opleveren.
wow dat vind ik wel bruut hoor, ben erg benieuwd wanneer dat een bottleneck gaat opleveren ;)

gaan we gewoon door ofzo? 512-bit geheugeninterface, 1024-bit geheugeninterface..
waar is het einde????

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True