Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Bron: EE Times, submitter: silentsnow

De EE Times schrijft dat fabrikanten van videochips zoals nVidia en ATi in samenwerking met verschillende geheugenboeren de GDDR-3 standaard hebben ontwikkeld. De technologie zou volgend jaar op te markt komen in de vorm van 16 en 32MB chips met snelheden van 500 tot 800MHz (1,0 tot 1,6GHz effectieve datarate). De nieuwe standaard lijkt erg veel op DDR-II, maar er zijn twee grote veranderingen aangebracht. Ten eerste is het geheugen beter geschikt voor korte point-to-point verbindingen, in plaats voor gebruik op DIMM's, waarbij er gewerkt moet worden met een bus. Ten tweede is het stroomverbruik aangepakt. De GPU-industrie heeft al vele jaren een grote behoefte aan het snelst mogelijke geheugen, en alleen door de krachten te bundelen met elkaar en een paar bedrijven zoals Samsung kon aan deze vraag worden voldaan. Wachten op een echte JEDEC-spec is vanwege de korte productcycli namelijk geen optie. Openheid en kwaliteit staan volgens de bedrijven wel hoog in het vaandel:

Samsung 512Mbit DDR-II BGA chips (klein) Pushing the DRAM spec through Jedec would have taken too long for graphics chip companies that are used to churning out new products every nine months, Litt said. But all the DRAM vendors nevertheless took part in the process of developing the spec. Litt said ATI's competitors, such as Nvidia, have also taken part in the process, and participants made sure that it will be open and royalty-free.

[...] "The two features in combination allows us to simplify the design and hit high frequencies," Litt said. "The problem with DDR and DDR-2 is that the margins are getting tighter and tighter as we move up in frequencies. We started DDR at 10-nanosecond cycles and now we're dealing with cycles of 1 and 1.5 nanoseconds. There's not a lot of time to get on, do your work, clean up and get off."
Moderatie-faq Wijzig weergave

Reacties (37)

Goede zaak dat die Jedec standaard nu ontwijkt wordt.

De standaard voor KT400 duurt ook zo lang, daar moet de ontwikkeling niet op stuklopen.
Er is een wezelijk verschil tussen het geheugen op een videokaart en het algemene geheugen. Voor een Geheugen voor een videokaart koop je niet los, dat zit op de kaart en werkt. Of er een standaard wordt gebruikt of niet boeit niet echt. Voor het geheugen wat je op je moderbord prikt is dat wel belangrijk omdat je graag zelf je geheugen wil kiezen, en je graag wilt dat het werkt op je moederbord.
Geheugen moet ALTIJD met een standaard worden ontworpen. Of het nu op het consumentenniveau in een mobo geprikt moet worden of door een videoplank fabrikant in een videoplank wordt gesoldeerd. Als er geen standaard is schiet het niet op. Denk namelijk maar niet dat een Asus, Gainward ofzo een eigen geheugenchip gaat ontwikkelen...

Een standaard, maar dan op industrieniveau. Komt vaker voor dan je denkt!!
Geheugen moet ALTIJD met een standaard worden ontworpen. Of het nu op het consumentenniveau in een mobo geprikt moet worden of door een videoplank fabrikant in een videoplank wordt gesoldeerd. Als er geen standaard is schiet het niet op.
Dit geheugen wordt ook gewoon een standaard, alleen is dit niet een standaard volgens de JEDEC. Deze standaard is van o.a. ATi, nVidia en Samsung (en waarschijnlijk ook Nanya).
Eigenlijk was er al zoiets bezig bij nVidia.... Zij accepteerde, vanaf de GF3-reeks, namelijk ook niet zomaar elk type geheugen op kaarten die van hun chip waren voorzien.
bullshit man,... geheugen op een videokaart wordt niet veranderd.. aan een standaard heb je alleen maar wat in een veranderende omgeving.. maar das met een videokaart niet het geval.. van mij mogen ze iets ontwikkelen dat zupah snel maar geen standaard is :) zet maar op me videokaart.. dan r0x0red ie toch meer dan die kaart mét geheugen dat aan een standaard voldoet!
Yep. Zoals DVD+RW versus DVD-RW, Real Player versus Windows Media versus Quicktime. Windows vs Linux vs Apple Handig hoor, die 'industrie-standaarden' :)
Tja, dat kun je ze eigenlijk ook niet kwalijk nemen. Het is al jaren geleden afgesproken dat DDR400 een DDR-II standaard zou worden. Als men dan ineens chipsets gaat bouwen voor 200MHz DDR-I geheugen en dat "DDR400" gaat noemen, dan moet je ook niet raar staan te kijken als er geen standaard voor is.
Maar wat heeft het voor zin om als Graphics geheugen of graphics chipset boer te gaan werken aan supersnel geheugen terwijl anderen niet meewerken, want de bottleneck zou dan de rest van de pc zijn die die snelheden gewoon niet halen, AGP kan niet die bandbreedte geven die de videokaart aanbiedt...toch?
De bandbreedte is het geheugen van de videokaart zelf. 3dfx kaarten hadden een veel grotere bandbreedte dan de nVidia of Ati kaarten toen hadden. Nu is bandbreedte nog steeds een probleem. Echter kan een 256bit geheugenbus dat wel voor een deel goedmaken.
Ligt er maar aan hoe je het belijkt. Voor de VGA-kaarten is AGP altijd een bottleneck zodra er gebruik van word gemaakt. De lijnen GPU/AGP/Geheugen/CPU en weer terug zijn een stuk langer dan alles wat de VGa-kaart zelf doet. Vergeet niet dat AGP ontwikkelt is als extra geheugen bovenop het onboard-videogeheugen door een Poort naar je hoofdgeheugen/CPU te maken. Bovendien is "gewoon" geheugen lang niet zo geschikt voor texture-afhandeling dan het video-geheugen. Dat verklaart ook telkens weer de kleine verschillen tussen AGPx1/x2/x4/x8. Waarom ?

Omdat de VGA-bakkers ook niet gek zijn en er het liefst voor zorgen dat er sim-pelweg genoeg video-geheugen aanwezig is, waarempel! daarom zijn er al 128MB + video-kaarten. Wat de kaarten dus echt goed sneller maakt is sneller video-gehuegen, snellere core en een bredere bandbreedte op de kaart zelf.

Dit nieuwe geheugen gaat i.s.m. de nieuwe cores weer de grensen verleggen, op naar de 30.000 3D-Marks ! :+

edit:
Doe maar es een test met een AGPx4 kaart en 16Mb videogeheugen en ga dan eens GTA3 of Mohaa spelen ....moet jij eens zien hoe snel APG is ...
Een bredere bus levert je alleen wat op bij grote pakketten data. Dus bijvoorbeeld een texture. Echter als je de diepte van een bepaald pixel(pixel is niet helemaal het juiste woord, maar weet even niet 't beter) die is opgeslagen in 32bits, dan kan je nog een 512bits bus hebben, maar die wordt dan slecht benut.

Tevens leverd elke vergroting meer overhead. Kijk maar naar bijvoorbeeld geheugen, AGP 2x t.o.v. AGP 4x etc. etc.
Alles wat de GPU gaat gebruiken in de volgende te renderende scene en daarop volgende reeks worden door de texture manager geladen zoveel mogelijk als er in passen tegen woordig is local videomemory groot genoeg.

Het verwerken vereist veel bandbreedte en die 20Gb/s lijkt veel maar niet voldoende.

maar die 1,066GB zeg maar 1,1GB/s is ruimvoldoende voor die T&L van de GPU aan te sturen.
die 2,1 van AGP 8x heeft dan ook geen/weinig invloed op de performance maar die bandbreedte vergroting en optimalisaties wel van het video geheugen zodat AF & FSAA en high resoos met grote kleurdiepte niet zo'nm performance hit van jeweste krijgen.

En de game ontwikkelaars mijden AGP DME gebruik aangezien dit voor 'n aanzienlijke performance hit zorgt dus richten ze zich op de mainstream target en dat is nu tot 64MB pas als 128 mainstream zal worden zullen er pas op grotere schaal games komen die daar gebruik van gaan maken.

en je kan wel zeuren over dat agp de bottle nack is maar die is afhankelijk van het systeem geheugen wil dat weg dan moet het syteem zelf ook krachtig geheugen gebruiken als videomem.
En dat zie ik niet zo gauw gebeuren aangezien meer meespeeld bij mobo/geheugen implementatie design.

800Mhz DDR(1600eff) op je mobo zal er in jaren nog niet komen.

Die zoogenaamde bottleneck's in het systeem hebben vooral invloed op initialisatie.
Als de textures gecached moeten worden naar vidmem moet het allemaal eerst effe door de AGP bus
vanaf sytmem of zelfs hardeschijf.

En dat gebeurd als een game veld, missie, sectie geladen wordt. daar hebben de bottleneck's invloed op. Tijdens runtime spelen die op 'n gebalanceerd systeem geen rol.

Dan is het SysMem / CPU / GPU / VidMem
Die worden zwaar belast.
HD's en AGP spelen hierbij geen grote rol
waarom hoor ik nou niemand over latency? Is dat iets wat hier niet tenspake is? ik kan me nog goed herinneren dat RDRAM ook zo ontzettend snel was voor die tijd (en nu nog steeds wel) maar door de hoge latency van RDRAM was DDR-RAM toch sneller met het snel opnieuw laden van het geheugen enzo..

wat is trouwens nou prcies de maximum doorvoer snelheid van AGP? stel agp = 256bit bus en draait op? 80MHz? kan de AGP poort dan 256*80MHz aan bits doorpompen? en waar zit die 2/4/8x dan in verwerkt?

En ook daarvoor geldt weer.. tis wel leuk dat er in ontzettend korte tijd erg veel data naar de videokaart kan.. maar wat nou als er de hele tijd kleine hoeveelheden data 'geswapped' moet worden naar de videokaart.. dan speelt latency van de agp poort ook een belangrijke rol bij de totale snelheid van de videokaart.
Een bredere bus levert je alleen wat op bij grote pakketten data. Dus bijvoorbeeld een texture. Echter als je de diepte van een bepaald pixel(pixel is niet helemaal het juiste woord, maar weet even niet 't beter) die is opgeslagen in 32bits, dan kan je nog een 512bits bus hebben, maar die wordt dan slecht benut.
Niet altijd. Sinds de GeForce3 gebruikt nVidia bijvoorbeeld een crossbar controller. De bus is wel 128 bit breed, maar er zitten vier 32 bit geheugencontrollers aan, om optimaal gebruik te kunnen maken van de bandbreedte.
waarom hoor ik nou niemand over latency? Is dat iets wat hier niet tenspake is?
Het probeelm van latency is met name belangrijk wanneer de datalijnen van het geheugen naar GPU/CPU erg lang zijn. Bij videokaarten zit het geheugen standaard erg dicht bij de core....
jah ok.. vandaar ook deze nieuwe 'standaard' .. maar wat is effectief nou het verschil in latency met vorige standaarden?

troughput is namelijk niet alles!
Wellicht een domme opmerking, maar dat moeten jullie mij maar vergeven.
Dit geheugen is dus goed geschikt voor point 2 point verbindingen.
Is het dan niet mogelijk om dit geheugen te gebruiken in processoren, als zijnde L1, & L2 cache ?
Nou weet ik dat cache memory ander geheugen is dan gewoon ram, maar die aanpassing moet er vast wel te maken zijn.
Of draait on-die cache al op de volledige snelheid van de proc :?
BTW: een Pentium IV met 32Mb(800Mhz) L2 Cache memory lijkt mij wel wat ;)
Het cache-geheugen draait op full cpu speed vanaf de ppga Celly, de Coppermine-p3 en de eerste Athlons (P2/P3-Katmai was halve snelheid) ... dit gehuegen zou dus behoorlijk trager zijn dan cache-geheugen en daardoor niet interessant.
Wachten op een echte JEDEC-spec is vanwege de korte productcycli namelijk geen optie.

Waar staat JEDEC eigenlijk voor en waarom zijn juist zij een belangrijke standaard geworden?

Waarom is het zo moeilijk voor JEDEC een nieuwe standaard te introduceren? Gaat de markt te snel of zijn er hier andere factoren in het spel?
Joint Electron Device Engineering Council, dat is waar de afkorting JEDEC voor staat.

Er zijn een heleboel bedrijven die lid zijn van de JEDEC club. Ik denk wel meer dan 200 bedrijven. Grote bedrijven, zoals Intel, Motorola, Siemens, Sony en IBM, maar ook kleine (voor ons bekende) bedrijven zoals nVidia, Nanya, AMD, Kingston, Winbond en ALi. Al deze bedrijven samen vormen dus JEDEC.

JEDEC is dus een organisatie die bepaalde standaarden op het gebied van electronica maakt. Nu gaat het ons om de DDR standaard omdat dat de meeste betrekking tot ons heeft. De precieze specificaties van DDR-II zijn nog niet rond, mede omdat er zoveel bedrijven zijn die het op hun manier willen. Er vinden dus onderhandelingen plaats zoveel mogelijk leden van JEDEC op hun gemak te stellen, maar dat kost natuurlijk tijd. Ook worden er steeds nieuwe technieken ontwikkeld, en fluctueerd te prijs van de componenten die gebruikt worden om geheugen te maken. Al die factoren zorgen ervoor dat het niet makkelijk is om een standaard te vormen.

Nu hebben Ati en nVidia besloten dat dat allemaal veel te lang duurt. Ze gaan een eigen standaard maken, met z'n tweeen. Das natuurlijk allemaal veel simpeler. Het geheugen zal slechts voor een doel gebruikt worden, en er zijn maar een paar bedrijven waar het betrekking tot heeft. Daarom kan het in dit geval allemaal veel sneller, en is het gericht puur op grafische kaarten.
Ik denk dat videoplankenbakkers er inderdaad weinig belang bij hebben om geheugen dat voldoet aan een JEDEC standaard op hun planken te prikken. Dit videogeheugen wordt niet uitgewisseld en hoeft dus niet zoals gewone dimm's voor je pc op elk moederbord te passen. Het videogeheugen wordt toch alleen door de GPU zelf aangesproken en niet door de rest van de pc? (Ik weet niet zeker of ik nu onzin uitkraam; corrigeer mij als het zo is. ;) ) Dan hoeft het alleen goed te werken op de videokaart zelf, en is het verder niet echt van belang aan welke standaarden voldoet. Wat ik bedoel te zeggen is dat compatibiliteit niet echt een issue is, omdat alleen verschillende fabrikanten (Asus, Creative, Gigabyte, Powercolor en de hele kliek) een videokaart met het geheugen moeten kunnen maken, en het dus maar met een beperkt aantal verschillende gpu's hoeft samen te werken.

Edit:
De standaard voor KT400 duurt ook zo lang...
Hahaha! :D De KT400 is de chipset van VIA met ondersteuning voor het inofficiële DDR400, Ferry Heibrink.
Ik vraag me nu af wat er op de NV30 komt. DDR-II is nog niet officieel, en GDDR-3 duurt te lang. Zou het dan toch een snelle DDR chip zijn die de NV30 moet voorzien van de nodige bandbreedte ?
uit eerdere "roddels" over de nv30 kwam ddr-II.
En het feit dat dit nog niet officieel gecertificeerd is zal denk ik weinig uitmaken voor nvidia.
Als het maar werkt.

Maar zoals ik al zei waren alle specificaties die ik tot nu toe heb gezien over de nv30 pure speculaties of onzekere persberichten van nvidia dus ik zou er niet te veel waarde aan hechten.

Voor echte zekerheid zullen we moeten wachten
Ehmmm DDR400 is inderdaad redelijk inofficieel.. Sterker nog, het is gewoon opgevoerd DDR333 geheugen... }>
Ehmmm DDR400 is inderdaad redelijk inofficieel.. Sterker nog, het is gewoon opgevoerd DDR333 geheugen...
Nee, dat is niet waar. Echt DDR333 geheugen moet nimimaal aan de JEDEC DDR333 standaard voldoen. Veel DDR333 doet dat niet, omdat dat geheugen gemaakt is voordat de standaard van kracht ging. Ik, bijvoorbeeld, heb twee modules van Corsair die verkocht werden als DDR333 modules. Het zijn echter 7.5ns chips, wat dus uitkomt op 133MHz, of DDR266. Om echt DDR400 te maken, moet je minimaal 5ns chips gebruiken. Pas dan heb je echt 200MHz of DDR400 geheugen. Als is het niet officieel.
Als ze op die manier samen de concurrentie van bijv. Kyro kunnen ontwijken zullen ze dat echt wel doen. Ze gaan er allebei op vooruit, een echt concurrentievoorsprong krijgt geen van beide tov elkaar. Als het dan maar genoeg geld scheelt zullen ze daar echt geen probleem mee hebben. :)
Maar als openheid hoog in het vaandel staat, zou Kyro en Matrox en alle anderen die 'standaard' toch ook kunnen gebruiken :?
Dacht ik dus ook :)
De 2 grootste concurenten werken samen :?
Ik vraag mij af als deze 2 partijen ook samenwerken op het gebied van een prijsindicatie wat een videokaart mag (moet) kosten.... :(
doen ze al. De prijzen van de videokaarten van ati en nvida zijn al op een gelijk nivo
Dus als ik het goed begrijp doe je er goed aan om nog even te wachten met het kopen van een nieuwe grafische kaart omdat er een nieuw type komt dat revolutionair is t.o.v. zijn voorgangers?
Dan kan je blijven wachten, die nieuwe standaard komt altijd 'binnenkort'. :Z Alleen weet je niet wanneer hij komt, dus moet je gewoon een nieuwe videokaart kopen als je dat nodig vind, en niet als de nieuwe techniek uitkomt.
[of topic]
Over standaards gesproken? Wanneer stoppen we eens met die verrekte *** floppies? Langzaam, kleine capaciteit en zo onbetrouwbaar als de pest. Als iedereen nou eens zo'n super disk of iets anders kocht. STOP met die geflopte floppies!!!!
[/of topic]

[on topic]
... zeer goede zaak :)
[/on topic]
Het is al lang de bedoeling dat er gestopt gaat worden met diskettes (floppies zijn er al tijden niet meer ;) ) ... Als het aan MS en Intel had gelegen al ca 2 jaar geleden. Alleen de grote OEM's willen er nog niet aan. Vreemd genoeg werkt MS hier zelf weer goed aan mee aangezien je nog steeds een diskette nodig hebt om tijdens de installatie van WinXP third-party drivers te installeren (zoals bv RAID-drivers).
Tja dat is een keuze die producenten maken aangezien 'n drivertje van 200KB 'n floppy ruim voldoende is. De rest is een kwestie van kosten
wat is bulk goedkoper 'n 99% lege CD persen of floppie produceren.

zolang fabrikanten floppy's meegeven voor de drivers beschikbaar te stellen ben je er afhankelijk van.

Maar dat wordt wel steeds minder.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True