Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties
Bron: Korea.net

Samsung heeft vandaag de eerste GDDR4-geheugenchip aangekondigd. De kloksnelheid van deze nieuwe standaard begint niet bepaald bescheiden; de eerste chip draait al op 1,25GHz, wat hem een effectieve datasnelheid van maar liefst 2,5GHz oplevert. Dit is direct ruim de helft meer dan de snelheid van 1,6GHz die de allerbeste GDDR3-geheugens van dit moment aankunnen. De chip heeft een capaciteit van 256Mb (32MB) en een 32 bits brede interface. Een theoretische GDDR4-videokaart met 256 bits brede bus zou dus acht exemplaren nodig hebben, wat hem 256MB videogeheugen en een maximale bandbreedte van 80GB/s op zou leveren. Om dit soort hoge snelheden te kunnen bereiken zijn er een aantal nieuwe trucs in de standaard verwerkt, waaronder 'data bus inversion' en 'multi-preamble'.

Samsung GDDR4-chips Samsung zegt de chips vanaf het tweede kwartaal van volgend jaar te gaan produceren, maar heeft nog niets gezegd over wie hem gaat kopen. De twee meest voor voor de hand liggende kandidaten zijn echter natuurlijk ATi en nVidia. Eerstgenoemde heeft al laten weten dat bij het ontwerp van de geheugencontroller van de nieuwe Radeon X1800 XT al rekening is gehouden met GDDR4. Van nVidia is nog geen concrete uitspraak bekend, maar aangezien de GDDR-standaarden mede in overleg met de grafische industrie worden verzonnen is men daar ongetwijfeld ook al geruime tijd bekend met deze ontwikkeling.

Moderatie-faq Wijzig weergave

Reacties (18)

Een theoretische GDDR4-videokaart met 256 bits brede bus zou dus acht exemplaren nodig hebben, wat hem 256MB videogeheugen en een maximale bandbreedte van 80GB/s op zou leveren.

Mag ik hieruit opmaken dat grafische kaarten in de toekomst 256bit zullen blijven aangezien alleen de klok toename voor voldoende bandbreedte zorgt voor toekomstige generatie(s)?

Ik vraag me ook af of geheugenchips, hetzelfde als bij processors, ooit een klok barriere ondervinden. Bij processors ligt deze ongeveer tussen de 2 en 4 Ghz. (afhankelijk van ontwerp) Hierbij is de invloed van parasitaire capasiteit te groot waardoor bij grote kloksnelheden de chips niet goed doorschalen.
Moderne geheugenmodules worden vervaardigd in productieprocédé's die vergelijkbaar zijn met die van processoren. Wat dat betreft gelden voor geheugenmodules en processoren dezelfde fysieke beperkingen voor wat betreft parasitaire capaciteiten, die de maximale processorsnelheid limiteren.

Wel zitten geheugenmodules een heel stuk eenvoudiger in elkaar dan processoren. Als gevolg daarvan is het iets gemakkelijker om geheugenmodules met een zeer kleine structuurgrootte te maken dan processoren. De modernste geheugenmodules worden daarom al een tijdje gemaakt met een structuurgrootte van 65 nm, terwijl de meeste processorfabrikanten nog niet zover zijn.
GDDR4 is dus al te maken, maar de meeste PC's hebben maar DDR2 of DDR geheugen. Wanneer komen deze chips beschikbaar voor het intern geheugen? Of zijn de huidige processors daar te langzaam voor?

Zou geheugen met dit soort snelheden uiteindelijk niet de cache van de processor kunnen vervangen? Of zijn de latencies daarvoor te hoog? Zijn de latencies weer hoger dan de voorgaande chips of valt dat mee?
GDDR4 is dus al te maken, maar de meeste PC's hebben maar DDR2 of DDR geheugen. Wanneer komen deze chips beschikbaar voor het intern geheugen?
Nooit. Dit is echt puur Grafisch geheugen (GDDR), en de enige reden dat ze het zo snel kunnen maken is dat het ook echt bijna nergens anders geschikt voor is. Het via een geheugenslot op een moederbord inpluggen zoals met een DDR DIMM kan zou voor GDDR bijvoorbeeld al te veel storing opleveren.

De volgende stap voor pc's is DDR3 (totaal iets anders dan GDDR3 trouwens).
GDDR4 is heel specifiek voor geheugenkaarten ontworpen en niet zomaar toepasbaar voor gebruik als intern geheugen. Daarnaast is ook dit geheugen nog langzaam vergeleken bij cache. Cache loopt namelijk meestal op dezelfde snelheid als de processor dus bij Intel op zo'n 3.8 GHz. Maar een moderne geheugencontroller voor een CPU loopt op 800-1000 Mhz Dat is dus een stukje langzamer dan wat een GDDR4 chip kan leveren. Er valt dus nog een hoop te verbeteren voor AMD en Intel. Maar GDDR is ook erg duur. Voorlopig zullen we dus wel bij de bestaande geheugens blijven al is DDR-3 niet zo heel ver weg meer.
De geheugencontroller is bij amd-64 cpu' s reeds geintegreerd en is daarmee razendsnel:)

De hoge snelheden over de relatief lange afstanden is gewoon veel moeilijker te realiseren. videogeheugen wordt direct op de printplaat gezet pal naast de gpu. Het zal daarom altijd zo blijven videokaarten circa 10x zoveel bandbreedte aan geheugen hebben dan de cpu.

Maar bij de cpu' s hebben ze al heel lang daar iets op gevonden, cache geheugen :)
Tijd voor onze CPU en Chipset boeren om ook maar eens te beginnen aan deze nieuwe geheugentjes.
GDDR is speciaal ontwikkelt voor grafische kaarten. De kans dat als werkgeheugen gebruikt in de toekomst is dan ook 0%. Het is voor deze taak dan ook ongeschikt. DDR3 daarintegen is wel geschikt als werkgeheugen maar heeft nog een aantal kinderziektes. DDR3 heeft ongeveer dezelfde latencies als DDR2 maar laat zich veel hoger klokken. De kans dat dat de opvolger word van DDR2 is een stuk groter. Een andere mogelijke kandidaat is XDR.
Een theoretische GDDR4-videokaart met 256 bits brede bus zou dus acht exemplaren nodig hebben, wat hem 256MB videogeheugen
de video kaarten in Q2 2006 zullen algauw 512mb hebben wat 16 chips zou betekennen das wat veel dus de dichtheid moet groter worden zodat er 64mb of 128mb op een chip past.
het punt is niet eens echt de data dichtheid maar vooral de verbinding, ze zullen op termijn een 512Bit verbinding willen (dan heb ik niet over z'n ring verbinding van ATI op de X1800 kaarten maar direct met de GPU) hierdoor zullen ze het eigelijk moeten opkrikken naar 64Bit per chip, dat zal lastiger worden dan 64MB per chip
wat is nou sneller GDDR of XDR?

ik wil GDDR4 videokaartje wel zien hoor of een GDDR3 O+
@Raine:
Het kan maar zo snel zijn als de zwakste schakel. Het RAM kan er naar zijn, nu de GPU nog.

En XDR kent een ander toepassingsgebied dan GDDRx
(Graphic DDR #)
XDR wordt ook toegepast voor graphics in de PlayStation 3, maar dat is meer om die GPU in de Cell-infrastructuur te laten passen. De bandbreedte van de RSX is overigens wel veel minder dan 80GB/s.
XDR direct aan een GPU of PROC zonder tussen bridge lever over de 250 GB/s data bandtbreedte

met een north bridge levert 60 GB/s


en met buffer ook 60 maar de buffer can efficienter werken.


verder is XDR veel makkelijker te implenteren op een pcb omdat het via flexfase werkt , dus elke trace hoeft niet meer evenlang te zijn. en inmiddels XDR 2 standaart implenteerd het appart aanspreken van meerdere geheugenbanken van 1 chip, iets wat in ddr nog niet eens kan. en dus resulteert in veel snellere latancys en efficienty.


enige nadeel is dus wel dat momenteel de chip ( proc of GPU ) aangepast moet worden voor het directe gebruik , of er moet een 2de chip aan komen om het zaakje te regelen. en met die de chip kom je weer op het probleem dat je een 2de techniek van rambus in licentie moet nemen genaamd redwood, de snelle interface tussen de chips en het XDR geheugen.

kortom XDR modules mogen dan wel goedkoop zijn maar licenties zijn duur.
Ook niet onbelangrijk:
Wat zijn de latencies?
De latencies zijn niet te vergelijken met DDR1 of DDR2.
Deze liggen uiteraard velen malen hoger. CAS van 7 bv.

Maar dit wordt gecompenseerd door de brede geheugenbus die aanwezig is op de recente videokaarten.

2.5GHz vergeleken met 1.6GHz is super snel natuurlijk, wat een mooie ontwikkeling :D De huidige videokaarten draaien nu 1.1~1.4GHz
Deze liggen uiteraard velen malen hoger. CAS van 7 bv.
Bij Samsungs GDDR3 ligt de latency zelfs tussen de 10 en 18 (5 tot 9 clock cycles). Voor GDDR4 zal het wel meer zijn.
De latency van het GDDR geheugen heeft (haast) geen effect op de prestaties van de videokaart
pas als je het geheugen gaat overclocken zul je hogere Mhz'en behalen, en verschil zien bij GDDR

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True