Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties

Er zijn enkele specificaties van Nvidia's eerste 40nm-gpu's opgedoken. De G216 en de G218, Nvidia's eerste DirectX 10.1-gpu's, zullen toegepast worden op respectievelijk de G210 en de GT220. Deze budgetkaarten komen in oktober uit.

Voordat Nvidia zijn op 40nm gebakken DirectX 11-gpu's uitbrengt, komt de gpu-gigant eerst met een aantal 40nm-gpu's die nog op de bestaande architectuur zijn gebaseerd, al ondersteunen deze gpu's wel DirectX 10.1 in plaats van DirectX 10. De eerste videokaarten met een dergelijke 40nm-gpu zijn twee budgetkaarten, de G210 en de GT220, die respectievelijk zijn voorzien van de G218- en de G216-gpu. De G218 heeft 24 shaderprocessors en een 64bit-geheugenbus, die overweg kan met zowel ddr2- als gddr3-geheugen. VR-zone wist de hand te leggen op de G210 en las de kloksnelheden van de gpu, de shaders en het geheugen uit met GPU-z, dat respectievelijk 603MHz, 1425MHz en 790MHz liet zien. Een G210-chip zou 30 tot 35 dollar moeten gaan kosten.

De G216 is twee keer zo snel, met 48 shaderprocessors en een 128bit-geheugenbus, die maximaal 1GB aan ddr2-, ddr3- of gddr3-geheugen aan kan spreken. De gpu zal gebruikt worden op de GT220, en de GT220 die VR-zone wist te bemachtigen had kloksnelheden van 625MHz, 1373MHz en 790MHz voor respectievelijk de gpu, de shaders en het geheugen. De website Expreview wist de gpu op de gevoelige plaat vast te leggen, maar behalve de gpu valt er weinig te zien. De GT220 moet pakweg 60 dollar gaan kosten. Beide DirectX 10.1-gpu's zullen in oktober beschikbaar komen. Wanneer Nvidia op de proppen komt met de 40nm-gpu's die van DirectX 11-ondersteuning zijn voorzien, is nog onbekend.

GT220 die-shot

Moderatie-faq Wijzig weergave

Reacties (29)

Over de performance kan ik je zeggen dat deze kaarten 30% sneller zijn dan de GPUs die ze vervangen. De GT218 is dus zo'n 30% sneller dan de G98 en de GT216 is zo'n 30% sneller dan de G96.

De Vantage scores die nVidia liet zien aan partners heb ik aan het begin van deze maand al gepost in het nVidia topic op het forum (inclusief de exacte specs).
Waarom post je dan niet meteen de link naar de post op GoT :?

[Reactie gewijzigd door SKiLLa op 30 juni 2009 21:18]

De G216 is twee keer zo snel, met 48 shaderprocessors en een 128bit-geheugenbus

Als het aantal shaders 2 x zoveel is, en de bus ook 2 keer zo breed, zou ie dan niet 4 keer zo snel zijn, theoretisch natuurlijk?!

Verder.....leuk dat ze DX10.1 kaarten uitbrengen, maar het is niet alsof deze kaarten daar echt gebruik van zullen kunnen maken, het zijn zulke low-budget kaarten, daar haalt de maximaal speelbare resolutie de mooiigheid van dx10.1 zwaar onderuit, als die al duidelijk te zien zou zijn.
De shaders zijn de daadwerkelijke rekeneenheden in de GPU. Als je tweemaal zoveel shaders hebt, kun je uiteraard tweemaal zo veel data verwerken/produceren. Echter, dat betekent ook dat je tweemaal zo veel data moet aanleveren, of afvoeren!

Dus om te zorgen dat je shaders op volle kracht kunnen werken, en niet op data transport hoeven te wachten, moet je bandbreedte tweemaal zo hoog zijn.

Dat is de ideale situatie... Wat er in de praktijk bij spellen gebeurt is wat minder makkelijk te voorspellen...

Sommige spellen werken verschrikkelijk veel met complexe shaders. Die hebben veel shader verwerkings kracht nodig, maar relatief weinig bandbreedte. Als je dan een kaart hebt, die alleen 2x zo veel shaders heeft, maar dezelfde bandbreedte, kun je alsnog bijna 2x zo hoge prestaties verwachten. Simpelweg omdat de bandbreedte al wel groot genoeg was.


Dat is één van de moeilijke punten voor GPU fabrikanten, om de optimale mix van shaders kracht en bandbreedte te vinden. Is ook één van de redenen waarom kaarten soms bij het ene spel bijna gelijk presteren, en bij het andere volkomen anders. Simpelweg omdat die verhouding anders is, en dan beter bij de ene dan de andere kaart past.

[Reactie gewijzigd door AHBdV op 30 juni 2009 19:20]

Nu weet ik niet exact hoe de architectuur van de huidige videokaart precies in elkaar zitten..

Maar het is niet zo simpel als je wil suggeren.. O.. we doen dat 2x zo veel, dat 2x zo breed.. klaar... hup 4x zosnel.

Die shaders zullen ongetwijfeld continu met het geheugen communiceren.. Met 2x zoveel shaders heb je en stuk bandreedte extra nodig (vermoed ik). Daarnaast het zijn niet alleen de shaders die de snelheid bepalen, daar zijn veel meer componenten bij aanwezig...

Dit is een plaajte van een ATI HD 29000 http://www.legitreviews.c.../HD_2900_architecture.jpg en hier een plaajte van een Geforce GTX 280 http://benchmarkreviews.c...GTX-200_Block_Diagram.jpg.

Zoals je kunt zien gaat je 'theoretisch natuurlijk' niet echt op. Daarnaast als je de tekst nauwkeruig leest sugereert de tekst dat de kaart 2x zo snel is en niet 4x.
Uh, vergelijk je nu de shaders van ATI met die van Nvidia? Dat is echt zo ongelofelijk fout. Andere architectuur andere manier van bewerken. Je kan een Core 2 ook niet vergelijken met een K8 op pipeline lengte en klok.

Daarbij is het geen shader. Een shader is een stuk code. Wat jij bedoeld is een Shader Processing Unit(AKA SPU). Tis eigenlijk heel simpel. De R600 heeft geen 320 "shaders", maar heeft er 64 shader processing units welke 5 bewerkingen kunnen doen(ie 320 shader processors). Daarbij van die 5 er 4 niet alle soorten bewerkingen kunnen doen. Dit laatste hebben ze bij de HD4 serie recht gezet. Al is dat maar een kleine performance increase gezien deze bewerkingen niet vaak voor komen.

Zie ook dit plaatje van anadtech:
http://images.anandtech.com/reviews/video/ati/4800/ilp.png
http://www.anandtech.com/video/showdoc.aspx?i=3341&p=6
Deze laat goed zien hoe een shader voor bewerking aan komt bij een HD4 serie en bij een GT200 SPU. De SPU van de GT200 kan maar een bewerking doen, maar loopt op een veel hogere klok. (HD4870 shader loopt 750 terwijl die van een GTX 280 op zon 1400mhz loopt). Hierdoor werken sommige games beter op een ATI, die kan dan heel veel bewerkingen doen met zijn SPU, of beter op een Nvidia, omdat die op een hogere klok loopt.

Schaamteloze reclame:
Ik heb in mijn review van de HD4850 het ook uitgebreider uit gelegd:
productreview: Jetway X4850-EN-512M review door Reinman

[Reactie gewijzigd door Reinman op 30 juni 2009 22:26]

Nee natuurlijk niet. Als je 2x zoveel rekenkracht hebt en 2x zoveel geheugen bandbreedte heb je een 2x zo snelle kaart. Als je een 2x zo snelle kaart wil moet alles 2x zo snel! 2x zoveel shaders (of de dubbele frequentie) 2x zoveel gehuegen, 2x zoveel geheugenbandbreedte en eigenlijk ook 2x zoveel geheugen maar dat maakt alleen uit als je het ook echt allemaal nofig hebt.
Als het aantal shaders 2 x zoveel is, en de bus ook 2 keer zo breed, zou ie dan niet 4 keer zo snel zijn, theoretisch natuurlijk?!
Als het linker voorwiel 2x zo snel draait, het rechter voorwiel 2x zo snel en beide achterwielen ook, gaat de auto dan 16x zo snel...?
Beetje vreemd dat na jaren van een DX10.1 boycot, nét voor het einde van het DX10 tijdperk, er toch wat mee gedaan word. Nog vreemder is dat ze het bij budgetkaarten houden. Ik zou eerder geïnteresseerd zijn in een high-end kaart van deze lijn.

Toch is mijn interesse gewekt, het kan zo maar een van de betere kaarten in zijn prijsklasse kunnen worden.
Nou ja, einde van t DX10 tijdperk...
Van wat ik erover heb gelezen is DX11 een stricte superset van DX10, dus elke DX10 app is automatisch ook een DX11 app. Ik denk dus dat m.n. de gamesontwikkelaars binnenkort overstappen op DX10 met evt. enkele DX11 instructies.
Die situatie lijkt me ook waarschijnlijk... En daarom dat DX10.1 ook best interessant is, omdat je al een paar hele belangrijke DX11 instructies kunt gaan gebruiken.

Het wonderlijke is echter dat NVidia de hele tijd DX10.1 heeft gebagataliseerd, en geboycot, hopende dat ze op die manier de voorsprong van ATI op DX10.1/11 gebied konden inkapselen. Simpelweg omdat spel fabrikanten niet features zouden gebruiken die alleen op ATI kaarten werken. Dan is het raar plotseling toch met 10.1 kaarten te komen.


Misschien dat DX11 voor high-end zo dichtbij is, dat het niet meer uitmaakt. Of misschien dat de boycot in de praktijk niet werkte, en ze nu toch wel mee moeten gaan. Want hoewel het low-budget is, is dat wel waar de grote afzetmarkt is.
Nou nee voor OEM is Cijfertjes marketing heel belangrijk. Hoe hoger hoe beter.
Of het zin heeft voor de eindgebruiker is een ander verhaal.
Is wel zeer makkelijk om je nieuw productieproces te testen. Heeft ATI nu ook gedaan met hun laatste kaarten voor de aan Dx11 beginnen.
dx10.1 is ook een onderdeel van direct11.
het was gewoon een kwestie van tijd totdat nvidia dit ondersteunt.
DirectX 10.1 was waarschijnlijk niet heel moeilijk te implementeren voor nVidia, het was alleen dat de G80 (en de daarop gebaseerde GT200) moeilijk aan te passen was, en dat DX10.1 beperkte verbeteringen bracht. Ik denk dat ATI het toevallig beter voor elkaar had met de R600. Interessant dat deze aanpassing niet gepaard is gegaan met DirectX 11-features; als ze in oktober uitkomen komen een maand of 2 later de eerste Radeon HD5000's uit met DX11.

Jammer dat deze kaarten zo low end zijn, had graag een concurrent voor de HD4770 gezien van nVidia. Ik denk dat ze de lucratieve lowend markt beter willen bedienen, zeker omdat het misschien nog wel even duurt voordat ATI met nieuwe low-end chips komt (R800 komt waarschijnlijk eerst in high-end edities).

[Reactie gewijzigd door DCK op 30 juni 2009 19:39]

Ze richten met deze twee GPU duidelijk op de massa in die zijn wat gevoeliger voor cijfer marketing. DX10.1 is beter dan DX10.1.
Voor de retail en high-end market is men toch wel wat meer op de hoogte van GPU.
En weet men dat je door de DX10.1 boycot gelobby van nV . En dus van die marginale meerwaarde nauwelijks gebruik van wordt gemaakt.
ATI GPU krijgen vooral een leuk boostje en zijn dan weer wat meer competatief.
Maar niks schokkends.
Dus je mist niet veel.
DX11 boorduurd weer voort op DX10.x houd niet in dat het marginaal is maar ook niet een revolutie. Het gaat om neiuwe features en wat voor impact die hebben op de game. En dus game experience.

Maar ja de games en dus dev bepalen of het onderste uit de kan wordt gehaald met die DX versies.

Als ATI nV met DX11 wel volledig en gelijkwaardig ondersteunen dan kan DX11 wel een stuk beter opgepakt worden.
Het helpt ook dat Vista ook dX11 runtime distributable krijgt.
Als de geruchten kloppen dan komt niet veel later de GT300 serie op de markt met echt veel hogere specs:

GT3xx geruchten eind april
•GPU: GT212
•Release Date: Q4/2009
•Interface: PCI-E x16 2.0
•Transistors: 1400 million
•Unified shaders: 512
•MIMD Architectuur
•Shader clock: 1600 Mhz
•ROP's: ??
•Core Clock: 700 MHz
•Memory Clock: ??? (GDDR5)
•Memory Bandwidth: 4.4 TB/sec (GDDR5)
•Memory Interface: ??? bit
•Memory: 4096 MB (GDDR5)
•Consumption: tot ???/??/189Wwatt
•Update (9/06/09): consumption met als doel 225W
dus ze willen in de budgetmarkt een goedkoop te produceren uitontwikkelde techniek dumpen. Kan ik ze niet kwalijk nemen. Hoeveel van de gebruikers(zelfs gamers)gebruikt daadwerkelijk native meer dan DX9?
dat gaat hem inderdaag niet worden denk ik :o
Ik vraag me de daadwerkelijke beperking van de 128bits bus af.
Het klopt dat met een 256bits of hoger en meer bandbreedte is, maar zou het in een spel als Crysis of een anders pc spel zoals.... World of Warcraft veel verschil maken?
Een synthetische benchmark die de geheugenbus test zal vast wel een vele lagere score hebben. Maar aan die getallen heb je niet veel, je wil immers gamen op je nieuwe 10.1 kaart :) Ik ben in elk geval benieuwd naar de eerste benchmarks :)
Wellicht een leuk alternatief voor de HD4770 kaarten van AMD/ATi, hopelijk zijn ze in SLI nog zuiniger met stroom als de 4770 in crossfire (vooral bij idle/normaal gebruik), wat ze natuurlijk nog interessanter maakt dan een enkele HD4890.
ik snap het niet ik draai hier op mijn laptop windows 7 en als ik bij dxdiag kijk staat er dat ik DirectX 11 wat is het verschil dan met DirectX 10.1?
(Je bent je sarcasme-tag vergeten)
Is er misschien een tweaker die voorbeelden kan aanleveren?
Met behulp van DirectX kunnen bepaalde bewerkingen op plaatjes en 3d modellen uitgevoerd worden. Als je DirectX 11 hebt geïnstalleerd kun je in principe alle bewerkingen doen die DX11 specificeert, maar als je videokaart geen hardware ondersteuning heeft voor die bewerkingen zal dat heel erg langzaam gaan, daarom is het interessant om te weten welke DirectX ondersteund wordt door de videokaart.
Als je bijvoorbeeld
2 euro heb en 2 pond
En een ander heeft
4 euro en 2 pond

Heeft die ander niet 2 x zoveel als jij ;)
Je kan het beter met een auto vergelijken. Zoals als je motor dubbel zoveel vermogen heeft en je banden hebben dubbel zoveel grip. Zal hij dan dubbel zo hard rijden of 4 keer zo hard? (in werkelijkheid zal hij zelfs minder dan dubbel zo snel rijden :O)
Maar wel 5 keer zoveel verbruiken! :+
gaat een beetje mank met die slappe pond en sterke euro

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True