Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 32 reacties

De specificaties en het pcb-ontwerp van Nvidia's nieuwe budget-videokaart GT218 zijn bekend geworden. Nvidia's eerste 40nm-gpu zal in minstens vier varianten verschijnen. De GT218-gpu ondersteunt onder meer dual link-dvi en displayport.

Volgens VR-Zone zal de GT218-gpu-kern op 550MHz worden geklokt, terwijl de shaderklok op 1375MHz draait. De kaart zal worden voorzien van 512MB ddr3-geheugen dat op een snelheid van 800MHz loopt en via een 64bit-bus met de gpu verbonden is. Het is niet bekend met hoeveel shaderprocessors Nvidia de GT218 heeft uitgerust. De GT218-gpu is de opvolger van de G98-gpu; een videokaart op basis van de GT218-gpu zou volgens Fudzilla 22W verbruiken.

Het pcb-ontwerp waarop VR-Zone de hand heeft weten te leggen, betreft versie P692 met als codenaam D10M1-30, en toont een tamelijk kleine printplaat waarop de GT218-package te zien is met zijdes van 23mm. Het GT218-referentieontwerp biedt plaats aan twee externe connectors op de slotplaat, maar de GT218-gpu zelf biedt ondersteuning voor onder meer dual link-dvi, displayport en vga. De eerste proefexemplaren van de GT218 zullen waarschijnlijk op de CeBIT in maart te bewonderen zijn, met een verwachte marktintroductie in april.

Nvidia GT218

Moderatie-faq Wijzig weergave

Reacties (32)

De oude geruchten wat betreft streamprocessors:
The older report suggested this GPU to carry 32 stream processors, 8 TMUs and 4 ROPs, with a suggested TDP of around 22W.

Bron: http://www.techpowerup.com/index.php?84012
De GT218 is de low endversie,
de GT216 is midrange,
de GT214 is midrange en
de GT212 is highend?
Ja, inderdaad; vanwaar het vraagteken, twijfel je eraan dat de GT212 de high-end chip wordt?

[Reactie gewijzigd door jj71 op 4 februari 2009 22:25]

nou eigenlijk vind ik dat heel erg vreemd ja...
Aangezien de huidige telling juist omhoog gaat (als in hoe hoger het cijfer hoe beter de kaart...) En dat gaan ze nu WEER omgooien |:(. Op deze manier gaat nooit iemand wat snappen van die naamgevingen bij nVidia... 8)7
Op deze manier gaat nooit iemand wat snappen van die naamgevingen bij nVidia...
Dit zijn de codes voor de GPU's zelf. Niet de productnamen voor de videokaarten waar ze op komen te zitten.

Voorbeeld: GT200 (code GPU) == GTX280 (productnaam videokaart)

Je gaat een kaart met een GT212 niet in de winkel vinden als GT212 maar als GTXxxx.
Een beetje tweaker hoort dat gewoon te weten imho. ;)

En wat betreft GPU codes is het vrij normaal dat bij elke generatie de laagst genummerde de meest high-end is, alles wat ze erboven nummeren neemt in prestatie af. Uitzonderingen en tussentijds introducties daargelaten.
Dit lijkt mij geen grote performance kaart. 64bit bus en DDR3, ik dacht dat ook nvidia ging overschakelen op GDDR5 ?
De specificaties en het pcb-ontwerp van Nvidia's nieuwe budget-videokaart GT218 zijn bekend geworden. Nvidia's eerste 40nm-gpu zal in minstens vier varianten verschijnen. De GT218-gpu ondersteunt onder meer dual link-dvi en displayport.
waarschijnlijk net als ATI, alleen op de highend kaarten.

Volgens mijn zoekwerk heeft nVidia nog niets over GDDR5 aangekondigd en wordt er alleen nog maar over gespeculeerd en/of op gehoopt.

[Reactie gewijzigd door Stevie_O op 4 februari 2009 14:41]

Ze gaan ook naar GDDR5 omdat dat de PCB's simpeler maakt. Echter de 'enorme' snelheid en daarbij bijkomende geheugen bandbreedte hebben niet echt veel nut voor budget kaarten. Daarom is het het geld ook niet waard. Gevolg: ze stoppen er langzamer, goedkoper (en zuiniger?).

Het is gewoon heel logisch, waarom high end onderdelen in een low end product stoppen als het alleen meer kost?
"Ze gaan ook naar GDDR5 omdat dat de PCB's simpeler maakt."

Kijk, dat vraag ik me nou af. Heb je een bron?
Eindelijk displayport support, nu nog wachten op de highend versie
DisplayPort, HDMI en DVI-D op een enkel kaartje maakt het ding uitermate geschikt voor in een HTPC gezien het opgenomen vermogen en verbruik :)
waarom de keuze voor ddr3? en niet gddr3. lijkt me goedkoper, zeker omdat de snelheid maar 800mhz is (net zo goed ddr2 kunnen nemen...)

het is zo onlogische dat ik zelfs gewoon een typo verwacht.

[Reactie gewijzigd door Countess op 5 februari 2009 18:37]

Waarschijnlijk omdat tweakers gewoon geruchten van VR-Zone letterlijk kopieert ipv zelf research te doen ;) Ik ga er inderdaad van uit dat het om GDDR3 gaat, maar zolang NVIDIA zelf er niks over bekend maakt kunnen we er sowieso niet veel over zeggen.

Edit: Haha, ongewenst? Omdat ik zeg dat Tweakers letterlijk overneemt? Wil iemand dat ontkennen dan? :P

[Reactie gewijzigd door Snoitkever op 4 februari 2009 23:06]

Wat voor een prestaties zal je dan krijgen in ruil voor 22 Watt stroomverbruik? De combinatie van specificaties van de videokaart en het stroomverbruik sta ik van te kijken, op zijn minst is dit interresant nieuws.

Als dit gecombineerd is met enige prestatie dan is zoiets erg leuk voor in mijn nieuwe computer in plaats van een 46X0 videokaart van ATi.

Meer informatie 40nm & NVIDIA:

Neoseeker:
GT212 - high end part, Q3/09
GT214 - replacement for G94, Q3/09
GT216 - replacement for G96, Q3/09
GT218 - repleacment for G98 for the entry level market
iGT209 - replacing GeForce 9300/9400


Tweakers over 40nm opvolger GTX280
De Chinese fabrikant Elsa heeft tijdens een bijeenkomst op zijn hoofdkantoor de roadmap van Nvidia getoond. Hieruit blijkt dat het bedrijf half december met de GT206 en begin 2009 met de GT212 komt.

Xtreview comment
Concerning the GT216 chip, there is no official characteristics . Possibly, this will be the 40 nm successor of 55 nm chip GT206, or a G92 solution with the increased performance. NVIDIA could prefer to begin the migration on 40 nm technical process from the simpler chips.

@Ackermans1973
Mij heb je niet horen praten over een high-end GPU hoor? Ik zeg toch ook, misschien een andere keuze voor de 46X0 (eerder 4650), als je kijkt naar efficientie.

[Reactie gewijzigd door Red-Front op 4 februari 2009 14:39]

Verwacht er maar niet te veel van.
Een 64-bit geheugenbus stelt al niet veel voor, en er dan 800MHz geheugen achter plaatsen geeft al helemaal weinig bandbreedte (12,8GB/s).
Natuurlijk is dat genoeg voor een 2d beeld weer te geven, maar verwacht niet al te veel prestaties op game vlak.
Als je prestaties per watt zoekt, koop dat een Ati Radeon 4670 of 4650. Die gebruiken rond de 55 Watt, maar geven nog wel serieuze prestaties.
Verwacht er maar niet te veel van.
Een 64-bit geheugenbus stelt al niet veel voor, en er dan 800MHz geheugen achter plaatsen geeft al helemaal weinig bandbreedte (12,8GB/s).
Natuurlijk is dat genoeg voor een 2d beeld weer te geven, maar verwacht niet al te veel prestaties op game vlak.
Als je prestaties per watt zoekt, koop dat een Ati Radeon 4670 of 4650. Die gebruiken rond de 55 Watt, maar geven nog wel serieuze prestaties.
Hoe kan je zulke uitspraken doen nog voor de kaart op markt is en er ook maar iets van prestaties bekend is? Hoe kan jij dan prestaties per watt beoordelen?
Je hebt gelijk, het is pure speculatie. Ik blijf er echter bij dat je met een 64-bit geheugenbus niet ver komt, en de geruchten zeggen dat ze 10 keer minder shader processors aan boord hebben dan een kaart uit de Ati 46x0-serie.
Nu mag je van alles beweren, maar mij maak je niet wijs dat je met 10 keer minder shader processors en een half zo grote geheugenbus met iets trager geheugen meer prestaties per watt gaat krijgen (wat neerkomt op half zo veel prestaties als de 46x0 series).
Je kan een shaderprocessor van ATI dan ook totaal niet vergelijken met die van nvidia. ;)
Dat is inderdaad zo, de high end ATI kaarten hebben er 800, high end Nvidia hebben er 240, 3 keer minder.
Naar verhouding heeft deze budgetkaart dan nog steeds 3 keer minder shaderprocessors, en slechts de helft stroomverbruik.
Die nV shader draaien op een hogere klok dus kan je grof 2x tellen.
nV shaders zijn uniform dus vereisen niet bepaalde soort taken maar doen alles.
ATI shaders zijn afwijkend setje van 5. Deze zijn dus code afhankelijk. Het kan meer zijn in ideale omstandigheden maar ook heel stuk minder in worst case senario's.
Dus dat is 2 * 240 vs (1 tot5)* 160

Hoe die setjes van 5 verhouden met extra branch unit geen idee.

Maar iig is nV en ATI hiermee moeilijker te vergelijken.

GT218 is duidelijk low budged.
Ik vraag me dan af hoe budged er op vooruit gaat?
Budged?

Ja inderdaad, grappig hoe dat met die shaders zit. Daarom draaien sommige spellen beter op Nvidia en sommige beter op ATi. Ik dacht dat ATi meer pixel shaders had, maar ik kan er naast zitten.
Wat heeft dat met mijn post te maken?
Ik zeg toch dat het goed is voor 2d werk, maar niet voor games.

Maar ik herhaal het nog een keer:
Het mag dan een budget kaart zijn, maar je koopt een kaart nog steeds om zijn prestaties, niet omdat Nvidia zegt dat het een budget kaart is. Als tweaker mag je je dan ook afvragen wat voor prestaties deze kaart zal geven, en of het wel degelijk 2 grote schermen kan aansturen (handig bij het programmeren, fotobewerking, etc).

[Reactie gewijzigd door Malantur op 4 februari 2009 14:46]

Het mag dan een budget kaart zijn, maar je koopt een kaart nog steeds om zijn prestaties, niet omdat Nvidia zegt dat het een budget kaart is. Als tweaker mag je je dan ook afvragen wat voor prestaties deze kaart zal geven, en of het wel degelijk 2 grote schermen kan aansturen (handig bij het programmeren, fotobewerking, etc).
Een budget kaart koop je niet voor de prestaties, een budget kaart koop je omdat die goedkoop is. Vandaar de naam "budget" en niet "performance".
Klopt, maar op een AGP kaartje van 10 jaar geleden krijg je nog steeds geen meerdere grote schermen mee aan de praat. Het gaat eigenlijk om wat de goedkoopste kaart is dat nog steeds in staat is mijn schermen op hoge resoluties aan te sturen.
Mijn mening is dan ook nog steeds dat je toch wel even naar de prestaties moet kijken, ongeacht uit welk segment de kaart komt.
Tuurlijk als je voor vijf euro meer een relatief veel betere budget kaart hebt dan bijv. deze, dan gaat dat helemaal op. Vijf euro kan er vast nog wel bij, ook met een budgetbeperking. Dan ben je toch beter uit, dus inderdaad, kijk ook naar performance :)
De jan met de pet kijkt naar de budged kaart.
Jan met de pet heeft vaak niet de tjd in zin om zich helemaal in te lezen, laat zich soms advizeren door de computer buur. Of doet zijn eigen ding. Maar schat prijs naar performance.
De tweaker kijkt naar zijn budged en gaat dan voor beste prijs performance.
Dan heb je nog het merken trouw volk. Die zijn verdeeld over beide profielen maar kiezen daarbij eerst voor hun favo merk.

Voor 2D pixel push werk en tegen woordig is dat met Vista ook 3D. Is geheugen bandbreedte en Rops etc toch ook belangrijk als je 2 26" wilt aansturen. Ook voldoende video mem.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True