Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 35, views: 13.721 •

Terwijl de twee op 55nm gebakken GT200-kaarten begin januari hun intrede doen, duiken geruchten op aangaande Nvidias overstap op het 40nm-productieprocedé. Fabricagepartner Tsmc zal zorgen voor de levering van 40nm-chips.

Nvidia logo, zwartUit een overzicht, samengesteld door VR-Zone, blijkt dat Nvidia het 40nm-procédé in 2009 gaat toepassen op videokaarten uit het lowend-, midrange- en highend-marktsegment. Nvidia wil vaart maken met de overstap naar het 40nm-procedé aangezien ATI zijn eerste videokaart met een 40nm-gpu al in het tweede kwartaal van 2009 verwacht te lanceren. Nvidia's antwoord zal naar verluidt dan ook in hetzelfde kwartaal komen met de introductie van de op 40nm gebakken GT212-chip. Vervolgens zouden in het derde kwartaal de lowend-GT218 en de midrange-GT214 en -GT216 moeten verschijnen, die eveneens op 40nm geproduceerd worden.

De GT212-gpu vormt een chip voor de highend-markt en zal de opvolger worden van de 55nm-GT200b, terwijl de G98 en de G94 en G96, die het huidige budget- en midrange-segment bedienen, achtereenvolgens plaats moeten maken voor de GT218, de GT214 en de GT216. Laatstgenoemde chips zullen het naar verwachting opnemen tegen ATI's 40nm-RV740, dat een prijswapen zal vormen binnen ATI's arsenaal. ATI hoopt de groene concurrent net een stap voor te zijn als het de RV870-chip, die eveneens is gebouwd met een 40nm-procedé, gaat lanceren.

Interessanter zijn de speculaties aangaande de nieuwe GT300-gpu, die ook zal worden gebouwd met een 40nm-procedé. Alhoewel de GT300 officieel nog niet is aangekondigd zal de gpu - die waarschijnlijk de GT212-chip moet opvolgen - ondersteuning bieden voor DirectX 11. Eerder was op Tweakers.net te lezen dat een op 55nm-gebakken GT300 zou lanceren in het eerste kwartaal van 2009. Dat gerucht is tegenstrijdig met het door VR-Zone gepubliceerde overzicht, waarbij de GT300-gpu staat gepland voor een release in het vierde kwartaal van 2009.

Reacties (35)

Lijkt me wel een erg snelle overstap voor NVIDIA. Maar het is uiteraard goed mogelijk, zeker met het kostenplaatje in gedachten en hun grote chips.

Wel ineens weer snelle (lees vroegere) directx opvolging ook. dx11 zou uitkomen met vista SP2 en windows 7. Speelt wel in het nadeel van Nvidia gezien hun kaarten nog geen dx10.1 zijn (ATI wel) en dx11 toch voortbouwt op die toevoegingen wat denk ik een verschil zal maken later gezien de ATI's dan bepaalde berekeningen wel kan doen en NVIDIA niet. Daarmee dat ze denk ik wel snel met een dx11 kaart willen komen.

edit: typo

[Reactie gewijzigd door Kode_ op 29 december 2008 16:58]

Ik dacht dat dx11 ook op dx10 kaarten zou kunnen draaien. Ik mag hopen dat je niet weer gedwongen wordt een nieuwe kaart aan te schaffen, alleen maar omdat je de nieuwste dx wil draaien.
Voor wat hoort wat... Niemand verplicht je om steeds het nieuwste van het nieuwste te bezitten. Zelfs nu kun je zowat alle spellen nog steeds in DX9-modus spelen.
Ik denk dat je dan doelt op de softwarematige ondersteuning van DX11 elementen die je DX10 kaart niet ondersteunt. Ditzelfde zal binnenkort ook mogelijk moeten zijn met DX10 op niet DX10 complaint hardware.

Dat het mogelijk zou zijn, is echter niet hetzelfde als dat het 'bruikbaar' is in games. Het zal performance enorm negatief beinvloeden.

Overigens heeft needless gelijk, niemand dwingt je een nieuwe videokaart te kopen.
Het is goed te weten we rond het 2e kwartaal alles op 40 en 45nm kunnen verwachten.
Dit zal de preformance enorm positief beinvloeden.

Ik ben het wel met jou eens niemand dwingt je om een nieuwe videokaart te kopen, al is het echter soms wel fijn je ook de nieuwste spellen op een fatsoenlijke framerate met AA kunt spelen :+ .

Ik ben erg benieuwd naar wat Ati/amd en nvidia volgende maand op de markt gaan zetten. Hopelijk gaat de preformance/prijs verhouding er flink van profiteren :P
Dat is niet helemaal waar.. Ten tijde dat Splinter Cell: Double Agent uitkwam had ik een redelijk rappe bak maar wel met nog een Radeon X850 XT erin. Ik kon alles goed tot redelijk draaien (zelfs Crysis) maar kon Splinter Cell niet eens opstarten vanwege de shader versie. Dit is me daarna ook bij andere spellen overkomen. Ben dus wel degelijk "gedwongen" naar een andere videokaart.
DirectX is in principe backwardscompatible. Je kan dx11 op dx10 hardware draaien alleen worden dan de nieuwe features van dx11 softwarematig afgehandeld wat veel prestatie kost. Dit is vergelijkbaar met dx10 draaien op een dx9 kaart.
Zo werd het in het begin toen DX10 uitgelicht werd wel neergezet, je had "volledig" programmeerbare shaders, de videokaarten waren flexibel, dus gedoe zoals vroeger met DirectX 9.0 en 9.0c videokaarten klonk als verleden tijd.
Maar ATI met DX10.1 en NVIDIA met enkel DX10 zegt alweer genoeg....
Een deel van de DX11 functionaliteit is ook mogelijk met een DX10 kaart, zoals verbeterde ondersteuning voor multithreaded rendering en een simpele versie van compute shaders. Voor SM5.0 shaders en tesselation heb je een DX11 kaart nodig.
opzich verrassend dat Nvidia er voor kiest om het nieuwe procedé te introduceren met een high end chip. In het verleden heeft Nvidia eigenlijk altijd de markt vanuit de lowend over gezet naar een nieuw procedé.

zou deze keuze vanuit een concurrentie druk gemaakt zijn Of zou de GT212 het minst ver geëvolueerd zijn vanaf de GT200b?
Ik dacht dat in het verleden altijd al vanuit highend werd gewerkt, eerst kwam de 7800, daarna 7600 7400, dan kwam de 8800 en daarna pas 8600 8400, en dan 9800 daarna 9600 9400 ..
ja dat klopt in volgorde van introductie echter, nvidia introduceerde de nieuwe high end chip altijd op een procedee dat met de vorige generatie " midrage" is geintroduceert.
vb.

7800gtx -> 110nm
7600GT -> 90nm

8800gtx ->90nm
8800GT -> 65nm

best slim vanuit het nv oogpunt. je wilt natuurlijk niet op het laatste moment eigenschappen ontdekken van het procedee wat geplanned staat als introductie van de volgende high end chip.

Wat dan wel weer nadelig is, als er echt grote problemen zijn met een chip kunnen deze beter bij de high end versies gebeuren dan bij de mid range omdat de high end minder verkocht worden dan de midrange. ( minder cashback)

Het volgende punt is natuurlijk, als de high end kaart problemen vertoond dan komt het merk wel in een slechte naam te staan zodanig dat mensen misschien geen mid range meer kopen.

..... de eeuwige circkel
Niet echt heel relevant, vooral aangezien de 9000 serie niet echt een nieuwe architectuur was, maar de 9600GT was de eerste 9xxx, niet de 9800.
daar heb je gelijk in maar de 9 serie is gewoon een uitzondering op de regel. De 9 serie zie ik zelf ook niet als een apparte serie maar meer als een uitbreiding van de 8 serie.

de regel is van toepassing vanaf de 4 serie als ik het correct heb. De enige uitzondering hierop is tot nu toe de 9 serie ( en als ze nu een nieuwe, op kleiner procedee geproduceerde high end kaart uitbrengen voor de gtx2 serie dan is dat de 2e uitzondering.)

Wat ik zowieso niet snap is dat nv nog geen nieuwe midrange kaarten heeft geproduceerd. Dit kan wal zijn omdat er nogal veel kaarten uit de 9 serie over zijn.
:p nvidia voelt wss de hete adem van ATi in zijn nek ;)
Ik zie telkens mensen roepen NVIDIA reageerd op ATI want de 48XX is dit of dat...

Er komt meer bij kijken dan opeens reageren op een recente videokaart, de kaarten die nu uitkomen zijn denk ik 1 of 1,5 jaar geleden al over vergaderd en hadden toen al een virtueel model van. Dus de stap die ze toen destijds maken moest al anticipatie zijn op wat de concurrentie kan gaan bieden in 2008.

Een GPU schudt je niet zomaar uit de mouw, dus nieuws mededeling als wat je hierboven leest is leading, roepen wat ze over een jaar doen is dus NU bepaald.
En roept NVIDIA alsnog dat een GTX285 een response is op de 4870X2 maar single GPU is dan is dat terplekke verzonnen door hun marketing afdeling of puur toeval.
Ze spelen elkaar in de hand, realtime scenario en wat marketing mag/ kan gaan doen.

[Reactie gewijzigd door Sm0k3r op 29 december 2008 17:21]

Volgens mij heb ik zelfs gelezen dat de kaarten die nu uit komen al 3 jaar geleden ontworpen zijn, maar opzich klopt het wel omdat nvidia zijn roadmap nu sneller moet volgen om de concurrentie aan te kunnen met AMD/ATi.
Anderhalf jaar? Reken maar rustig op 3 tot 4 jaar totale ontwikkeltijd. En er is natuurlijk wel een inschatting van wat ATI gaat doen, en naar aanleiding daarvan moeten ze op elkaar reageren. Die inschatting is echter ook niets anders dan gokken wat de concurrent over een paar jaar gaat doen, gebaseerd op hun huidige koers.

Er zijn echter wel een boel dingen die nog later aangepast en bijgeschaafd kunnen worden, wanneer duidelijker is wat de concurrent doet. Zeker iets als een SLI-kaart is wel weer redelijk makkelijk te ontwerpen, omdat er geen verandering in de chip voor nodig is. Het enige wat je nodig hebt zijn twee chips die samen op een bord passen en niet teveel stroom gebruiken en hitte produceren. In die zin is de GTX295 zeker een antwoord op de 4870X2, want reken maar dat als ATI niet een dergelijk krachtige kaart had NVIDIA de moeite echt niet zou nemen.
Perfect. Ik wil graag een nieuwe midrange kaart op 40 nm :D
Verbruiken niet teveel stroom en leveren goedeprestaties en de prijs is fair.
doe mij ook zo'n glazen bol
Naja, hoe kleiner de nm hoe minder stroom en warmte het over het algemeen verbruikt (als je het vergelijkt met dezelfde type op een grotere nm). Daarnaast zijn midrange kaarten altijd fair geprijsd. Omdat het een midrange kaart is.

Budget -> Midend -> Highend
Goedkoop -> Duurder -> Duurst
Hier ben ik het niet mee eens. In een theoretisch idealisme is het inderdaad zo hoe kleiner het bakprocedé is hoe zuiniger de chip. Als we echter in de praktijk kijken dan zien we wat anders.
In de afgelopen jaren worden de chips steeds kleiner gebakken. het verbruik gaat echter omhoog, vergelijk een hi-end videokaart van één, twee en vier jaar geleden maar eens met elkaar.
Als je een chip hebt op bijv 65NM met eigenschappen en een clocksnelheid van bijv 500MHz dan heb je een vaste stroomwaarde dat de chip verbruikt. Bak je dezelfde chip op bijv 55 of 40nn dan is dat verbruik een tikkie lager. Een die-shrink helpt wel een beetje maar dankzij de steeds sneller groeiende markt voor videokaarten en de daarbij, power om frames te weergeven, moet je wel.

Het is zowiezo al fijn dat tegenwoordig een kaart in 2D modus, weinig meer verbruikt. En dat was vroeger anders;
Je moet ook eens kijken hoeveel extra processoren en cores en geheugen een grafische kaart van tegenwoordig meer krijgt dan bijvoorbeeld een kaart van 5 jaar geleden. Nvidia/Ati hebben ook zo bijvoorbeeld speciale processoren op hun kaarten voor het versnellen van video beelden bij films en de effecten ervan bij te werken zoals Creative dat heeft door middel van Crystalization etc.

en ik neem aan dat 1 GB GDDR5 meer stroom doorzich heen heeft lopen dan
32 MB DDR1 of niet? De verkleining wordt vooral gezien als meer mogelijkheden voor hogere clocks etc.
Wat een vreemde nummering alweer, GT212 is het best, gevolgd door 214 en 216. 218 is dan het budgetmodel... Gelukkig zijn dit nogmaar de chips en niet de naam van de kaarten.
Op zich niets vreemds aan. Het is gewoon genummerd in de volgorde waarin het ontworpen is of uitgebracht gaat worden. Gezien het hier niet om de benaming van de kaarten gaat is er niets aan de hand.
Dat is bij NVIDIA vaak zo, hoe lager in de serie hoe "beter" de chip.
Mooi stukje Jilke! Nu ook al actief op tweakers.net ;)
Hmm, ik hoop dat ze de prijzen een beetje betaalbaar maken. Zie een upgrade naar 40nm wel zitten, na mijn 8800GT die ik nu heb. Misschien zelfs gelijk wel de overstap naar Nehalem maken.. Ligt er aan of dat setje bij elkaar over een half jaar een beetje betaalbaar is... :?
Yes! Eindelijk zal er terug eens een revolutie gebeurd zoals indertijd met de 8800-serie! :D
(Ik veronderstel dat dit toch zal gebeuren met de GT300)

[ Zit hier zelf nog met een 8800 GTX en wou enkel een nieuwe graka van zodra die een ware revolutie (nieuw procédé, nieuwe DirectX versie support, grote stap vooruit qua performance) zou ontketenen. En ik hoop echt dat dit met de GT300 terug zal gebeuren. Dan koop ik hem direct! ]

[Reactie gewijzigd door Asgaro op 30 december 2008 02:38]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013