Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties
Submitter: Dima_2005

De ontwerptekeningen van de Nvidia Geforce 9900GTX en 9900GTS zijn uitgelekt. Op basis van het ontwerp lijkt de GT200-gpu te bestaan uit twee ge´ntegreerde grafische rekeneenheden.

De pcb biedt volgens het naar Vr-zone gelekte D10U-referentieontwerp ruimte voor zestien gddr3-geheugenchips, met een maximale geheugencapaciteit van 1GB. Het geheugen zou, zoals al eerder werd gesuggereerd, een 512bit brede bus krijgen.

De GT200-gpu die zich op de 26,6cm lange dualslot-videokaart bevindt, zou gekoeld worden door een Coolermaster TM71-koeler. Hoewel nog onbekend is of de GT200 op het 55nm- of 65nm-procedÚ wordt gebakken, is het niet ondenkbaar dat Nvidia de gpu in eerste instantie op basis van een 65nm-ontwerp zal uitbrengen. In totaal zou de chip de beschikking hebben over 240 streamprocessors. Volgens de geruchtenstroom ligt de tdp van het GTX-model op 240W. Naar verwachting komen zowel de 9900GTX als de 9900GTS nog deze zomer op de markt.

Geforce 9900GTX front Geforce 9900GTX back
Moderatie-faq Wijzig weergave

Reacties (50)

Denk dat je dit altijd met een korreltje zout moet nemen, zoals het er nu uitziet word de kaart wel weer een enige verbetering t.o.v de G80/G92 Mixup. Verder las ik nieuws: Nvidia wil productnaamgeving vereenvoudigen deze post dat ze de namen willen vereenvoudigen? dan snap ik niet dat ze alsnog bij de 9*** serie blijven, de G200 is zodanig vernieuwd dat er ook wel een andere naam kan komen, want nu komt er bijna exact hetzelfde als met de g80 8*** reeks en de g92 8*** reeks.

Op de foto is trouwens ook te zien dat ze nu ook weer voor de 1 x 8pin en 1 x 6pin PCI-E Voedingstoevoer gaan.

[Reactie gewijzigd door Sqorpius op 13 mei 2008 12:19]

Verder las ik nieuws: Nvidia wil productnaamgeving vereenvoudigen deze post dat ze de namen willen vereenvoudigen? dan snap ik niet dat ze alsnog bij de 9*** serie blijven, de G200 is zodanig vernieuwd dat er ook wel een andere naam kan komen, want nu komt er bijna exact hetzelfde als met de g80 8*** reeks en de g92 8*** reeks.
Maar zolang de NVidia marketing rakkers niet met een nieuwe naamgeving op de proppen komen zal alle bericht geving gewoon met de huidige verwachte namen gebeuren, denk je ook niet?

Persoonlijk verwacht ik dat Nvidia met de nieuwe processor ook de nieuwe familie naam zal introduceeren. De *Force naam is al erg oud voor een marketing naam en ondanks dat het een goede naam heeft is het een goed idee om iets nieuws te brengen, een nieuwe "betere" naam voor een nieuw "beter" product.
Een nieuwe processor familie en dus een nieuwe aanduiding. De G** serie is dood lang leven de G*** series...
ze gaan dit niet de 10 serie nomen om de volgende redenen:
-Ze hebben een 9 serie die nog niet af is, en de core die door de 9600 gebruikt word is niet sterk genoeg om een high-end kaart uit te maken.
-Als ze er een 10-serie van zouden maken omdat deze core zo anders is, bijvoorbeeld de 10800GTX, wat worden dan de 10200, 10600 etc? Het is het niet waard om dit dualcore ontwerp op een mid of low-range kaart te gooien. Het zou stom zijn als ze 2 halve series hebben, dus is het er 1 waar de midrange anders is dan de high-end. De eindgebuiker heeft daar toch geen last van?
Ze hebben een 9 serie die nog niet af is,
En de 8-serie is wel behoorlijk "afgemaakt"? Heb je een 8900GTX gezien?

Wel een G92 op 8-serie kaartjes plakken, maar vervolgens dezelfde G9x chipjes ook weer op de 9-serie plakken. En zelfs een overgeklokte 8800GTS 9800GTX noemen..

Ze zouden er imho verstandig aan doen de hele 8 - 9 mixup achter zich te laten. G100/200 op een 10-serie plakken is helemaal zo gek nog niet.
Het is het niet waard om dit dualcore ontwerp op een mid of low-range kaart te gooien.
Net zoals met de G5x, G6x, G7x, G8x en de G9x komen er van de G100/200 generatie waarschijnlijk verschillende versies uit. Er is geen enkele reden waarom dit niet zo zou zijn.

[edit.]
typo

[Reactie gewijzigd door houseparty op 13 mei 2008 18:33]

euh maar ik denk niet dat ze de G200 serie zullen benoemen.
da's een erguh auwe maxtrox cpu... is er ook alniet meer een grote speler voor de consumenten-markt ( voorbode?? ) lol http://en.wikipedia.org/wiki/Matrox_G200
groejes dutchgenerall O-)
Volgens mij is de 9*** reeks wel degenlijk "af" en ik zeg ook niet dat ze perse een 10*** benaming moeten geven. Met de Nvidia 7 series ging het wel tot 79**. met de 8*** serie niet. Nu blijkbaar wel weer maar het verschil t.o.v de 7 serie is dat dit gewoon een compleet andere architectuur is. vandaar dat ik me afvraag waarom ze de naam niet veranderen. De 9-serie is nu dus als volgt dan:

9600GSO (voormalig 8800GS)
9600GT
9800GTX
9800GX2

Enigste wat ontbreekt zijn de wat lower/budget kaartjes. Maar hiervoor hebben we de 8400GS/GT en 8500GT.

Nvidia werkt altijd vanaf top naar bottom, wat dus wil zeggen dat ze Eerst het nieuwe vlaggenschip introduceren, 7800GTX , 8800GTX/GTS/ 9800GX2/GTX enzovoort, waarna de G*2/4/6 chips worden bebakken met minder streamprocessors etc.

[Reactie gewijzigd door Sqorpius op 13 mei 2008 13:40]

Ik snap niet waarom ie eerst op 65nM word uitgebracht, stel die kaart dan wat uit...breng hem eerst op 55nM uit, is het verbruik gelijk een stuk langer. Want 230W (theoretisch maximum) is toch wel erg hoog.

Ook kun je op 55nM hogere clocks halen dan op 65nM, breng dan een revolutionaire kaart die echt een dikke verbetering is t.o.v. de hedendaagse kaarten, zodat we niet weer 3 maanden later de volgende serie kaarten weer krijgen.

Ook kan ik niet wachten op bench marks van deze kaarten.

Zijn er overigens als benchmarks van de ATI 4000 serie?

Alleeeej
Ik snap niet waarom ie eerst op 65nM word uitgebracht, stel die kaart dan wat uit...
Dat doen ze om risico's te verkleinen. High-end kaarten worden vrijwel altijd op een ouder procedee uitgebracht. Zo is de 8800GTX 90nm, terwijl de rest van de GeForce 8 serie 80nm was. Een nieuw kleiner procedee brengt risico's met zich mee, omdat de ontwerpers er nog weinig ervaring mee hebben, en dus eerder fouten maken. Dit kan men zich beter veroorloven bij een mid-range of low-end kaart dan bij het vlaggenschip waar alle aandacht naar toe gaat.
volgens mij is dat moeilijker bij de productie om genoeg juiste chipjes van de wafer te laten vallen. ze kunnen dan mooi even testen en vervolgens het proces naar 55nm aan te passen.
dit is iets wat de naams verduidelijking niet ten goede komt
zodat we niet weer 3 maanden later de volgende serie kaarten weer krijgen.
Omdat je dan minder verkoopt en dan die zo als jij het noemt 'revolutionaire kaarten' niet meer kan uitbrengen omdat er niet genoeg geld in het laatje zit? Je hebt het hier over een bedrijf hoor... En wat is de doelstelling van elk bedrijf, precies winst maken :D
het gerucht gaat dat ze zowel op 55nm als op 65nm gaan uitbrengen.
als de yields van de 55nm hoog genoeg zijn zullen ze de 65nm versie vrij snel droppen waarschijnlijk, maar is dat niet het geval kunnen ze die gewoon net zo lang blijven maken als nodig.

opzich wel een goede oplossing (weinig risico's), maar wel extra duur bij de launch (2x tapeouts testen ect), en straks misschien wat verwarrend voor de klanten.

[Reactie gewijzigd door Countess op 13 mei 2008 14:47]

"Op basis van het ontwerp lijkt de GT200-gpu te bestaan uit twee ge´ntegreerde grafische rekeneenheden."

dat is niet wat er staat in het artikle,
er staat het lijkt op 2 aan elkaargeplakte g92's. dus alles dubbel zo veel als de g92 had.

edit @ snoitkever : Nvidia heeft al 64 TMU's wat volgens mij al te veel is.
de 16 van ATI was voor de huidige games wat te weining maar TMU's worden steeds minder gebruikt en hun taken vervangen door meer en meer shader effecten.
de r6xx liep alleen te veel op die trend vooruit.

[Reactie gewijzigd door Countess op 13 mei 2008 14:43]

dat is niet wat er staat in het artikle,
er staat het lijkt op 2 aan elkaargeplakte g92's. dus alles dubbel zo veel als de g92 had.
Het klopt inderdaad dat dat in het artikel staat, maar ik vind het maar een slechte vergelijking. Zo heeft deze nieuwe GPU volgens de geruchten 240SPs in tien clusters. Dat zou betekenen dat elk "cluster" bestaat uit 3 SIMDs van 8 ALUs, of 2 van 12, wat toch nogal een afwijking is van G92's 2x8 ALUs per cluster.
Ik ben ook wel benieuwd wat NVIDIA gaat doen met de TMUs en ROPs. Als ze die ook verdubbelen, zoals het artikel lijkt te suggereren, krijgen we echt een monster van een kaart. Ik hoop dan maar dat de geruchten dat AMD de hoeveelheid TMU's heeft verdubbeld in R700 waar zijn, anders komen ze echt nooit meer in de buurt bij NVIDIA.
Dit was tot-nu-toe de enige nuttige post in deze hele thread, idd. 240 streamprocessors op 240 watt komt mij wat tÚ toevallig over.

240watt zou best kunnen, maar niet met "maar" 240streamprocessors.
Ik vind het goeddat we dit zien omdat ik meteen zie dat het TDP 240W is.
Ook al heb je dan een dikke performance (moet blijken) , toch is het veel watt wat hij gebruikt. Zelf vind ik dit veels te veel maar dat is maar een mening.
Zal goed aantikken in de kosten en dan niet alleen energie kosten.
Vind ze beetje weg hebben van de allereerste 8800GTX ultra's,
de vraag is belangrijker wat die iddle gebruikt, misschien heeft die wel een soort hybride sli: "lijkt de GT200-gpu te bestaan uit twee ge´ntegreerde grafische rekeneenheden."
Dan koop je hem toch niet? Het is heel makkelijk hoor, het is gewoon een keuze die je moet maken. Bij mij weegt het extra energieverbruik dus echt niet op tegen het nut van de kaart.
Ik wel, en ik zou daarop willen reageren met: "boeien!". Alsof ik niet weet wat het ding verstookt. Als ik 600 euro uitgeef aan een GPU kan ik echt nog wel een paar tientjes per jaar extra betalen om het ding aan de gang te zetten. Als iemand anders dat er niet voor over heeft vind ik dat helemaal prima, dat moet iedereen zelf weten, maar waar haal je het lef vandaan mij (en anderen die ook een dergelijke GPU hebben) daarvoor belerend aan te spreken? Ik ga elke dag met de bus naar m'n werk, das heel wat beter voor het milieu dan die stroomrekening die ik zou besparen met een zuiniger (en slechter presterende) GPU.
Praat niet zo S*om, weet je wat voor bevuiling een vulkaan uitbarsting maakt?

Die maakt net zo veel bevuiling als 100 jaar aan auto's.

Mensen doe beter julie huis werk.

Wist je dat ook andere planeten warmer worden!

Zo als mars jupiter en de rest.

Of bevuilen wij die ook.

Het schijnt dat onze zon warmer woord.
Ligt aan het aantal zonnenvlammetjes.

Het klopt inderdaat dat een vulkaan uitbarsting veel meer de lucht in gooit. Er is zelfs data uit het verleden waaruit blijkt dat na een grote vulkaan uitbarsting 2 jaar een slechte zomer is geweest door as in de lucht.
Maar het is wel zo dat wij ook een aantal andere stofjes de lucht in smijten die een vulkaan niet te smijten heeft. En een aantal van die stofjes is al in kleine mate nog al schadelijk.
Maarja dan alsnog, alles wat wij hier tegen vervuiling doen dat compenseren ze in de landen met opkomende industrien rijkelijk. (rivieren in china ed.)

Dus misschien moeten we toch maar snel naar mars ook al word het daar warmer :P

ontopic:
Waarom heb ik het gevoel dat ze gewoon meer steam proccessors toevoegen ipv het ontwerp sneller per kloktik te maken of zuiniger... |:(
Waarom heb ik het gevoel dat ze gewoon meer steam proccessors toevoegen ipv het ontwerp sneller per kloktik te maken of zuiniger...
Hoe wil je dat doen dan? Voor zover ik weet is het niet zomaar even te doen om een chip zuiniger te maken. Wat wel mogelijk is is bepaalde delen van een chip tijdelijk uitschakelen zodat er minder stroom verbruikt wordt, maar dat helpt niet tegen piekverbruik. Verder is het mogelijk om lagere clocksnelheden te gebruiken, maar dat gaat dan ook weer ten koste van de performance, dus het verandert niets aan de perf/watt verhouding.
Chips zijn geen magische objecten die je zomaar eventjes zuiniger kan maken.

EDIT: wat betreft dat piekvermogen en het uitschakelen van stukken logica, laten we een eerst afwachten hoeveel deze chip in idle gebruikt, dat lijkt me veel interessanter.

[Reactie gewijzigd door Snoitkever op 14 mei 2008 10:50]

@Snoitkever:

Chill, man.

Ik vroeg me alleen af of hij (_AvA_), die kosten zelf betaalt aangezien hij het blijkbaar een "heel makkelijke" keuze vindt. En dat staat er ook volgens mij, niets meer, niets minder.

Waarom vraag ik me dat af? omdat hij volgens z'n profiel in '91 is geboren en het dan erg waarschijnlijk is dat hij "heel makkelijk" nog bij z'n ouders woont en zij de energierekening betalen. Dan zou het namelijk wel erg makkelijk zijn heh? Snappie? Kijk, betaalt ie wel die kosten dan kan ik alleen maar zeggen: excuus & choeso jij!

Ik heb het helemaal niet over het wel of niet weten wat zo'n ding vestookt.
Ik heb het helemaal niet over het er wel of niet voor over hebben.
Ik heb het helemaal niet over mileubelasting.

Waar jij het lef vandaan haalt om mij zo agressief toe te spreken en -1 te modereren op basis van iets wat ik niet schrijf ontgaat me dan ook volledig :?

Ik wou dat ik het geld had om zelf zo'n kaart langs de thuiscommissie te krijgen :+

[Reactie gewijzigd door Apie! op 14 mei 2008 13:02]

Waar jij het lef vandaan haalt om mij zo agressief toe te spreken en -1 te modereren op basis van iets wat ik niet schrijf ontgaat me dan ook volledig
Sorry, ik word die kritiek op niet energie-zuinige GPU's alleen een beetje zat, want ik denk dat de meeste mensen met een dergelijke kaart echt wel beseffen dat het meer stroom verbruikt dan een low-end GPU. Bovendien heb ik geen moderator status, dus ik heb niet aan je post gezeten. :)
OK, dat was dan weer vorobarig van mijn kant :)

Sorry!

[Reactie gewijzigd door Apie! op 14 mei 2008 14:44]

Sketchup anyone? Verder wel lekkere warme zomer zo 240w ^^
Coolermaster TM71-koeler
Eerste keer dat ik hoor dat er een ander merk koeling gebruikt word meestal is het rebranded of echt eigen.

Verder zoek werk op het internet levert mij alleen maar op:
Can't confirm but looks like the real deal.

[Reactie gewijzigd door PaddoSwam op 13 mei 2008 12:11]

Het is niet erg bekend maar Coolermaster levert al jaren een groot deel van de reference coolers voor nVidia: http://ecd.coolermaster.com

Het is hun OEM tak bij wijze van spreke. Dus dit is niet nieuw, maar wel mooi om het bekend te zien :)
Eerste keer dat ik hoor dat er een ander merk koeling gebruikt word meestal is het rebranded of echt eigen.
Het is anders al een behoorlijke tijd (de laatste jaren) vrij normaal dat nVidia (en ATI/AMD afaik) 3rd parties inschakelen om koelers voor hun referentie kaarten te ontwerpen/leveren.

Gezien het feit dat er behoorlijk wat warmte afgevoerd moet worden en er grenzen zijn aan tolereerbare geluidsproductie is dat helemaal niet zo vreemd ook. Andere partijen zijn beter in het ontwerpen/leveren van " efficiente" koeloplossingen. Dat spaart nVidia weer wat research uit.

Coolermaster is een van die merken, Artic Cooling ook, en nog een paar.

[edit.]
typo

[Reactie gewijzigd door houseparty op 13 mei 2008 18:14]

Waar gaan we heen met de voedingen zo? 9900GTX in TRi-SLi verbruikt 750W? Je moet toch snel gaan denken aan een 1250W voeding? Die zij momenteel erg schaars in Nederland :|
Ik denk net zo schaars als de mensen die 9900GTX in Tri-sli gaan draaien =)
En voor de overige onderdelen van je PC heb je dan echt geen 500 Watt meer nodig

Maar 240 Watt is wel belachelijk veel...

[Reactie gewijzigd door Incendia.NL op 13 mei 2008 12:58]

Leuk... maar.... het bovenstaande verhaal zegt niets over performance.

Iemand enig idee hoe deze kaarten zich verhouden tot wat er reeds op de markt is (lees: recente kaarten)?
Beter...

Nee serieus, het artikel is ook niet echt geschreven om een performanceindruk te geven. De kaart is notabene in het ontwerpstadium, hoe moeten ie dan ooit gebenchmarked worden?
How are we supposed to know?

Dit gaat om een ontwerp van de nieuwe nVidia kaarten, dus niemand weet hoe deze perfomancegewijs zullen zijn.

Afwachten tot er benchmarks opduiken van deze nieuwe kaarten.
240W.... Heerlijk. Dat is ongeveer 2x zoveel als een normale C2D PC onder full load (met een licht videokaartje erin, 7600 of dergelijke)
Ik mag hopen dat ze dan eindelijk eens het idle verbruik iniedergeval hebben aangepakt en dat dat niet op 120W ligt ofzo.

[Reactie gewijzigd door - peter - op 13 mei 2008 12:22]

mijn pc (E8400 OC, 6 tal schijven, 8800 GTX (de G80) en nog wat meer spul, pompt onder load er 350 watt doorheen. Idle is het 170 watt aan warmte dat mijn koeling kwijt moet. Eigenlijk vind ik dat de videokaartbakkers best wat energie hadden mogen stoppen in het ontwikkelen van energiezuinigheid in idle mode.
De HD 3xxx reeks van ATi verbruik al flink minder in idle, de 4870 reeks zal naar verluidt in idle amper +/- 10W verbruiken.
Volgens de geruchtenstroom ligt de tdp van het GTX-model op 240W.
Mijn voorspelling: over 10 jaar kun je je PC niet alleen inzetten voor distributed computing maar ook voor decentrale opwekking van energie (een soort inverse micro-warmtekrachtkoppeling)
wel ruig dat er 2 sli nokjes op zitten , dan past ie in triple sli _/-\o_

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True