Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties

Nvidia gaat in juli mogelijk een 55nm-variant van de 9800GT uitbrengen, die gebaseerd zal zijn op de G92b-gpu. De 65nm-versie van de 9800GT zou een Geforce 8800GT met een G92-gpu zijn.

GeForce-logoDe videokaartfabrikant wil de overstap naar 55nm-chips voorzichtig maken door mondjesmaat gpu's die zijn gebakken op het kleinere procedé beschikbaar te maken. De nieuwste 55nm-kaart die het bedrijf uitbrengt is de 9800GT, die echter in twee smaken voor oem's beschikbaar komt: een op de G92b-gebaseerde variant en een op 65nm-gebaseerde G92-versie. De G92b-gpu wordt op 55nm gebakken en zal de beschikking krijgen over 256 of 512MB ddr3-geheugen met respectievelijke kloksnelheden van 900 en 975MHz. Op welke snelheid de coreklok tikt, is nog niet bekend, maar deze zou in ieder geval boven de standaardsnelheid van de core van de 8800GT liggen die zijn werk op 600MHz doet.

De nieuwe op de G92b-chips gebaseerde 9800GT-kaarten zullen over een hdmi-uitgang en twee dvi-poorten beschikken en ze zullen onderdeel van een sli-opstelling kunnen worden. De 65nm-versie van de videokaart is op de 8800GT met een G92-gpu gebaseerd, maar zal ook een snellere processorklok dan de 8800 krijgen: evenwel is, net als bij de 55nm-versie, nog niet bekend welke snelheid de processor krijgt. Wanneer de opbrengsten van het 55nm-fabricageproces hoog genoeg blijken, zal Nvidia het 65nm-vangnet waarschijnlijk niet langer nodig hebben.

Moderatie-faq Wijzig weergave

Reacties (52)

Ik moet zeggen dat Nvidia bezig is met het meest verwarrende aanbod videokaarten ooit. Voordeel is dan wel weer dat nagenoeg alles met 88/96/98 betekent dat je een kaart hebt waarmee te gamen valt. Maar toch:

8800GTS (320)
8800GTS (640)
8800GTS (512)
8800GT (256)
8800GT (512)
8800GS
8800GTX
9600GT
9800GT (55nm)
9800GT (65nm)
9800GTX
9800GX2

'T zou zo kunnen dat ik nog wat types ben vergeten - ik vind het er in elk geval niet duidelijker op worden. Hoe verhoudt bijvoorbeeld de 9800GTX zich tot de aangekondigde 9800GT's? Hoe snel is mijn 8800GTS 640 nog in vergelijking met de nieuwere 9600GT?

[Reactie gewijzigd door rodie83 op 5 mei 2008 14:15]

Je hebt het over aanbod, maar kijk eens eerst hoeveel van die kaarten nog in de winkels te krijgen zijn. Dan vallen al snel de 320 en 640 GTS af, en met de release van de 9600GSO is straks de 8800GS ook weg. Daarnaast verwacht ik ook niet dat de 8800GTX nog lang in de winkels zal liggen, dat is nog een oude 80nm chip.
Dat er daarnaast nog een verschil zit tussen de 8800GT met 256 en 512 mb geheugen ligt niet aan NVIDIA maar aan de AIB partners. Dat is hetzelfde verhaal als met overgeclockte versies van alle bovenstaande kaarten.

Wat betreft vergelijkingen tussen verschillende kaarten is het sowieso altijd het beste om onafhankelijke reviews na te kijken. Typenummers hebben nooit veel gezegd over performance, en ook bij AMD/ATI kun je niet aan de typenummers zien of de kaarten sneller zijn dan die van een vorige generatie.
Dat lijstje klopt niet, die geheugen hoeveelheden die je noemt zijn de keuzes die OEM's maken, dat heeft niks met Nvidia te maken. Er zijn inderdaad 2 versies van de GTX (ik weet ook niet meer precies hoe dat zat) en nu komt dit er dus bij. Verwarrend; nee, vijf minuten meer tijd nodig om de verschillen uit te zoeken; ja
De 8800 GTS 512 is gebaseerd op de G92 core, de 8800 GTS 640/320 zijn gebaseerd op de G80 core.
Dat lijstje klopt niet, die geheugen hoeveelheden die je noemt zijn de keuzes die OEM's maken, dat heeft niks met Nvidia te maken.
Dat moet uiteindelijk door NVIDIA ondersteund worden, zowel door hun chips als door de driver.

Je springt dus wat rap tot conclusies en je bent zelf nog het meest verward van al...
Ik wil niet gaan flamen maar ik reageer toch maar even
Dat moet uiteindelijk door NVIDIA ondersteund worden, zowel door hun chips als door de driver.
Ja dat is nogal logisch he, maar het is echt de keuze van de OEM's, nvidia levert een chip met bepaalde spec's en doe er mee wat je wilt, daar komt het op neer.
e springt dus wat rap tot conclusies en je bent zelf nog het meest verward van al...
Ik weet niet echt hoe je hier precies bij komt, maar zo'n reactie zegt meer over jezelf dan over mij, beetje jammer
Het wordt tijd dat ze gewoon een performance rating geven aan video kaarten.
Dat, of gewoon een logische nummering of type-aanduiding. Als je van een GPU 3 typen kaarten hebt er bijvoorbeeld een 9800 Lite, 9800 en 9800 Pro van maken. Ik ben zelf bezig geweest met het samenstellen van een nieuwe PC en ben echt tijden bezig geweest met het zoeken van reviews. Als rasechte nerd vind ik dat leuk om te doen natuurlijk, maar een gemiddelde consument ziet echt door de bomen het bos niet meer. Vooral de GS, GT en GTX aanduidingen van nVidia zijn enorm verwarrend, waarbij ze ook nog eens met een nieuwe 'generatie' (de 9xxx kaarten) aankomen die soms zelfs een stuk minder presteren.

Maargoed, ik vraag me af of het uberhaupt wel in de best interest van de fabrikant is om een duidelijk systeem te maken. Ze willen altijd claimen dat ze sneller zijn dan de concurrent, en bovendien willen ze graag dat de consument een zo duur mogelijk kaart koopt.
Deze hele discussie is zinloos want de gemiddelde consument koopt geen videokaart, maar een computer, bij een computerwinkel. Het boeit die gemiddelde consument verder helemaal niet wat voor type aanduiding de grafische kaart heeft, als hij het maar doet.
Als je wel zelf alle onderdelen van je systeem bepaalt en precies wil weten welke kaart nou sneller dan een andere is, dan google je even om een paar reviews te lezen, zo moeilijk is dat niet (en als je dat wel moeilijk vindt, dan kun je beter ook maar gewoon een standaard systeempje kopen).
Ik weet als leek op het gebied van auto's ook niet wat alle typeaanduidingen van auto onderdelen betekenen en waarmee je nou meer PK's hebt, maar ik ben dan ook iemand die gewoon een auto koopt en het ding weg brengt als ie het niet doet. Zo is het ook bij computer onderdelen...
maar de consument trapt wel in het feit dat een kaart met een hoger typenummer (9600 > 8800) of meer geheugen (8800gts/640 > 8800gts/512) vaak genoeg langzamer is. Je wilt niet weten hoeveel leken nog steeds denken dat een 7300 met 512 mb geheugen sneller is dan een 7600 met 256 mb geheugen, om zomaar wat te noemen.

Dus ook mensen die een compleet systeem kopen worden wel beinvloed door de onduidelijke aanduidingen van nvidia (en ati).
Waarom een logische nummering. Als tweaker weet je wel welke videokaart je nodig hebt, en welk type je gaat kopen. Van te voren kijk je ook nog eens even naar benchmarks en meestal (Tomshardware) staat daar ook bji hoe de videokaart gebakken is.
Die kan je gewoon op internet zoeken 'willekeurige kaart 3dmark06 score'...
Dat is leuk, maar dan heb je dus synthetische benchmarks nodig om de representativiteit the bewaren, zoals 3dmark. Maar in dit geval is er weer veel discussie over, of dit wel de effectieve performance betreft.

Bovendien worden de videokaarten dan geoptimaliseerd om goed te performen op de synthetische benchmarks, waardoor de scores nog weer relatiever worden.

Mijn antwoord is dus NEE, er zou geen perf rating moeten komen.
In feite hebben ze een kickass chip gebouwd die verder ontwikkeld wordt op kleinere procede's. Dat scheelt warmteontwikkeling en levert hogere clockspeeds en / of wat tweaks in het nieuwere ontwerp. Nvidia moet wel, want AMD staat op het punt een kaart met een miljoen transistors te releasen, die vervolgens geruchten gehakt maakt met Nvidia's hoogste kroon op het moment. Even de werkelijke releasedatum afwachten dus wat betreft AMD.

En idd, die hele optelling vanaf de 8xxx series wordt enorm verwarrend op deze manier.
de r770 gaat 'maar' 800miljoen transistors gebruike, niet 1 miljard.

ATI is een andere weg in geslagen voor de high-end.
de r700 gaat bestaan uit 2 kleinere r770 chips, maar dan worden ze aan elkaar gekoppeld via de ringbus controler en niet met een pci-e brug zoals de 3870x2.
hierdoor is het mogenlijk om shared memory te gebruiken, dus maar 1 set geheugen en niet dubbel uitgevoerd zoals bij 3870x2.
dat heeft ook als voordeel dat het voor het systeem lijkt alsof er maar 1 chip is, en er dus minder/geen driver optimalisaties nodig zijn zoals die nodig zijn voor crossfire/SLI.
(en dat zou ook kunnen betekenen dat de r700 een 512bit geheugen interface heeft, en de single chip dus de al bekende 256bit)
deze dubbele chips zijn vervolgens eventueel nog in quad-fire te zetten (totaal 8 cores dus).

ATI gaat voor meerdere kleine chips die ze goedkoop kunnen maken met hoge yields en een laag verbruik en/of hoge clocksnelheid die nauw samenwerken, Nvidia gaat nog even door op de oude weg van grotere single chips.

[Reactie gewijzigd door Countess op 5 mei 2008 15:55]

Zeggen rivalen niet altijd dat ze beter zijn/worden dna de ander...
Nvidia komt ook met een gpu van meer dan een miljard transistors

http://core.tweakers.net/...0-gtx-en-gts-in-juli.html
Warmte is puur afhankelijk van het opgenomen vermogen wat weer afhankelijk is van het voltage. Of je die schaalverkleining gebruikt om de kloksnelheden te verhogen (je hebt minder volt/GHz nodig) of het zaakje zuiniger te maken is vooral afhankelijk van de doelgroep van de kaart. Ik vermoed dat onze desktops steeds meer weg gaan hebben van straalkachels ;)
Warmte is puur afhankelijk van het opgenomen vermogen wat weer afhankelijk is van het voltage. Of je die schaalverkleining gebruikt om de kloksnelheden te verhogen (je hebt minder volt/GHz nodig) of het zaakje zuiniger te maken is vooral afhankelijk van de doelgroep van de kaart.
Dat ligt maar helemaal aan het procedee dat gebruikt wordt. Dat bepaalt namelijk hoeveel voordeel er op elk vlak te halen valt. Zo kan het zijn dat een kleiner procedee alleen kleinere chips geeft zonder stroombesparing.
TSMC's 55nm procedee (dat door ATI en NVIDIA wordt gebruikt) levert ongeveer 10% stroombesparing op, maar niet meer performance. Wel wordt de chip kleiner, waardoor een chip met dezelfde grootte meer transistors (en dus meer performance) kan hebben.

[Reactie gewijzigd door Snoitkever op 5 mei 2008 15:03]

Nvidia gaat er dus van uit dat de huidige processors het nog wel even uithouden in de strijd met ATI, door de core clock en de shader clock te verhogen zullen ze nog wel even wat ruimte hebben.

Gezien ATI al langer 55nm chips gebruikt en deze het op dit moment Nvidia net wel/net niet kunnen verslaan, denk ik dat Nvidia gelijk heeft. Als zij de core en shader clock door naar 55nm te gaan kunnen verhogen zonder dat ze het opgenomen vermogen omhoog stuwen dan denk ik dat ze een goed idee hebben om op die manier de winst marge hoog te houden op het in middels toch wel oude G92 ontwerp en de die shrink G92b.

Wel jammer voor de consument want Nividia heeft op dit moment duidelijk geen haast met he uitbrengen van een op een nieuwe core gebaseerde lijn. Maar goed ze zijn niet gek bij Nvidia, het heeft geen zin om een nog heel veel snellere core uit te brengen op een voor hun onbekend procedee (55nm) als ze het ook voorzichtig kunnen doen met een bestaande core die ze zelf ook beter kennen.
hopelijk komen er ook nieuwe passief gekoelde die wel behoorlijk vlot zijn zoals de 8600GTS
Er is een passief gekoelde 9600GT van Gigabyte, zie bv hier
Of je kunt ook een 8800GT/GTS voorzien van een arctic cooling accelero S1.
Is het woordje "mogelijk" in de eerste zin van het artikel nu werkelijk het enige dat aangeeft dat we hier te maken hebben met ongefundeerde berichten van roddelsite VR-Zone? Ik begin stilaan de neiging te krijgen Tweakers uit mijn RSS reader te halen, als dit het niveau van de site wordt. Ga je schamen jongens. :(
Is het woordje "mogelijk" in de eerste zin van het artikel nu werkelijk het enige dat aangeeft dat we hier te maken hebben met ongefundeerde berichten van roddelsite VR-Zone? Ik begin stilaan de neiging te krijgen Tweakers uit mijn RSS reader te halen, als dit het niveau van de site wordt. Ga je schamen jongens. :(
VRZone is niet zomaar een roddelsite. Ze hebben vaak als eerste NVIDIA nieuwtjes. En zeg nu zelf, zoiets als dit verhaal verzin je niet zomaar. Er zal dus wel wat van waar zijn. Hoe serieus je dit opneemt is je eigen verantwoordelijkheid.
VRZone is niet zomaar een roddelsite. Ze hebben vaak als eerste NVIDIA nieuwtjes.
Net als The Inquirer, of nog erger, Fudzilla. De signaal/ruis factor is gewoon veel te hoog. Natuurlijk klopt er wel een aantal dingen die ze roepen, maar er wordt zoveel onzin geroepen dat het compleet onbetrouwbaar wordt.
In de categorie "als we maar genoeg verschillende voorspellingen doen klopt er vast wel iets van".
Nou is er niets mis met dergelijke sites, ik lees zelf ook graag The INQ, en ik mag ook graag speculeren over de nieuwe NVIDIA en ATI GPU's, maar als een site als Tweakers.net die speculatie overneemt zonder er bij te zeggen dat het speculatie is verspreiden ze misinformatie en roddels, en daar maak ik me kwaad over.
En zeg nu zelf, zoiets als dit verhaal verzin je niet zomaar. Er zal dus wel wat van waar zijn.
Zo kan ik er ook nog wel wat van. Als ik zeg dat GT200 192SPs heeft, met een 512bit bus naar 1 gig GDDR3 geheugen is dit ook niet heel vreemd. Is het daarom waar, of zelfs nieuwswaardig? Tuurlijk niet.
Of is juist de afwijkendheid van het bericht genoeg om de waarheid er van vast te stellen? In dat geval is het bericht dat we laatste hoorden over 2gig GDDR5 op GT200 zeker ook waar?
het inquirer heeft het vaker goed als niet, en fudzilla heb ik nog niet op een grote fout kunnen betrappen eigenlijk.
vr-zone geen ervaring mee.
Aan de aanhalingstekens om de titel is overigens ook te zien dat het om een onofficieel bericht gaat. Dat is zelfs al te zien als je je RSS headlines doorleest ;)
En stel dat iemand de haakjes over het hoofd ziet, of de betekenis er niet van weet? Herkent deze persoon dan het verschil tussen het bovenstaande op speculatie gebaseerde bericht en een officieel door NVIDIA naar buiten gebracht persbericht? Na het woordje "mogelijk" wordt de hele rest van het bericht gesproken alsof dit allemaal informatie is die NVIDIA heeft bevestigd.
Tsja, lezen is een kunst. Je kan mogelijk ook het woord mogelijk in elke zin laten terugkomen. Maar dit heeft mogelijk weer gevolgen voor de leesbaarheid. Wat dan mogelijk weer andere mensen irriteert. Mogelijk heeft men bij tweakers dus een keuze moeten maken tussen twee kwaden. En mogelijk gaat men ervan uit dat mensen in staat zouden moeten zijn leestekens en teksten te begrijpen. Mogelijk gaat dat niet voor iedereen op. Mogelijk kunnen die mensen zelf betere teksten schrijven. Maar waarschijnlijk ook niet
Of je schrijft gewoon "Volgens de website VR-Zone zou nvidia..."?
Ik had dit ook gemist en ben ook niet zo te spreken over de telegraaf stijl van nieuws brengen die tweakers steeds vaker gebruikt...
Wat finraziel zegt.
En wat is er mis met de slotparagraaf "In hoeverre deze geruchten op waarheid berusten kunnen wij niet vaststellen. We hebben contact opgenomen met NVIDIA voor een reactie, maar zij gaven aan niet te reageren op speculatie.", of iets dergelijk?
kan ik hier uit op maken dat de GT200 of nog op 65nm gaat worden gemaakt of een paar maanden na de r700 uit komt?
met 1 miljard tot 1.3 miljard transistors volgens de geruchten mag ik voor nvidia hopen dat ze het niet op 65nm uit hoeven te brengen.

edit : ja misschien maar aangezien de r700 tegelijk met deze 55nm g92 uit komt zou dat betekenen dat de gt200 later als de r700 uit komt.
en die 1-1.3 miljard transistors zijn overal te vinden op internet.

[Reactie gewijzigd door Countess op 5 mei 2008 15:27]

Leuk die losse flodder, waar heb jij 1-1,3 miljard vandaan?
Wanneer de opbrengsten van het 55nm-fabricageproces hoog genoeg blijken, zal Nvidia het 65nm-vangnet waarschijnlijk niet langer nodig hebben.
Als het dus goed werkt en de yields hoog genoeg zijn komt hij vrolijk op 55nm, zo niet dan 65nm. :)
Ik hoop dat deze versies goed te onderscheiden zijn als ze eenmaal door retailers op de markt gezet worden. Volgens mij zit er toch wat verschil in snelheid in de 2 versies...
Snelheden, overclockbaarheid en vermogen zullen wel verschillend zijn.
(eventueel wordt de clock gelijk/trager bij de 55nm tov de 65nm maar dat maakt de overclockbaarheid dan hoger, en anders is hij standaard al sneller)

Vooral dat laatste, het lagere vermogen, spreekt mij nu persoonlijk aan. om 2 redenen:
1 verbruik van het gehele kistje
2 warmte productie van het systeem (vooral dan in de zomer, en dan onrechtstreeks ook de koel mogelijkheden/geluidsproductie)

[Reactie gewijzigd door kluyze op 5 mei 2008 14:18]

Kleinere procede,s, leiden tot hogere clockssnelheden ja. En daarmee, blijf je gewoon weer met dezelfde temperaturen zitten hoor :P
Het is alleen, dat je nu hogere snelheden kunt bereiken, zonder dat de temps, NOG hoger worden

[Reactie gewijzigd door pcgek op 5 mei 2008 14:54]

55nm... dat biedt nog ruimte om te overklokken, lijkt mij zo!

En een HDMI-uitgang maakt deze ook nog interessanter dan de huidige 8800GT.

Nu de prijs nog: hopelijk niet veel boven de huidige 9600GT, 55 nm impliceert immers goedkopere productiekosten, dus dat moet mogelijk zijn!
Hmm, mijn 8800GT heeft ook gewoon een HDMI uitgang hoor :S
Weliswaar via een adaptertje op een DVI poort, maar ik kan em er aan hangen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True