Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Langzamerhand lekken steeds meer stukjes informatie over nVidia’s nieuwe generatie gpu’s uit. De eerste twee modellen uit de Geforce 9900-serie, die gebaseerd is op de GT200-gpu, zullen in juli geïntroduceerd worden.

nVidia logo (75 pix)Nvidia heeft de geplande introductiedatum van de Geforce 9900 GTX en GTS vooruitgeschoven om zo snel weer de prestatiekroon van AMD te kunnen overnemen, dat eind mei of begin juni met de Radeon HD 4800-serie komt. De GT200-gpu krijgt de beschikking over een miljard transistors en bevat daarmee vijfentwintig procent meer schakelaars dan de RV770-gpu van AMD. Dit zou goed zijn voor 200 shaderprocessors.

Volgens de anonieme bronnen van VR-Zone zal de Geforce 9900 GTX een 512 bit brede geheugenbus krijgen en de GTS-variant een 448 bit bus. Dit impliceert een geheugencapaciteit van respectievelijk 1GB en 896MB. Er zal gebruik gemaakt worden van gddr3-geheugen, maar kloksnelheden van zowel de core als het geheugen zijn nog niet bekend.

Moderatie-faq Wijzig weergave

Reacties (49)

De laatste (al dan niet gegronde ;)) speculaties is dat de GT200 idd sneller zou worden dan de RV770, maar ook een heel stuk duurder, warmer en een hoger verbruik hebben.

[Reactie gewijzigd door Reinman op 28 april 2008 19:42]

Iedere medaille heeft zijn keerzijde, je moet als fabrikant een keuze maken:
ofwel ga je resoluut voor de snelste kaart (wat hier normaal het geval is), ofwel maak je de zuinigste kaart (die dan op zijn beurt minder warm wordt).

Je kunt natuurlijk theoretisch proberen het beste van beide te combineren, maar de werkelijkheid toont aan dat het o zo vaak slechts in één richting uitdraait...

Zuinigheid en performantie gaan nu éénmaal (nog) niet samen...
zolang de kaart in idle modus maar zuinig is. Ik ben niet constant mijn videokaart aan het gebruiken, en gebruik vaak mijn laptop voor het surfen en tv series kijken. Scheelt toch weer zo'n 140 watt aan energie (laptop 20 watt, pc 160 watt).

daarom is zo'n dual GPU oplossing misschien ook wel interessant. Alleen de videokaart aanslingeren als de applicatie daarom vraagt (of nog liever, met een manual switch, ik zie het nu al mis gaan... )

dan nog een zuinige processor er in (eentje die zuinig is in idle modus, maar flink presteert (en energie slurpt in load). Dan loont het zich nog eens om de pc aan te laten staan als hij niets aan het doen is.
Dit soort kaarten zijn ook niet echt op de praktijk gericht. Het gaat er gewoon om in reviews de snelste kaart te kunnen tonen en daarmee de prestatiekroon over te nemen. Dat de kaart uiteindelijk nauwelijks in winkels zal liggen en bijna niet verkoopt is bijzaak.

Ook is het onderzoek en de ontwikkeling van deze kaarten interessanter voor de toekomst om derivaten van de chip op budgetmodellen te prikken en zo de ontwikkelkosten te beperken.
Vind dit klare onzin.
Er zijn zat gamers / overclockers en jan met de pet die nu eenmaal het beste wil kopen ALS hij eens een upgrade doet die deze kaart wel gaan kopen.
Deze kaart is wel degenlijk op de praktijk gericht, Crysis 2560x1600 alle eye candy aan bijvoorbeeld?
Ik kan in ieder geval niet wachten om ze in tri-sli te zetten :9~
Kijk voor de gein eens hoeveel mensen er een 8800GTX in hun pc hebben hangen.
REDFISH heeft wel gelijk hoor

die gamers en overclockers waar jij het over hebt, zijn nl met verwaarloosbaar weinig vgl met de rest
Inderdaad...ik ken niemand van mijn vrienden die een dikke pc heeft (en dan wil ik echt niet overdrijven, maar in vergelijking tot de rest van mijn vrienden haha) met een "mooie" kaart zoals ik...hoewel velen ervan wel gamen en alles.

grosso modo neemt toch echt wel een midrange kaart tot maximaal ¤200 die al dan niet al in een kant en klaar systeem zit...
Dit soort kaarten zijn ook niet echt op de praktijk gericht. Het gaat er gewoon om in reviews de snelste kaart te kunnen tonen en daarmee de prestatiekroon over te nemen. Dat de kaart uiteindelijk nauwelijks in winkels zal liggen en bijna niet verkoopt is bijzaak.
De cijfers spreken je tegen. Als je zou gekeken hebben naar de steam survey data van voor de introductie van de 8800GTS512 (G92), dan zou je gezien hebben dat de GF8800 weldegelijk een heel goeie verkoper was. Spijtig natuurlijk dat er geen onderscheid gemaakt wordt tussen de GTX en de GTS640, maar zelfs die laatste stak bij introductie met kop en schouder boven de competitie uit en was op zich ook al een heel stuk duurder dan de naaste concurrent.

Een tweede punt is het volgende:
"... introduced during the quarter. In fact, GeForce 8X products totaled more than $180 million in the quarter."

Dit is een quote uit de Nvidia conference call van dag op dag 1 jaar geleden. Op dat moment was de enige GF8 kaart op de markt een 8800GTX/GTS, met de GTS rond de $400.

Een verkoopscijfer van $180M is op dit moment slechts net iets minder dan de totale GPU kwartaalsomzet van ATI. Daar komt overigens nog bij dat high-end kaarten een veel grotere marge hebben dan het goedkope spul, dus het totale winstaandeel van high-end kaarten is veel groter dan hun aandeel in de omzet.

Kortom: ieder zijn mening, maar cijfers zijn cijfers en die tonen m.i. overduidelijk aan dat high-end kaarten meer zijn dan een insignificant parade paardje.

[Reactie gewijzigd door newinca op 29 april 2008 06:35]

De laatste (al dan niet gegronde ) speculaties is dat de GT200 idd sneller zou worden dan de RV770, maar ook een heel stuk duurder, warmer en een hoger verbruik hebben.
De (al dan niet gegronde) GT200 speculaties waar je naar doorlinkt komen bij 'een bron' bij AMD/ATi vandaan. Interessant dat die de hoed en de rand weet van het nieuwste product van de concurrentie ;)

Lijkt me dat AMD zich liever even kan concentreren op hun eigen nieuwe product en de informatievoorziening daaromtrent. Ik kan me de (van AMD/ATi afkomstige) preliminary info rond de 2900XT nog uitstekend heugen, en dat betrof nog wel hun eigen product ;)

8800GTX was ook 'large and hot', maar dit werd uitstekend afgevangen met een stille, efficiente koeler. We zullen zien... :)

[Reactie gewijzigd door Cheetah op 29 april 2008 02:55]

Geen 45nm?
Mja, ik hoop dat ze een een kaart maken die bv de helft minder energie verbruikt dan bv een 8800GT maar net zo snel is en/of een kaart die in 2d mode heel weinig verbruikt.
Dit zal wel weer een nog grotere energie slurper worden ben ik bang.
TSMC, een van de belangrijkste onafhankelijke chipbakkers slaat 45nm helemaal over, en kiest in plaats daarvoor voor een 40nm procedee. GPU ontwerpers zijn daarnaast altijd relatief laat als het gaat om nieuwe procedee's, dus waarschijnlijk zullen we pas in 2009 40nm kaarten in de winkels krijgen.
Als ik het zo lees wordt dit weer een hele dikke kaart, net zoals de 8800GTX die erg veel verbruikt en erg heet wordt. Daarna zal er wel weer verder gegaan worden om er een verbeterde versie van te maken die zuiniger is net zoals de 8800GT tegen over de 8800GTX.

De 9900GTX klinkt als een kaart die gruwelijk snel is maar dan ook erg heet wordt en daardoor flinke koeling nodig heeft en een zware voeding. Goedkoop zal deze kaart ook zeker niet worden. Ik denk dat je op een prijs mag rekenen zoals die van de 8800GTX toen die net uit kwam. Voor mensen met genoeg geld zal dit een leuk ding worden maar als je opzoek bent naar veel 'bang for your buck' zal dit em niet worden.
dat is nu nog allemaal speculatie

nvidia heeft het energie verbruik toch aardig onder controlle gekregen met de G92, het verbruik is idle iets hoger dan ati en onder load lager dan dat van ati ondanks een groter productieproces, je zou hiermee kunnen stellen dat nvidia het energie verbruik beter onder controle heeft dan ati
Geen 45nm?
Mja, ik hoop dat ze een een kaart maken die bv de helft minder energie verbruikt dan bv een 8800GT maar net zo snel is en/of een kaart die in 2d mode heel weinig verbruikt.
Dit zal wel weer een nog grotere energie slurper worden ben ik bang.
Over wat ben je nu aan het praten? Je hoopt de deze kaart even snel wordt als een 8800GT? Dan heb ik nieuws voor jou: dit wordt de nieuwe high end van NVIDIA en geen budget kaartje zoals de 8800GT. Typisch voor een high end kaart zal het verbruik dus hoog liggen en zal de kaart duur zijn. Maar who cares? Er zijn zuinige en goedkope kaarten genoeg op de markt als je die wil.
De 8800GT is mid-end, niet budget toch?
Ligt er aan wat je gewent bent uit te geven. Ik speculeer dat aval0ne net als ik een een ¤500+ monster in zijn pc heeft hangen en dan lijkt zo'n GTtje al snel budget... Zoals de relatieviteits theorie al zegt, het is allemaal relatief :) .
En natuurlijk hoop ik dat het verbruik hoogt ligt, als het niet zo is dan halen ze er denk ik niet alles uit. Ten zij ze een compleet nieuwe archtectuur hadden zoals bij Intel bij de P4 naar de C2D. Maar tot nu toe wijst alles er op dat dit een zoveelste variant op de G80 wordt(niet negatief bedoelt).

[Reactie gewijzigd door jmzeeman op 29 april 2008 10:27]

Je moet hier door heen kijken, Scherpmes. De topkaarten van Amd en Nvidia zijn op 2 punten gericht: het high-end gamers segment en de 'prestatietitel'. Als een fabrikant de snelste kaart in huis heeft leggen veel 'onnozele' consumenten de link dat de rest van de kaarten ook goed zal zijn.
Hoi hoi hoi ...
Nu komt er een Ferrari onder de videokaarten aan die niet 300 km per uur haalt maar dik 400.
Nou geweldig ... en dat terwijl de je praktisch niet harder hoeft en kan dan 120.
Mooie vergelijking. Deze kaart is inderdaad als een Ferrari, veel te duur, verbruikt veel te veel en levert belachelijk snelle prestaties. En net zoals een Ferrari spreekt die in niche markt aan die massaal deze kaart zal kopen, net zoals elke gebouwde Ferrari direct verkocht wordt.
En je mag inderdaad niet sneller dan 120 op de gewone weg, net zoals je in vele games misschien niet veel voordeel zal hebben van deze kaart, maar een ferrari komt het beste tot zijn recht op het circuit, waar alles mag, net zoals deze kaart gebouwd is voor die paar games (crysis) die zo'n monster wel nodig hebben
En als klap op de vuurpijl benzine peperduur geworden is...
Met andere woorden dat mensen omwille van dat ene rukspel ##$#$# een videokaart gaan kopen die kwa performance overkill serveert waar je vervolgens ook nog aan het einde van het jaar een leuke boost voor krijgt op je stroomrekening...
(Tenzij je zo'n schijnheiligert bent die z'n ouders via een omweg besteelt ..)
So? Je betaalt toch voor de stroom of benzine? Wat maakt het dan uit? Ieder doet met zijn geld wat hij wil.
Ter verduidelijking ...
Ik heb een Asus 8800 GTS 512mb Top variant en ik haal al bij Crysis op 1600x2000 met alles op high doodleuk 55 fps en in het ijs verhaal min 48fps..
Ik kom dus NIKS te kort.
1600x1200 min 48 fps is niet slecht, maar echte gamers spelen tegenwoordig met AA en AF. EN dat maakt het spel zo zwaar en daarom heb je deze kaart nodig.
*edit* Laat staan dat ik in mijn externe hdd bay ga lopen vijlen/zagen omdat die F#$#$ kaart zowat 30cm lang is ...
Waarom zou je in je externe bay moeten zagen om een interne kaart te laten passen? |:(

[Reactie gewijzigd door aval0ne op 29 april 2008 08:10]

Ik neem aan dat jij geen 24" of 30" monitor hebt?

Ja... dat kan inderdaad tot frustraties leiden. Misschien kan deze site je wel helpen?
Ik neem die speculaties met een korrel zout. Kijk naar het hele 8800GTX vs 2900XT verhaal. De 2900XT had volgens de toendertijd spelende speculaties de 8800GTX killer moeten worden, dat viel uiteindelijk toch wel even tegen. Denk ook aan de 8800Ultra specificaties speculaties. Men had zogezegd van de Dell website een core clock van 650MHz af gehaald terwijlf het uiteindelijk maar 612MHz bleek te zijn.
Hoewel de pagina binnen de kortste keren al weer verwijderd werd, zorgde de site Fudzilla voor een kopietje. Aan de hand daarvan is duidelijk geworden dat de gpu van de 8800 Ultra een kloksnelheid van 650MHz aangemeten heeft gekregen
Het beste lijkt me om gewoon te wachten totdat zowel de kaart van ATI als van nVidia op de markt komt, dan zien we vanzelf wel welke de beste is in performance. Persoonlijk denk ik toch dat dit nVidia wordt, omdat ATI zich volgens mij meer focussed om een wat goedkopere kaart weg te zetten terwijl nVidia meer zoiets heeft van "laten zien wat we kunnen en er een dikke tag aan hangen van E500+"

Ach ja, time will tell, maak me er niet zo druk over. Ik zie wel of het de moeite wordt om mijn 8800GTX om te ruilen voor zon bakbeest.
Nvidia is me onderhand helemaal kwijt met hun naamgeving (in ieder geval de achterliggende logica). Heeft iemand informatie over waarom ze dit niet de 10 series maken of waarom ze de laatste reeks G92 core kaarten in de 9 series hebben gepropt (of juist de eerste in de 8 series)? :?

Hebben ze daar ooit een officieel statement over gemaakt?
Het zit nu gewoon zo:

G8x is alles van 8xxx behalve 8800GT en GTS 512, die zijn G92.

G9x is de hele 9 serie, behalve 9900GTS/X die zijn GT200, maar deze hadden dus eigenlijk 10 serie moeten zijn :/ Ik snap ook niet waarom ze de hele naamgeving door elkaar gaan gooien, maarja, als je het eenmaal weet is het niet zo'n probleem.
Wat ik dus eigenlijk bedoelde is of ze ooit uitgelegd hadden waarom ze het zo genoemd hadden... maar aangezien er geen informatie verder te vinden is, denk ik niet dat Nvidia er ooit een duidelijk statement over heeft gemaakt.
Duh. Er valt helemaal niets uit te leggen. Ooit al eens overwogen dat interne project namen intern zijn?

Ik vind het eerder vreemd dat hun chipnamen zo lang op voorhand al bekend zijn. Op mijn bedrijf kan ik niet eens de chips waaraan ik zelf gewerkt heb matchen met de finale marketing naam. Het is bij ons niet ongewoon om met opzet verwarrende namen te geven om de concurrentie het moeilijker te maken.
Heeft iemand informatie over waarom ze dit niet de 10 series maken
Niemand heeft informatie over welke toekomstige serie dan ook. Dit is pure speculatie op forums en tech-tabloids, tot nu toe zonder enig hard bewijs. Voor het zelfde geld gaat NVIDIA voor de nieuwe serie voor een hele nieuwe naam, in plaats van Geforce. Hecht dus maar niet teveel waarde aan berichten als dit tot er officieel iets bekend wordt gemaakt.
Nvidia is me onderhand helemaal kwijt met hun naamgeving
Duidelijker kan toch niet? Nieuwe snelste kaart, dus getalletje hoger dan de huidige snelste kaart. Hoef je geen Einstein voor te zijn om dat te snappen.
Ik dacht dat de laatse evolutie van GDDR3-geheugen niet veel hoger kon klokken dan zijn 2000Mhz-hoge gezondheidsgrens.. Ik denk dus dat de clock-speeds heel gelijkend zullen zijn met de hedendaagse 8800GTS/GTX/Ultra-series..

off-topic: 1.000.000.000 transistors !! _/-\o_
Gezien de breedte van de geheugenbussen lijkt 2GHz gDDR3 me niet zo'n enorme bottleneck te vormen.
nou GDDR3 is nog wel te krijgen tot 2300 zoals bij sommige 8800ultra's te vinden is.
Ik had gelezen dat de specs weer geupdate waren. De 9900GTX zou 240 shaders hebben en 1,3 miljard transistors en GDDR3 geheugen dat zou werken op 2200 Mhz.
De bron ben ik kwijt (het stond op HWI ) De 9900GTS gaat het idd met een iets mindere bit bus moeten doen.

Gevonden: http://www.hardware.info/...pY/nVidias_GT200_in_July/
GT200 core will feature 240 shaders, 32 ROPs and 120 TMUs
:o 8-)

@hieronder, jah sorry, zit teveel met de 9800 serie in m'n koppie :> .

[Reactie gewijzigd door rickyy op 28 april 2008 20:15]

Ik had gelezen dat de specs weer geupdate waren. De 9800GTX zou 240 shaders hebben en 1,3 miljard transistors en GDDR3 geheugen dat zou werken op 2200 Mhz.
De bron ben ik kwijt (het stond op HWI ) De 9800GTS gaat het idd met een iets mindere bit bus moeten doen.
De 9800GTX is allang te koop het gaat hier om de 9900GTX :z

[Reactie gewijzigd door -The_Mask- op 28 april 2008 20:08]

Ik vraag me af wat we met al die grafische power gaan doen.
Zo ver als ik weet is er maar 1 spel die `misschien` een zwaardere kaart nodig heeft en dat is crysis.
Ik speel hier met 2 x 8800gtx oc sli en moet zeggen dat een beetje meer performance nooit weg is. Het vreemde is echter dat het overclocken van mij cpu naar 3.5 ghz bijna net zoveel winst gaf als een 2e 8800 erbij.
Efficiency van cpu cycles om je grafische kaart mee aan te sturen lijkt mij dan ook steeds belangrijker worden.

Maar echt wat gaan we met die nieuwe 9900 doen, 1 spel en 1 3dmark ?
Lijkt mij een beetje mager. Komen er nog meer games alla Crysis uit, dat zou goed nieuws zijn.
Het gaat niet alleen om de games die er nu zijn maar ook om de games die nog zullen gaan komen. Operation Flash Point 2 bv, nieuwe Battlefield etc. En de nieuwe features zoals DX10.1, en een lager TDP (voor de buget kaarten dan).

Edit. Ik ben nu toevallig crysis opnieuw aan het uitspelen en merk dat ik toch wat meer power nogdig heb dan een 8800GTS 320Mb :) .

[Reactie gewijzigd door rickyy op 28 april 2008 20:35]

dx10.1? Ik dacht niet dat NV daar aan begon?

Ik ben het overigens wel eens dat er op dit moment iets anders moet/kan gebeuren dan alleen maar performance winst. Beter verbruik en (dus) minder hitte, meer opties zouden erg welkom zijn.
en de kaart zal alleen passen als je een btx kast koopt. is te verwachten

Ik moet zelfs nog af en toe stukje van een 3,5 bay slopen voor een 8800gtx, 3870, 3870x2 en nu de 9xxx series van nvidia
inderdaad de standaard ATX maten passen gewoon echt niet meer...vind het maar raar eigenlijk. Ik heb zelf de NSK6000 die op dat moment een van de langste ATX kasten was...

en nog past mijn kaart maar amper (HD2900XT) (oke er zit wel nog een 92mm fan voor de drivebays maar dan nog) maar die kasten gewoon wat langer!
Ligt aan de kasten. De officiële ATX maten laten kaarten van 30cm toe (OEM HD 2900XT bv). Sommige kun je ook voorin de kast extra vast zetten omdat ze zo lang zijn. Maar het hoort te passen. Dat kastmakers dat anders gemaakt hebben, so be it...
hij gaat wel duur worden alleen dat heb ik er zeker voor over, dit is waar ik, en ik denk heel veel mensen al heel lang op zitten te wachten,

toch hoop ik op 256 unified shaders, dat gaat erg leuke getallen geven in Tri SLI, stel je voor wat een performance : 768 unified shaders, 3 x 512 bit bus, 3 GB aan video geheugen,

met zulke hardware kunnen we tenminste crysis spelen op 2560 x 1600 met alles op very high met een acceptabele 60 frames per seconden. :) wat toch erg leuk voor het oog is :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True