Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties
Submitter: eekhoorn12

Nvidia wil in november twee varianten van de G92-gpu uitbrengen, zo schrijft The Inquirer. Daarmee worden eerdere berichten over de introductie van de nieuwe gpu bevestigd. De G96- en G98-core volgen later.

nVidia logoDe G92 moet de gpu's op GeForce 8800-videokaarten gaan opvolgen. De nieuwe core komt in twee versies: de G92_200 voor low-end kaarten en de G92_300 voor de high-end videoplanken. Over kloksnelheden is nog niets bekend.

Na de G92 staat ook de G98-gpu voor november op het programma. Deze core is bedoeld voor goedkope videokaarten. De G96 moet in het voorjaar uitkomen en het middensegment
bedienen. Uiteindelijk zullen de codenamen van de G92-, G96- en G98-gpu's veranderen naar respectievelijk D8E, D8P en D8M. Voor de notebook-gpu's verschijnen de NB9E-, NB9P- en NB9M-gpu's.

The Inquirer meldt dat dezelfde bron wist te vertellen dat nVidia ook snel met triple-sli op de proppen zal komen en bovendien zijn blik heeft gericht op quad-sli, maar details ontbreken.

Moderatie-faq Wijzig weergave

Reacties (98)

ah mooi, in november mijn verjaardag dus even mams lief aankijken ;)
btw hier van het web geplukt:

Onofficiele specs van de kaart die komen zal:
(volgens sommige leaked)

"G92" GeForce 9800 GTX specs.

- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for "FREE 4xAA".
- built in Audio Chip.
- built in tesselation unit (in the graphics core"
- Improved AA and AF quality levels


uit een andere bron:

Chip: G92 | G98
Geheugen: 512 MB GDDR3 | -
Stream processors: 64 | 32
Core frequentie: 740 MHz | 800 MHz
Geheugen frequentie: 1800 MHz - |
Geheugeninterface: 256-bit | 256-bit
Prijs: $249/$299 | $169/$199


beide specs van 2 andere bronnen hebben verschillende stats,
maar toch beide zien er erg erg aangenaam uit :)

[Reactie gewijzigd door Terreur op 25 september 2007 16:22]

Dat zou erg mooi zijn als ze nu inderdaad eens echte geluidskaarten gaan integreren op de videokaart. Zou voor mij een nieuwe wereld openen. Zo zou je bijvoorbeeld een extreem krachtige complete PC kunnen bouwen rond bijvoorbeeld een Tyan n3600QE, of een zware mini Workstation rond een Tyan n3600S.
HD 2900XT anyone? Zit geluidskaart in...
Lees, 2 posts boven je. In een vorig artikel is al eens aan het licht gekomen dat nvidia deze kaarten nou net uitbrengt om ook audio mee te kunnen gaan zenden over een hdtv aansluiting. En uiteraard presteren de kaarten ook beter.
Kan er niks aan doen hoor maar bij een 9800 denk ik aan ATI ;)
eDRAM die for "FREE 4xAA".
Dat ontkracht dat gerucht al. TSMC heeft geen eDRAM support. Is ook één van de rendenen dat de eDRAM chip van de 360 bij NEC geproduceerd wordt. Daarnaast is 4MB niet genoeg.

Er gaan ook geruchten dat de G92 een kleine update van de G80 is. Wat extra functionaliteit voor DX10.1, 65nm, 256bit sneller geklokt geheugen. Uiteindelijk ongeveer G80 prestaties maar goedkoper om te produceren (zowel de chip als de PCB) en zuiniger.
(Komt overeen met de 2e set specs maar dan 128 stream procs.)
daarom staat er ook Onofficiele -ON- ;)
blijven dromen en kwijlen over de specs blijft leuk hoe dan ook:p
Enige reden dat je SLI wil is als de snelste videokaart niet voldoende is, maar de vele problemen en magere extra performance maken SLI een erg onaantrekkelijke oplossing voor je problemen.

Ik had gehoopt dat de G92 weer zo'n revolutie zou worden als de G80 was, want als ik terugkom uit buitenland in april heb ik geld voor een neiuew pc :DDDDDDDD

We willen immers crysis, WiC, CoD4 en FC 2 wel optimaal kunnen spelen!

FF afwachten van de benchmarks, maar als dit ding niet echt veel sneller is dan de 8800ultra, vertrouw ik de 8800 reeks beter, minder kinderziektes en redelijk door ontwikkelde drivers.
Maar geen DirectX 10.1 support, houd daar rekening mee!
Laat ze eerst maar eens echt met DX10.0 gaan beginnen, want dat is nog niet eens op gang gekomen.
Stond mij bij dat gameontwikkelaars hebben geuit dat het ontwikkelen van DX10.1 games makkelijker is dan DX10.0, en dat DX10.0 voor veel gamebakkers niet direct een meerwaarde heeft tov DX9.0 ivm de complexiteit. Laatste had te maken dat ze de speciale features met een omweg van DX9.0 makkelijker konden implementeren. Met DX10.1 zou dit probleem zijn opgelost, en is integratie sneller mogelijk. Vandaar dat DX10.0 als flop werd beschouwd, maar het met DX10.1 aan zou trekken.

Aan de hand van dit, is het ook niet een zinvolle upgrade van DX9.0 naar DX10.0 te stappen, als moedwillige upgrade. Daarteboven ben je ook verplicht over te stappen naar Vista. Velen willen daarmee ook wachten met SP1 voor Vista, die zo omstreeks DX10.1 beschikbaar zou zijn voor het publiek.

Dus laten beginnen aan DX10.0, velen zullen het overslaan.

edit:

Kan zo 123 niet de bron terug vinden, ik lees ook alleenmaar. Stax wel proberen te zoeken. Zal me verder een worst wezen, ben geen gamer :)

Zowiezo wat ik wel 123 terug kon vinden, is dat DX10.1 goede ondersteuning heeft voor multithreading, wat met de huidige dual en quadcores een must aan het worden is.

[Reactie gewijzigd door Hardware Junk op 25 september 2007 22:44]

Je hebt het een beetje bij het verkeerde eind, het is DX10.1 wat weinig meerwaarde levert ten opzichte van DX10, maar het het is dus minder werk om een spel te ontwikkelen voor alleen DX9 (dan voor DX9 EN DX10 te ontwikkelen in het geval van DX10) en de DX9 markt is voorlopig nog velen malen groter dan de markt voor DX10 spellen.
DX10 is nogal een major DX update, maar door de gamedeveloper wat bekritiseerd omdat de meeste nog nie in staat zijn een DX10 game te develeopen en omdat nu alleen nog de zwaarste DX10 videokaarten in staat zijn om goed gamen (lees hires) in DX10.
Maar geen DirectX 10.1 support, houd daar rekening mee!
En dat weet je nu al? Sterk hoor ...
overigens komt er met deze kaarten de zo verwachte directx 10.1 mee?
Nee. Geen DX 10.1 support. Maakt dat wat uit? DX 10 games zijn nog zeldzaam genoeg!

[Reactie gewijzigd door dirkjesdirk op 25 september 2007 17:05]

yubs is directx 10.1
merja,wat zijn de verbetringen ,is er meer snelheid enz,ik hoor overal geruchten dat deze niet veel sneller zal zijn dan de huidige 8800
Zonder wat meer informatie is dat natuurlijk koffiedik kijken, al lijkt het me stug dat Nvidia gewoon af gaat zitten wachten tot ATI de performancekroon weer terugpakt. Ze zullen op zijn minst een kaart aan het ontwikkelen zijn die sneller is dan de 8800. Wanneer ze die op de markt willen zetten is de echte vraag; misschien is dat inderdaad niet in de november-release.

Overigens wel typisch dat de corenummers hoger worden voor kaarten die lager op de performance-ladder komen te staan.
Mensen die niets weten van videokaarten afweten zullen dan denk ik al snel denken: hoger = beter. Terwijl mensen die er wel wat van afweten eerder naar specificaties kijken dan een naam. Ik denk dat dit dus best een slimme zet is.
De G96 is nog steeds mid-range volgens mij en de 98 Low-end. Enigste is dat de High-end G92 is in plaats van G90. Sinds wanneer krijgen trouwens de consument de corenummers te horen, sommige weten nog niet eens het serie-nummer laat staan corenummers

Nog iets, er is volgens mij heeft tweakers.net iets verkeerd vertaalt:
De G92_200 voor low-end kaarten en de G92_300 voor de high-end videoplanken.
tegen
We have heard internal names of G92_200 and G92_300 for low and high end enthusiast parts respectively.
Lijkt mij dat ze eerder bedoelen:
De G92_200 en de G92_300 voor low-end kaarten en high-end videokaarten van het topnummer (dus 8800 GTS en GTX)

[Reactie gewijzigd door SirKay op 25 september 2007 18:50]

Klopt, low end enthusiast parts zijn high end voor de casual computergebruiker.
Wat in de NP staat klopt gewoon.
Als je het opzettelijk misleiden van je klanten als 'slim' omschrijft, dan is dit inderdaad een heel slimme zet!
Heb m&o op school, raad is wat het eerste is wat je leer op school?
Klant is niet koning, het gaat om het aansmeren.
Zo gaat dat nou eenmaal, wil je als een groot bedrijf je hoofd boven water houden. Sony heeft mislukt met ps3 net zoals AMD weinig marketing heeft gebruikt bij Athlon 64. Vroeger dacht ik ook door het deuntje. AMD = verpauperd, Intel = the-shit, GHz-en :P.
punt is dat je ze dan een zo duur mogelijke kaart wil verkopen. nu krijgen ze juist een goedkope kaart waar nvidia juist minder winst op maakt!
wel zuiniger, dat mag ook wel, ik heb met mijn 8800GTS geen verwarming meer nodig in mijn kamer.

ik ben erg benieuwd naar de high end geforce 9 kaarten, maar dat duurt nog wel even denk ik.
Koop dan een zuinige kaaart? je kan niet verwachten dat een high end kaart zuinig gaat zijn. En F1 wagen zal ook altijd meer verbruiken dan een dieselbak.
het maakt mij geen snars uit hoeveel stroom mijn kaart trekt, maar de gemiddelde computergebruiker wel, en met de g92 is de prestatie per watt verhouding een stuk gunstiger als ik de aankondigingen mag geloven.
aangezien je dan ook geen 500 watt voeding meer nodig hebt zijn deze kaarten een stuk toegankelijker.
het maakt voor een tweaker misschien niets uit, maar zet dat tegenover paps die voor zoonlief een pc gaat kopen die ook wel spelletjes aan moet kunnen, paps moet wel de energierekening betalen, en een zwaardere voeding is ook nog eens duurder in de aanschaf, genoeg redenen voor een zuinige kaart dus.
De gemiddelde computergebruiker weet volgens mij net zoveel over het verbruik van zijn computer als over zijn diepvries. Niks dus.
Ik weet wel wat mijn computer verstookt, maar m'n diepvries ? Geen idee ;)
je kan niet verwachten dat een high end kaart zuinig gaat zijn.
Waarom kan dat niet? Core 2 en Athlon X2 zijn ook redelijk zuinig.
En F1 wagen zal ook altijd meer verbruiken dan een dieselbak.
Is Le Mans niet gewonnen door zo'n 'dieselbak'?
Beetje offtopic maar die dieselbak hoefde ook minder pitstops te maken ;) Verder heb je nog niet gekeken naar de Athlon X2 6000+, die heeft een 125 watt TDP! Dat is niet bepaald zuinig te noemen.
Waarom zou je niet op het stroomverbruik mogen letten aval0ne?
Als ik kan kiezen voor een 8800 GTS of een 9800 GTS (of wat dan ook), en ze zijn praktisch even snel, maar de een is een stuk zuiniger en vermoedelijk ook makkelijker koel te houden, dan heb je met beide kaarten een high-end kaart, maar met de een wel een <b>relatief</b> zuinige.

De reden dat ik gewacht heb met het kopen van een 8800 serie kaart is juist het feit dat ik het stroomverbruik toch echt te gortig vond, daarom voorlopig een x1950xt genomen tot Crysis uit is :)
Komt ie nu achter. Daar was ik al achter met mijn 6800GT. en eerlijk gezegt BESPAARD me dat juist kosten: je hoeft de verwarming niet meer aan toe doen XD

ok:
-ontopic weer-

VET!
hier zit ik juist op te wachten, wil al een tijdje upgraden, maar als ik upgrade wil ik ook écht een verbetering zien. Dat wordt dus hard sparen en mijn centjes tegen die tijd uitgeven voor de beste videoplank die er is. *drool* die G92. jahh.. Dat wordt m zeker weten..

_/-\o_
Sja, de eerste speculaties waren dat er meer dan een terra flop aan kracht in zou zitten. We wachten af!

[Reactie gewijzigd door Reinman op 25 september 2007 16:42]

owja,en nu nog goede drivers ;)
Ik heb sinds 2 maanden een 8800GTX en nog maar 1 opmerking over de drivers in Windows Vista; krijg de TV-Out niet aan de praat. Desondanks dat vind ik het prima drivers, nog geen spel gehad wat moeilijk deed of langzaam liep.

Echter vind ik het wel jammer dat ze niet zo'n systeem als ATi hebben, dat er elke maand een nieuwe Catalyst versie uit komt. Tevens vond ik de Catalyst drivers wat fijner maarja , hoe vaak zit je daar nou dingen in te stellen... juist, vrijwel nooit.

Mocht de 9800(?)GTX ongeveer 50% sneller worden en leuke functies hebben (Dat 4XAA free klinkt wel leuk,?) en de prijs is niet meer dan 600,- dan ga ik hem heel misschien wel aanschaffen :P
kort samengevat komt er dus een hele dure nieuwe kaart uit en een hele goedkope?
dus niet op het prijsnivo van de 8800 GTS maar van de Ultra?
dan heb ik er nog niets aan...tenzij de Ultra daardoor naar 400 euro zou zakken...
Nee ik denk het juist helemaal niet.

Als ik het goed begrijp zal die G92-300 zoiets worden als bij de introductie van de 8800gtx kwa prijs en op de prestatieladder van Nvidia (hun topper)

de G92-200 zal denk ik de opvolger van de 8800gts worden (voor de gamer zonder topsalaris)

G96 de opvolger van de 8600-kaarten en de G98 de opvolger van alles daaronder. (voor de multimedia/huiskamerpc's)

Maar dit zijn nog steeds geruchten he... Wel geruchten zoals ik hoop dat het zal worden.
Lijkt me logischer dat ze de high klasse GPU G98 noemen en de lage klasse G92?
Netzoals een laag nummer in elke serie (bijv 8400 in de 8x serie) een lage segment kaart is?

Ik wacht trouwens wel tot de volgende high end serie kaarten. Ik hoef nog geen upgrade, want zelfs met luchtkoeling is de 8800GTS wonderlijk goed over te klokken.

[Reactie gewijzigd door Sebazzz op 25 september 2007 16:18]

Uiteindelijk zullen de codenamen van de G92-, G96- en G98-gpu's veranderen naar respectievelijk D8E, D8P en D8M.
G92 = D8E = Entry
G96 = D8P = Pro
G98 = D8M = Mid level
G92 = D8E = Enthusiast
G96 = D8P = Performance
G98 = D8M = Mid range
;)
Denk dat het D9E, D9P, D9M zou moeten worden omdat het voor de notebooks ook zo staat en het wss om de 9x00 reeks gaat...
Het zijn alleen Codenames van de chips. Het is niet voor de consument bedoeld dus verder niet zo belangrijk of het op/af-lopend is.
De Codenames hebben overigens nooit op deze manier een betekenis gehad:

G80 8800GTS,GTX,Ultra
G84 8600GT,GTS
G86 8300GS,8400GS,8500GT

Het lijkt er eerder op dat het in de regels van het "Op de markt komen" is. G80 eerst dan G84, dan G86.
Als de 9800GTX specs kloppen, en het prijskaartje van 549$ ook, dan mogen we een gat in de lucht springen...
Zeker gezien de huidige dollarprijzen, zou dit op minder dan ¤ 400,- komen!!!
Heb je hier ook een bronvermelding van?

Zou dus betekenen dat er dus weer enorme prijsverlagingen aan zullen komen rond de feestdagen!
Qua prijs valt dat ook wel weer mee hoor. Je vergeet dat ze in de VS de prijzen zonder VAT rekenen. Dat houdt in dat je wel meer dan die 400 euro hier kwijt ben. Als je uitgaat van een Dollarkoers van ¤1 = $1,40 dan zou je met 19% belasting op een bedrag van ¤466 terecht komen. Verkopers hier kennende zal ie dan voor rond ¤500 hier in de winkel liggen.

Er ook van uitgaande dat ze de 9800GTX uitbrengen en niet gelijk een Ultra zou dat op een iets goedkopere kaart uitkomen (+- ¤500 ipv een ¤549 voor een GTX ;prijsreferentie is een EN8800GTX/HTDP van Asus bij Alternate).

[Reactie gewijzigd door Clueless op 25 september 2007 17:01]

Los van VAT, die in Amerika rond de 9% is maar dit verschilt per county, dus deelprovincie binnen een staat, valt het me op dat de prijzen van videokaarten in de VS vaak voor dezelfde prijs in euro's in Europa te koop zijn. Dus 600 dollar daar is 600 euro hier. Ik vermoed eerder dat dit te maken heeft met marktdifferentiatie, Europa is dus een veel winstgevendere markt voor Amerikaanse producenten. Dit lijkt op de manier waarop dvd's maar ook kleding etc. worden 'verdeeld' over de wereld. Zo zijn er merken die echt super goedkoop zijn in de VS terwijl er in Europa extreem veel meer wordt gevraagd, veel meer dan de Europese import tax.

Het blijft suf, want alles komt toch uit Azië, qua productiekosten zit er dus weinig verschil, tis gewoon pech hebben als je op een plek woont waar spullen duurder zijn.

EDIT: Off topic: weet iemand of het mogelijk is om Amerikaanse videokaarten uberhaupt in een Europese pc te stoppen. Het voltage in de VS is 110 en hier 220, ik neem aan dat dat uitmaakt.. maar verder geen id.

[Reactie gewijzigd door ffb op 26 september 2007 17:24]

Dat maakt enkel uit voor de voeding, en de meesten hebben een switch om van 110 -> 230V te gaan, bij de duurdere gebeurt dit zelfs automatisch. Elke graka werkt op 12V, dus maakt 't niet uit welke kaart je neemt.
Yeah dream on !!! Dankzij invoer belasting, heffing hier heffing daar en weet ik wat
al niet betalen wij in EU de hoofdprijs. Dus de dollar prijs zal wel de eur prijs worden vrees ik :(
Betekent dit nu een verbetering van de geforce 8 reeks of een nieuwe geforce 9 reeks, ik ben wat in de war?

[Reactie gewijzigd door osorkon! op 25 september 2007 18:37]

Dit betekent beide
Komt er dan een opvolger voor de 8800GTX?
Er zijn twee mogelijkheden:
-Complete Nieuwe serie, Geforce 9, wat ik hoop dat het is
-Een videokaart die tussen de 8600 GT en 8800GTS zit (8700 GT(S)?)

aangezien de Geforce 8 1 jaar en 3 maand naar de 7-serie kwam verwacht ik dat het de Geforce 9 serie wordt
Ik hoop dat ze niet teveel zich gaan richten op SLI setups, als ik IETS niet wil is het 2 videokaarten in mijn PC. Behalve dat het niet past ben je dan ook veer verplicht voor SLI een nvidia chipset te nemen. En die ben ik na jaren ellende toch zat. Mijn intel chipset ondersteund dan misschien wel crossfire, maarja, hoe koppel ik die met een 8800gts?
Komt er in ieder geval op neer dat in mijn geval (en zo velen met mij) nooit SLI gebruikt zal worden. Door voorkeur of doordat de bankrekening dit niet toelaat.
* Door warmte
* Door (inderdaad) ruimte
* Door lawaai
* Doordat 2 high-end kaarten door de generatie erop weer verlagen wordt.
* Het niet altijd overal vlekkeloos werkt
* Performancewinst geen 100% is (dus niet het dubbele van een single kaart)

En ga zo maar door.
* Games het moeten ondersteunen
* Meer energie/hogere stroomrekening
* Duurder moederbord nodig wat SLI ondersteund
* Zwaardere voeding nodig
* Minder normale sloten over omdat de betere kaarten 2 slots nodig hebben dus in SLI 4 slots
* enz... :P

Neemt trouwens niet weg dat het een leuke optie is voor iemand die 100 in plaats van 60 frames wilt.

[Reactie gewijzigd door Sluuut op 25 september 2007 16:51]

* Games moeten SLI helemaal niet ondersteunen, SLI wordt ondersteund door de driver.
* Dacht je dat SLI minder energie zou verbruiken?
* Er zijn ook budget SLI bordjes
* Mensen die voor SLI gaan hebben meestal wel een zware voeding
* Geen punt want SLI bordjes zijn hier speciaal op voorzien
Moet jij dan maar eens gaan rondkijken over SLI support in games.
Er zijn games waarvan de performance zelfs lager wordt dmv. SLI en bij andere games gaat het door SLI weer een stuk sneller.

Games moeten dus weldegenlijk een "beetje" gemaakt worden voor SLI, maar ik denk dat dat voor games die nog moeten komen niet echt een punt zal zijn.
Waar jij het over hebt is het feit dat de SLI link de processor in een systeem harder aan het werk zet. Als je dus een systeem bouwt voor SLI of waar je later SLI mee wil gaan draaien had je zelf rekening moeten houden met dit feit of ook je proc moeten upgraden. Doe je dat niet dan worden de prestaties inderdaad slechter.
Nee dit is onwaar. Games moeten helemaal niet voor SLI gemaakt worden. Kan jij 1 game opnoemen die officieel zegt dat het SLI ondersteunt?
Nee, want dat bestaat gewoon niet.

De reden waarom sommige games geen voordeel hebben aan een SLI config is gewoon gebrek aan ondersteuning door de driver. SLi = zuiver drivermatig.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True