Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Submitter: Force

Meer details en benchmarks verschijnen nu de lanceerdatum van de G92-gpu van nVidia nadert. De nieuwe grafische processor scoort in 3DMark 2005 iets lager en in 3DMark 2003 iets hoger dan de GeForce 8800 GTS met 320MB geheugen.

nVidia GeForce-logoDe G92/D8P beschikt over een 600MHz gpu en geheugen dat op 1800MHz is geklokt. De 112 streamprocessors doen hun werk op 1500MHz. De nieuwe D8P-gpu zal lager geprijsd zijn dan zijn G80-voorganger waardoor deze een betere prijs / prestatieverhouding beidt. De 65nm-chip scoorde met een (onbekende) 2,4GHz-cpu 35351 punten in 3DMark03 en 14679 punten in 3DMark05.

Het Duitse PC Games Hardware haalde zelfs 19.881 punten in 3DMark05, dankzij een tot 3,6GHz overklokte Core 2 Duo E6600. In 3DMark06 haalde hetzelde systeem een score van 12.072 punten. En passant zetten de Duitsers ook nog enkele nieuwe screenshots uit Crysis online om het verschil tussen DirectX 9 en 10 te tonen.

Moderatie-faq Wijzig weergave

Reacties (65)

Dx10 tv Dx9, iets meer beplanting op een berg en wat extra details op de grond.... ben ik nou de enige die het niet echt warm krijgt? :?
Op de zon na vind ik de dx9 plaatjes mooier, how about that ;)
Helemaal gelijk in, kijk is naar dit screentje :
http://img.generation-nt.com/photos/00073139.jpg
Die berg ziet er toch niet uit in dx 10
Maar zon, water en lucht ziet er wel mooier uit.
Ik heb nogal wat problemen met dit soort screenshots. Veel van de verschillen zijn zeer kunstmatig en hebben vermoedelijk weinig met de DX versie te maken, en meer met marketing ;)

Neem nu die texture van die bergen. Die is gewoon totaal anders, en in de DX9 versie is deze gewoon ueber brak. Dat kan echt wel veel beter. En dat geldt nog wel voor veel meer dingen eigenlijk.
dat zie je vaker bij een nieuwe DX versie. de nieuwe features worden WAY overused om ze heel duidelijk te maken.
ik denk dat het effect op de rosten bijvoorbeel goed kan werken als ze op het maar 10 a 20% van de sterkte zetten die ze op die shot gebruikte.
De kleuren en de HDR zijn gewoon ontzettend onnatuurlijk bij die DX10 berg.

Wat wel erg mooi is, zijn de breuklijnen en de verwering van die DX10 berg.
Als ze daar de texture en reflectie van de DX9 berg overheen hadden gedaan was het ding hardstikke realistisch geweest. Erg jammer dat ze het zo verpest hebben.

Alleen zie ik niet in waarom die breuklijnen een DX10-only feature is. Wellicht dat het veel makkelijker kan in DX10, maar volgens mij is ook dat niet zo.
't ziet er idd niet uit, maar de DX9 variant is nog veel onrealistischer ;)
Misschien het niet direct waard als je alleen naar de graphics kijkt (ik vind het er wel erg mooi uitzien), maar in Crysis kan je de omgeving alleen maar aan gort schieten in DX10...
Maar zou dat een lokkertje zijn of echt iets specifieks DX10? Want op zich heeft physics, zoals vernietigbare muren en bomen, weinig met de grafische kaart te maken. Dat kan ook als je rendert met DX9, is maar net hoe je het programmeert...
En dat geldt ook alleen voor de multiplayer, in de singleplayer kan het ook met DX9 :)
Mwha, en bij de laatste screenie, zie je in bij de dx10 versie een andere shader effect op het wacht huisje, aan de voorkant, terwijl de zon aan de achterkant staat .....

Zou het huisje van lichtelijk transparant metaal gemaakt zijn ? ;)
Dat is verstrooiing van de lucht....een vrij normaal verschijnsel....'t metaal licht niet op, maar de lucht weerkaatst zonnestralen die net over de rand van het metaal komen waardoor de lucht zelf licht lijkt te geven...

Dat 't lijtk alsof 't metaal lichtgeeft is toch echt je eigen interpretatie :P
pfew in star trek hebben ze dat allang!
Als je zo blijft redeneren zaten we nu nog met DirectX 6.

[Reactie gewijzigd door InfinityG35 op 11 oktober 2007 20:10]

En wat zou daar mis mee zijn?
Ik moet bij deze plaatje echt gaan lopen zoeken naar de verschillen, waarbij ik de verschillen niet eens altijd een verbetering vind.
Op het moment dat ik Dx10 "gratis" kan krijgen is het leuk, maar anders blijf ik nog gewoon even wachten.
Het is mij nog geen cent waard op dit moment.
Niemand verplicht je toch ook om over te schakelen?

DX10 is evolutie, geen revolutie. Niet alle veranderingen zijn ook visueel terug te zien voor de eindgebruiker. DirectX is wel iets meer dan een verzameling speciale effecten. Bovendien is dit nog maar de eerste generatie DX10 spellen, het onderste is vast nog niet uit de kan.

Ik ben het wel deels met je eens: Ik stap zelf ook nog niet over. Maar uiteindelijk is DX10 wel een noemenswaardige verbetering, die zich over de komende jaren vast nog verder zal laten zien.
Maar je hebt het nu over plaatjes...
Bij bewegende beelden is DX10 echt wel een 'mogelijke' verbetering.

'Mogelijk' aangezien er ten eerste nog geen goede kaarten voor zijn om alle opties goed te benutten, en ten tweede omdat er simpel nog geen goede software is die 100% DX10 ondersteund. Komt binnenkort vanzelf.
de zon en de lucht vind ik bij de dx10 beter uit zien
Bof jij even dat het mengsel lucht doorzichtig is!

Zonder dollen: Mooie prestaties, zeker als hij onder de 8800GTS qua prijs komt. ¤200 redelijk? Hoop dat hij snel komt want dat is wel mooi mijn prijsklasse. Over het verschil tussen DX10 en DX9 vind ik DX10 toch mooier, al ziet het er wel allemaal flashy uit.
Totdat je de kaart voluit belast. Het is wel iets minder als de vorige, maar ze verbruiken nog steeds meer als 100 watt.
En je punt is? Je moet deze kaart niet kopen, er zijn ook zuinige kaarten op de markt.
Ik vind vooral de verschillen bij het water best wel spectaculair, voor de rest inderdaad niet veel speciaals. Het is denk ik vooral de lighting.
ik vind het verschil ook niet bijster groot. Sommige dingen zijn ietsje realistischer in DX10, maar als ik de meeste plaatjes vergelijk heb ik het gevoel dat bijvoorbeeld bij het bos bij DX10 gewoon meer plantjes staan.

Het water golft iets meer bij DX10 en de bergen in de verte zijn realistischer bij DX10 dat zijn uiteraard wel positieve veranderingen :) maar hoeveel fps dat er weer vanaf snoept weet men uiteraard niet te vermelden.
Kijk voor de rest eens naar de zon/lucht, belichting van objecten, schaduwstralen door de lucht, het water, hoe die boom versnippert als ie kapot geschoten wordt...
Prijs/Prestatie is toch wat IEDEREEN belangrijk vindt, een 8800 Ultra is gewoon te duur voor de mensen maar danzij de 8800GTS 320MB kan opeens iedereen 1280x1024 gamen zonder te veel verlies.
Ik vraag me ook af hoe 2 van deze het opnemen tegen een ultra, zelfde gebruik (ongeveer), even duur, iets minder geheugen (2x512 tegen 1x 768, effectief meer geheugen bij de ultra dus)

[Reactie gewijzigd door SirKay op 11 oktober 2007 20:27]

Prijs prestatie van een Ultra is nou ook weer niet zo slecht. Hij is dan wel erg duur maar tovert ook bijna 2 keer zoveel frames per seconde op het scherm vergeleken met een GTS en soms zelfs 4x in Dx10 spellen en flink hoge resoluties, dus de prestaties zijn gewoon vrij goed voor de prijs.

De 3d06 score geeft trouwens een beetje vertekend beeld want de processor liep op 3.6Ghz voor 3dMark06. Vanwege de cpu test die daarin zit, scheelt 600 mhz op 2.4Ghz al 1000 punten in mijn systeem. Als ik mijn GTS op dezelfde speeds zou zetten denk ik dat de GT dus ietsje lager scoort in 3dMark06 zonder overklok op de cpu t.o.v. de GTS.

Als hij dan echt goedkoper is, dan is het een prima deal.

[Reactie gewijzigd door REDFISH op 11 oktober 2007 22:38]

Bah, complete nonsens imo.

Als je 'm vergelijkt met de GTX is ie z'n prijs totaal niet waard. De GTX kost 100¤ minder en heeft amper 30Mhz lagere clockspeeds, maw een performance verschil van 5% of minder.
2 2900xt liepen de ultra compleet uit, en aangezien nu bleek dat deze rond de 8800gts zit en de 2900xt zit daar ook rond qua prestatie, leek mij dit zeer mogelijk.

Nog iets, wordt deze enorm vast gehouden door zijn geheugen of wat?
Hij loopt 600mhz gpu, de 8800gtx loopt op 575 mhz en gts op 500, heeft 112 streamprocessors tegen 128 en 96, waarbij de shaders op 1500mhz lopen tegen 1350 en 1200. Geheugen op 1800 tegen 1800 en 1600, waarbij het geheugen 256 bits heeft tegen 384 en 320. Maakt dit bandwidth tekort zoveel uit in deze gpu, of zijn de kernen ook een beetje verneukt?
vraagje,zou je deze in combo kunnen zetten met een 8800gts 320,aangezien hij dus bijna het zelfde is
nVidia support al een tijdje het gebruik van 2 verschillende kaarten in SLI modus via de forceware drivers. Lijkt me geen probleem.

edit:
Hmm ja moet ergens iets verkeerd hebben gelezen ooit denk ik... :D.. Zie onderstaande reactie als correctie op de mijne!

[Reactie gewijzigd door Nefiorim op 11 oktober 2007 20:25]

2 verschillende merken kunnen daarmee in SLI draaien.

Fysiek moeten de 2 kaarten het zelfde zijn.
dus beide G80, beide 320-bit bus, beide 320MB geheugen, beide evenveel shaders en noem maar op.

een 8800GTS 320 OC kan wel met een normale 8800GTS in SLI gezet worden. De hardware is namelijk hetzelfde, het draait alleen wat harder.
volgensmij moet een 8800GTS 320 ook samen met een 640 versie kunnen werken
althans volgensmij kon een 6800 128MB ook met een 256MB in SLI op gegeven moment :)
Ik meende ook gelezen te hebben dat twee verschillende SLI kaarten.

Check: nieuws: nVidia maakt SLI met twee verschillende merken mogelijk

Tweede alinea:
wie bijvoorbeeld van een 6600- naar een 7800-model overstapt kan met behulp van de oude kaart en de nieuwe drivers net die paar extra frames uit de systeemkast halen.
Even wachten en het kan straks misschien wel, want er komt ook een hybride sli. Dat is onboard video + losse videokaart in SLI en wie weet kan je straks ook twee verschillende losse kaarten aan elkaar koppelen.
dat zal niet gaan, het moeten wel twee identieke kaarten zijn. Zelfs de core is verschillend.
Het moeten geen identieke kaarten zijn. Een 8800GT van het ene merk kan je bijvoorbeeld combineren met een 8800GT van een ander merk. De kaarten moeten enkel tot dezelfde familie behoren.
Nee,, dat is net een 7800GTX met een 7800GT XXX draaien..
Verder wel goede vooruitgang kwa informatie.
Hoop dat ik deze kaart zal kunnen veroorloven.
Hoe zat het met koeling was die nu wel ok?
Als deze kaart nu ook eens pcie-2, (uvd), dx 10.1 en sm 4.1 zou hebben, dus volledig future-proof zou zijn zoals de HD2950Pro, en ook nog eens beter presteert, dan wordt het een serieuze kandidaat voor mijn nieuw systeem(pje) :)

Verder zeer nette benchmarks, alhoewel niet iedereen gamed met een c2d @ 3.6Ghz...
DX 10 is op zich wel mooi, maar ik vind het verschil tov dx 9 niet überspectaculair te noemen. Waarschijnlijk moeten we nog een jaar oid wachten tot de dx10 programming volledig benut wordt.
dx10.1 is een hype en wordt de komende 3 jaar toch niet gebruikt omdat de huidige en komende generatie hardware veel te traag is

http://www.gameinformer.c...0/N07.1004.1210.04388.htm
Hij presteerd beter als m'n 8800GTS 320 mb. Daarmee haal ik in 3dmark06 9150 punten, icm met een athlon 5600+ @ Stock.
Ik denk dat ik in m'n nieuwe computer toch een 8800GT Plaats ipv een 8800GTS640 Mb.
Wat denken jullie? Een 8800GT 512Mb, of een 8800GTS 640 Mb?
Icm met een core 2 duo E8200?

Maarja, 3Dmark zegt ook niet alles.

[Reactie gewijzigd door rickyy op 11 oktober 2007 20:57]

Rickyy: ik zou voor de 8800GT gaan: nieuwe GPU, lager verbruik... en toch puike prestaties.

Stel jezelf de vraag: heb ik dat beetje geheugen nodig of niet?
Je doet net alsof je PC binnen hier en een paar maand niets meer kan :D
Je zal heeeeel weinig merken van je upgrade .. toch voor dat geld. Maar relax, het komt allemaal op zn pootjes terecht...
MMM. Is het nou de moeite waard om te wachten op deze kaart of is een 8800GTS 640 toch beter? Ik ga steeds meer twijfelen.
En die cooler ziet er echt niet stil uit :S
Maar ja sowieso nooit maar dan ook nooit meer een Ati kaart voor mij.
-Drivers installeren niet eens.
-Eindelijk gelukt met windows zoeken op cd. Maar om de zoveel minuten loopt het scherm vast en worden de instellingen gereset.
Alsof dat alleen maar bij ati zou kunnen gebeuren.......soms heb je gewoon pech.
Ati en Nvidia zijn gewoon allebij goed klaar
Heb je wel NET framework 2.0 geinstalleerd VOOR je ati catalyst installeerde:P

OT:

Ik denk dat dit kaartje de opvolger wordt van mijn X1950XT. Tenzij de 2950pro zo'n leuk kaartje wordt. Dan wordt het lastig :)

[Reactie gewijzigd door 3dmaster op 12 oktober 2007 00:10]

bij hardware.info hadden ze het ook over deze kaart er stond dat hij in drie varianten zou komen en dat ze een verschilend aantal shaders aanboord zullen hebben namelijk één met 96 en één met 112 shaders. en de 3e zou 128 shaders moeten hebben.
ook zou volgens hun de geheugen inplaats van 320-bit afgeknepen worden naar 256-bit.
http://www.hardware.info/...8800GTS_op_basis_van_G92/
opzich als ik de benchmarks zo zie scoort hij toch nog best hoog ondanks de inkrimping op de geheugen bus.
ik heb de indruk dat bij iedere nieuwe versie van DirectX er steeds minder verschil is. het is van dx7 naar dx8 geleden dat je het goed kon zien. nu, meh, hier en daar wat details.
waarom maken ze of brengen ze een nieuwe gpu op de markt die minder presteer dat de vorige ? Ik kan me herinneren dat een nieuwe gpu altijd beter is en beter presteert dan het laatste super model, het model waaraan van alles is getweakt en etc. Dat zou de ultra zijn in dit geval..

of mis ik iets in het verhaal

[Reactie gewijzigd door shades op 12 oktober 2007 08:25]

Gebrek aan concurrentie? Ze brengen deze gpu op de markt omdat de goedkoper is om te maken. Ook laat het verminderde stroomverbruik toe om er 2 op 1 PCB zetten zodat een nieuwe high end kaart mogelijk is.
De reden is relatief eenvoudig, nVidia wil alle segmenten op de markt bedienen. Dus High-end low-end en mid-range. Met deze kaart hebben ze een mid-range DX10 kaart die perfect het gat opvult. Want ze hadden niet echt een mid-range kaart.

Vergeet niet dat AMD ook met een nieuwe kaart op de markt komt, daar moet je op anticiperen door zelf ook weet wat te laten horen. Want AMD mag natuurlijk niet voor nu het alleenrecht hebben op roem!
Ik denk dat als je de nieuwe aankomende generatie games wilt kunnen spelen dat je minimaal een 8800GTS 640mb moet hebben. Alles lager dan dat zal volgens mij een teleurstelling zijn, tenzij je genoegen neemt met scherm resoluties <= 1024x768

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True