Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 130 reacties
Bron: Technoa, submitter: offroadtruck4x4

nVidia's chief technical officer David Kirk heeft enkele dagen geleden in Korea enkele nieuwe details bekendgemaakt over de NV30, die nu binnen drie weken zal worden aangekondigd. Op deze site vind je een fotoverslag van de presentatie die werd gegeven op "GeForce Mania's Day". Zoals bekend kweekt nVidia hoge verwachtingen voor deze chip. Tijdens de presentatie wordt vooral gesuggereert dat de kwaliteit even goed is als die van bepaalde films. Zo worden screenshots getoond uit Shrek en Final Fantasy om te illustreren wat voor soort effecten de gamers kunnen verwachten op hun eigen pc, dankzij de hoge mate van programmeerbaarheid. De pixelshader alleen zou al goed zijn voor 51 gigaflops per seconde, en het T&L-gedeelte zou in staat zijn om honderd dino's uit Jurassic Park met 100fps in beeld te brengen. De core bestaat uit 125 miljoen transistors en de performance zou in totaal meer dan twee keer zo goed zijn als die van de GeForce4, waarbij met name verbeteringen zijn aangebracht op het gebied van anti-aliasing en hoge kleurendieptes. Om al deze claims kracht bij te zetten werd na de presentatie een real-time gerenderde scene uit de film Final Fantasy: The Spirits Within getoond:

Final Fantasy demo Final Fantasy demo

The Inquirer meent overigens dat de naam van de chip Nitro wordt, iets wat op zich wel in de traditie zou passen (TNT, Detonator) maar niet in het originele Koreaanse stuk is terug te vinden.

Lees meer over

Gerelateerde content

Alle gerelateerde content (33)
Moderatie-faq Wijzig weergave

Reacties (130)

Uiteraard gaat het hier wel om speculaties. Intel zei dat de Pentium met MMX ook wel tot 70% sneller was maar in realiteit was 't maar ongeveer 5%.

3dfx zei dat de voodoo5 6000 op twee keer zo snel was als de prijsequivalente geforce op dat moment. Dat viel ook tegen.

Matrox claimde met een alternatief te komen voor de Geforce3 toen de parhelia aangekondigd werd en dat viel achteraf ook flink tegen (niet dat de kaart daarom z'n publiek niet heeft...)

En zo zit dat ook bij nVidia. Het is gewoon een marketingtruuk om twijfelende kopers te laten wachten en weg te trekken bij ATI.
De pixelshader alleen zou al goed zijn voor 51 gigaflops per seconde, en het T&L-gedeelte zou in staat zijn om honderd dino's uit Jurassic Park met 100fps in beeld te brengen. De core bestaat uit 125 miljoen transistors en de performance zou in totaal meer dan twee keer zo goed zijn dan die van de GeForce4
Heftige specificaties dat zeker, maar ik vraag me sterk af of je met een kaart die ca 2 keer zo snel is als de GeForce4 je 100 real time gerenderde dinos uit JP met 100fps kan weergeven.
Ik heb nog geen enkele GeForce4 gezien welke 25 van die beesten met 50fps weer kan geven. Daarbij zijn de spellen toch door lage of laag gehouden "polygon counts" met matige of redelijke textures nog lang niet zo mooi als die films die je ziet.
Het begint er op te lijken. Maar ik vraag me sterk af of ze deze claim waar kunnen maken. En dan vraag ik me af hoe lang het duurt voordat je de eerste spellen ziet die daar ook nog echt gebruik van kunnen/zullen maken. (DoomIII misschien.. eind 2003)
Ik zie die toekomst ook somber tegemoed.. misschien dat ie het idd kan met echt onbetaalbaar geheugen (2Ghz DDR2?!?), maar ik verwacht niet voor 2004 honderd dino's in Jurresic Park kwaliteit in 100FPS te zien.

Een en ander hangt natuurlijk helemaal van de gebruikte modellen af .. maar dat waren er in Jurresic Park toch behoorlijk wat (ik d8 iets van gemiddeld 80k poly's met diverse (4/5) 'skin'- layers voor de wat mooiere dino's)
80.000(poly's/dino)*100(dino's)*100(fps)=
800.000.000 poly's
Zeg een efficientie van 50% hidden-surface-removal, occlusion-culling, en andere leuke truukjes, blijft er alsnog 400Miljoen poly's over in een sec. (featured) en dat is behoorlijk wat hoor..

Bij een preformance van 4* GF (+-24Milj fully-featured & optimized) )kom je hooguit op 100Milj full-featured poly's :7

Maar ja .. het is natuurlijk allemaal giswerk zolang het kaartje nog niet echt getest en te koop is ;)
Leuke info over een chip die nog even op zich laat wachten helaas :'(. Overigens moet ik wel zeggen dat ik een en ander met korrels zout neem, want NVidia heeft wel eens vaker dingen geclaimed (theoretische piek-bandbreedte) die ze bij lange niet haalden.

Overigens is zelfs het 'renderkunstje' van FF ook niet zo heel spectaculair, ze deden dit namelijk ook al op een Quadro om te showen hoe stoer de nieuwe quadro wel niet waren (misschien dat de fps op de NV30 wat spectaculairder ware ;) ) Hoewel het begint ergens op te lijken .. nu alleen nog de prijs afwachten.
De spellen die nu uitkomen zijn allemaal nog gemakkkelijk te spelen met een GF4 kaart. Tegen de tijd dat er spellen uitkomen die deze kaart echt niet meer aankan, is die NV30 ook al weer verouderd. Een GF4 Ti4200 kan je tegenwoordig al voor ongeveer 160 euro kopen. Ik koop die NV30 wel over een jaar, dan is die ook weer een stuk gekoper!
Meer dan 2x zo snel als een GeForce4, dat is dus ietsjes sneller dan een Radeon 9700 Pro. Hoewel die 51 Gigaflops natuurlijk wel heeel erg indrukwekkend zijn.
als ik me goed herriner, is de radeon 9700 pro op sommige punten zelfs 3x sneller dan de gef4 :) Dus het gaat wel spannend worden :)

[reactie op defspace]
sneller? heb ik iets gemist?
www17.tomshardware.com/graphic/02q3/020819/radeon9700-07.html
daar staan benchmarks van oom Tom... die zeggen wel genoeg }>

edit:
enige waar het sneller in is is commanche, wat heel erg cpu dependent is, en een klein verschil in jediknight op 1024*768 (1 a 2 fps ofzo)

conclusies van tom:
The Radeon 9700 PRO proved to be superior in all possible categories, be it the framerate while the game was in progress, the triangle throughput, FSAA, anisotropic filtering, or pixel and vertex shader performance. NVIDIA's flagship trails the new champion in every discipline.
If you're looking for the fastest gaming card around, then you're looking for the Radeon 9700. NVIDIA's counteroffensive in the form of the highly anticipated NV3x won't be more than a rumor for at least a few more months. Currently, we expect cards to be on store shelves for the holiday season.
Ja maar das alleen met AA en AF aan.
Zonder al die Extras is de Geforce4 ti4600 sneller dan de Radeon9700. Dus als de NV30 2 keer zo snel is zonder al die extras. Dan kan je ervan uitgaan dat ie met de Radeon behoorlijk wegblaast.
In deze tijd van graphics gaat het niet meer om de FPS op de standaard instellingen. Het gaat op dit moment om de beeld qualiteit.

Wat heeft een gamer immers er aan om een spel op 1024*768 te spelen met 250 FPS, totaal niets.

Dus op dit moment gaat het om Pixel Shaders, Vertex Shaders, FSAA en AF. En op al deze gebieden is de Radeon9700 veel sneller als de Ti4600.

Op die standaard resoluties draaien de spellen ook nog wel op de langzamere kaarten, Ti4200/Radeon8500.

Mensen willen nu weer grafische qualiteit, als toen met de introductie van de Voodoo kaarten.
Vtec,

Wat je zegt gold ook voor mij: ik schakelde al die onzin uit. Nu ik een 9700 PRO heb, en een paar keer heb proefgedraaid met FSAA en AF (vooral AF!!!!) aan ZONDER merkbaar performaceverlies, ben ik toch echt om. 16 x AF staat standaard aan. FSAA hoeft niet echt want meeste games (inc UT2003) blazen als een gek op 1280 x 1024.

Ik ben om. Sinds kort. :)
Zonder al die Extras is de Geforce4 ti4600 sneller dan de Radeon9700.
speel jij nog op 800x600 dan?
de toekomst ligt in de hoge resoluties, en daar legt de GF4 het toch wel dik af t.o.v. een Radeon...
op hoge resoluties deed mijn Radeon het in ieder geval +60% frames t.o.v. een GF4 Ti4600... 1 klein probleempje; M'n Radeon is doorgefikt omdat de fan er af is gevallen :?
maar goed, ik wacht wel weer 3 weken op een nieuwe, moet alleen ook nog een ander mobo halen, die is ook dood nu :(
Maar dat kun je niet opmaken uit dit stuk en is dan ook erg speculatief van jouw kant
Ja maar das alleen met AA en AF aan
Ik denk dat veel mensen deze ook automatisch inschakelen (i do anyway). Je bent haast gek wanneer je een GF4 Ti4600 gebruikt zonder deze in te schakelen. Hetzelfde geldt voor een de 9700PRO en dan is deze echt een stuk sneller dan een GF4 Ti4600 :)
Mensen willen nu weer grafische qualiteit, als toen met de introductie van de Voodoo kaarten.
*Proest* die voodoo kaarten focuste zich ook alleen maar op fps, en pas met de v5 550 heeft 3dfx zich iets van de 3d en 2d (die natuurlijk pas met de banshee kwam) aangetrokken

Opzich is de 9700 nu het beste, maar hij heeft niet meer zon scherpe prijsstelling als de 8500, ik ben dan ook benieuwd naar hoe duur nv30 based kaarten gaan worden (zowel de snelste als de budget, want om die laatste gaat het)
sorry hoor, maar ik denk dat meeste mensen spellen spellen zonder FSAA en AF.
het verschil is er wel, maar is niet ultra goed te zien, de performance gaat daarin tegen echt wel duidelijk hard omlaag.
dus als ik kan kiezen om met een gf4 4600. need for speed hp 2 op 1280x1024 te spelen met 25 fps met FSAA of op 60fps zonder FSAA, dan kies ik en de meeste andere mensen voor de laatste optie.
dus als ik kan kiezen om met een gf4 4600. need for speed hp 2 op 1280x1024 te spelen met 25 fps met FSAA of op 60fps zonder FSAA, dan kies ik en de meeste andere mensen voor de laatste optie.
Je bedoelt het niet, maar hiermee geef je dus gelijk de zwakte van de gf4 4600 weer, het is een bloedsnelle kaart, maar je heb een gigantische performancehit als je de mooie graphics aanzet (aa zie je toch behoorlijk en AF ook), daar heeft een Radeon9700 dus veel minder last van, daarom moet je een radeon9700 kopen. Niet omdat je meer fps hebt (meestal is de proc de limiterende factor en is dat toch al genoeg), maar omdat je op een hogere resolutie kan spelen en omdat je meer eye candy zoals FSAA 4x en Ansiotropic filtering aan kan zetten zonder dat je spel ineens veel trage wordt..
k speel ut2003 op 1920*1440 met gf4 :)
Wat je zegt gold ook voor mij: ik schakelde al die onzin uit.
Bij mijn Ti4600 schakelde ik het wel in en ook toen liep ie snel genoeg, maar bij de ATI zul je er nog minder van merken. De ATI is gewoon The King of 3D (en dat zegt een nVidia-fan).
kun je die programmeerbare delen ook gewoon cpu-werk laten doen.

dat aantal gigflops is lekker btw.

maar ik denk niet dat ze nu zo lekker uitlopen als de 9700 t.o.v de gef 4.

zou wel mooi zijn maar ja aleen doom 3 zou daar wat aan hebben.

die ander spellen zitten allemaal al boven 80-100 fps
en hoger heeft geen zin lijkt mij.
kun je die programmeerbare delen ook gewoon cpu-werk laten doen
Dat zou interessant zijn... }:O op je videokaart als je geen Doom speelt.
2x zo rap... Wauw! Ik vond mijn 4200 al impressive... Toch nog nadenken of ik misschien niet zo'n dingetje ga kopen... Ben ik wel de coolie uit de buurt! Anywho... ik d8, laat ik maar even op mijn pa's @home account (die staat toch altijd zo leeg als wat) die foto's mirroren, want die koreanensite gaat zo traag als een aapjuh... Eventjes w88, hij komt er zo aan... Moet nog even uploaden... (rot 16kbps up...)

FOTO'S (4,98 MB)

Wat zeggen jullie dan???

_/-\o_ BEDANKT EDJE!!! _/-\o_
Wat lees ik toch altijd slechte berichten over nvidia

Als Ati met iets nieuws komt is het allemaal fantastisch, maar als nvidia komt lijkt iedereen hardstikke sceptisch. Is dit de wrok tegen een bedrijf dat het net iets beter doet?

Ik geloof heus wel dat Nvidia gaat roeleren met deze kaart.

btw: nog geen 1 keer het woord "nvidEa" tegen gekomen, gaat de goede kant op! :)
Hoge bomen vangen veel wind zou je haast zeggen ;) Maar het valt mij eerlijk gezegd ook een beetje op.
btw: nog geen 1 keer het woord "nvidEa" tegen gekomen, gaat de goede kant op!
En nu nog dat ze de n goed doen (nVidia ipv Nvidia) ;)
als we hun homepage mogen geloven dan is het NVIDIA
dus alles hoofdletters en zeker geen e. maarja ik bedoel het zijn maar de mensen die bij NVIDIA werken hoor ze zullen het vast niet beter weten dan ons :)
Uhm.. was het niet zo dat ATI de markt al langer ruleerd. Alleen niet op het wat "lagere" gebied.
Games enzo.

Volgensmij heb ik een x op TweakerS gelezen dat ATI de Markt voor High End voor zich alleen heeft op het hogere gebied...
Waar nVidia Nog niet eens om de bocht durft te kijken met hun nv30 enzo.hehe
"Wat lees ik toch altijd slechte berichten over nvidia"

Jij steekt mensen wel graag in vakjes he.

Of nu ATI of nvidEa (voila, dan heb je die versie ook eens gehad) met zoiets afkomt, het hoort niet thuis in hun marketing campagne. Die images zijn een maatstaaf voor wat een voortreffelijk 3d artist uit 3DSMax kan halen, het heeft niks maar dan ook niks te maken met wat de NV30 realtime kan, ik vind het dus vals dat ze het wel zo naar voor schuiven, want ik ben ervan overtuigd dat het nog tot de NV60 zal duren voor ze die kwaliteit realtime kunnen renderen.
Ik heb nog geen maand geleden een GF4Ti4200 gekocht en ga binnenkort weer hopeloos achterlopen :( Als je een beetje mee wilt komen met de nieuwste ontwikkelingen, heb je als studerende tweaker echt een hogere studiebeurs nodig ;)
Maarja genoeg geklaag, dit wordt echt een toppie GPU.
Verwacht niet dat deze grafische kaart ineens ontzettend veel sneller is als de Radeon9700. Ik niet iig, alle kaarten zijn op dit moment wel ergens gelimiteerd, zo moet de NV30 het nog met minder bandbreedte doen als de Radeon9700. Daarbij heeft de NV30 1 TMU extra per pipeline, waar ATI voor heeft gekozen niet te doen, omdat ze al te WEINIG bandbreedte hadden.

Tevens is de Radeon9700 al gelimiteerd door de huidige snelheid van de processoren, en zal dit bij de NV30 niet anders zijn.

Met andere woorden je liep al "hopeloos" achter ;)
je weet natuurlijk nooit waar nvidia mee komt qua bandbreedte besparende techniek. de nv30 is dan ook een geheel nieuwe chip. tzal me nix verbazen als deze echt eens een enorme boost in performance levert tov de vorige nvidia kaart(nvidia zei altijd 2-3x sneller dan de vorige)

kvind deze kaart iig enorm interresant. en waarschijnlijk wordt dit de opvolger van mn geforce 3 ten tijde dat de doom iii demo uitkomt.
tzal me nix verbazen als deze echt eens een enorme boost in performance levert tov de vorige nvidia kaart(nvidia zei altijd 2-3x sneller dan de vorige)
Zoals al zo vaak is genoemd, dit doet de radeon9700 ook in de stukken waar het moet. Dus met alle extra effecten.
Toch wel jammer dat je dit soort kaarten alleen maar vol op kunt gebruiken met bijgeleverde demootjes. De spellen die hier gebruik van maken komen pas over een jaar uit. :'(
De opkomst van Cg (in principe het zelfde als de high-level shader taal die bij DirectX 9.0 hoort) moet het ontwikkelen van spellen met de allernieuwste effecten een heel stuk makkelijker maken. Vroeger was het assembler-hacken, maar tegenwoordig kan men gewoon een C-achtige syntax gebruiken. Bovendien is het toch wel mooi dat je na een jaar nog steeds nieuwe dingen kunt ontdekken die mogelijk zijn met je hardware. Niemand wil een NV30 kopen als een jaar later de NV40-spellen uitkomen die niet meer draaien op die kaart ;).
Indrukwekkende cijfers allemaal waarmee Nvidia de strijd zal aangaan met ATI, het prijskaartje zal echter ook indrukwekkend zijn. Trouwens pure snelheid alleen is mooi, maar een goede werking ingame is even belangrijk, en dat zat bij Nvidia al goed!

Ik kijk er al naar uit.
BTW, was het niet zo dat in films een grotere kleurendiepte wordt gebruikt dan 32-bits?
DX9 werkt ook met een grotere kleurendiepte dan 32 bit.. volgens mij 128 bit floating point kleurtjes..
Heb je daar met de huidig monitoren wat aan?
:?
Ja, want het gaat om de interne preciesie. Als je een 32 bit kleurtje (8 bit per kanaal = 255 mogelijkheden) een aantal keer deelt en vermenigvuldigt etc. (iets wat shaders nogal graag doen ;)) dan krijg je afrondingsfouten, en hoe meer afrondingsfouten hoe minder de uiteindelijke pixel de kleur krijgt die de programmeur eigenlijk bedoelde, waardoor het spel er dus minder realistisch uit kan zien. De monitor is gewoon analoog en krijgt het signaal uit de RAMDAC, dat qua nauwkeurigheid niet in aantal bits is uit te drukken.
De output naar de monitor gebeurt niet met floating point.
Je kunt alleen een floating point rendertarget als backbuffer gebruiken.
De frontbuffer is hooguit 32 bit kleur (2:10:10:10).
De floating point buffer wordt gesaturate en geconverteerd naar 32 bit in de frontbuffer en dan via een normale ramdac naar de monitor gestuurd.
Misschien niet goed mijn huiswerk gedaan, maar is het niet zo dat TFT-schermen met een digitale input wl afhankelijk zijn van bit diepte en dus trapsgewijze kleuropbouw in een verloopje hebben in tegenstelling tot analoge input die een vloeiend verloop kan opbouwen? Mijn vraag dan dus is eigenlijk, zijn die dan niet afhankelijk van de bitdiepte die de ingang ondersteund?
Een monitor kan oneindig veel kleuren weergeven, misschien niet tegelijk maar dat hoeft ook niet.

Het is de kaart die de kleuren berekent.
Mijn vraag dan dus is eigenlijk, zijn die dan niet afhankelijk van de bitdiepte die de ingang ondersteund?
klopt. TFT monitoren zijn digitaal.. ook als aan de normale VGA zitten (dan wordt het signaal eerst naar analoog omgezet en dan weer in de monitor naar digitaal.. maar dat terzijde..). De meeste TFT's werken met 24 bit kleurdiepte.. meer kunnen ze niet weergeven. Het DX9 128 bit gebeuren is zoals scali aangeeft vooral voor interne precisie. Bij veel kleurberekeningen wordt zo voorkomen dat er afrondingsfouten optreden. Als zo'n fout maar groot genoeg is zal je hem ook in uitgangs signaal zien.
In DX9-kaarten wordt de hogere kleurdiepte alleen intern berekend. Vergelijkbaar met AA-technieken waarbij intern in 2x of zelfs 4x zo hoge resolutie wordt gerenderd. De RAMDAC (of de DVI van de videokaart in geval van een TFT-scherm) krijgt uiteindelijk gewoon het resulterende 32bits-signaal aangeleverd. Op deze manier heb je indirect dus een groot voordeel van 128 (?) bits kleurdiepte terwijl je geen nieuwe monitor of LCD hoeft te kopen :).
Nee, zolang de DX9 spellen nog niet in de winkel liggen......
Laat ik het zo zeggen; dat maakt voor en pc gebruiker niet eens uit. Je beeldscherm kan slechts een kleuren diepte van 10 bit wergeven :) Had je niet gedacht he?

Maar die 32 bit's kleuren diepte die je op je bureaublad in kan stellen dan? EN al die opties in spelletjes dan? AH! Dat heeft te maken met het feit dat er wel 32 bits berekeningen worden gedaan, die preciesere beelden berekenen. En dat wordt dan weer gedownscaled.
Zoals de Engelsen zeggen: "De proef zit in de pudding" , zodra die kaartjes naast elkaar in de schappen liggen kunnen we fatsoenlijke head to head test en komt er wellicht een einde aan dit speculatieve dicksizing debat....Voorlopig is de radeon de snelste kaart die je op de hoek kunt kopen en als nvidia daar wat aan wil doen , alleen mooi...
Dat is idd de situatie waar ik ook op wacht, hoewel ik betwijfel of die echt te bereiken is. Zelfs als de beide kaarten uit zijn, en zelfs als ze getest worden zullen er mensen zijn die toch zeggen dat de een sneller is. Kijk maar naar de GF Ti 4600 en de 9700 Pro. Uit tests blijkt dat de laatste toch echt sneller is, toch blijven er NVidia-fans dit betwisten, kijk maar naar de posts hierboven. Kortom, voor ons zullen de tests duidelijkheid verschaffen, de discussies zulen niet verdwijnen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True