Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: Reactor Critical

Op Reactor Critical is een stuk tekst verschenen waarin geschreven wordt over de performance van de NV30 videochip. De uitspraken zouden via-via afkomstig zijn van nVidia CEO Jen-Hsen Huang, maar moeten desondanks met de nodige korrels zout worden genomen. De eerste samples van de chip zouden in mei gebakken zijn, met de bedoeling om volgende maand met massaproductie te beginnen en de kaarten tegen oktober in de winkels te hebben liggen, nog ruim op tijd voor de feestdagen. Ondanks wat problemen die normaal zijn voor een eerste versie van de chip, zou deze planning binnen marge van een aantal weken nog op schema liggen.

Dan de prestaties. De core zou 200 miljoen triangles per seconde kunnen verwerken, tegenover 136 miljoen vertices voor de GeForce4 Ti4600. Een vertex is strict gezien slechts een derde van een triangle, wat de NV30 bijna 4,5 keer zoveel geometrie-kracht zou geven dan zijn voorganger - hoewel het ook gewoon een veel (en soms zelf bewust) voorkomende verwarring van termen zou kunnen zijn. De andere uitspraken zijn echter minder dubbelzinnig. De chip zou 2,7 keer zoveel fillrate hebben als de GeForce4 Ti4600 met 2x anisotropic filtering ingeschakeld, en vier keer zoveel pixelshader capaciteit. Voor de benchmarks zou dat het volgende betekenen: 2,5 keer zo snel in Quake III (1280x1024, 4x FSAA), 3,5 keer of meer sneller in Doom III en drie keer zo snel in 3DMark 2001, alles ten opzichte van de GeForce4 Ti4600. Niet iedereen vertrouwt echter op een vlugge release. Met name het wachten op 1GHz DDR-II geheugen van Samsung zou voor vertraging kunnen zorgen:

nVidia We have just presented some brief ideas about NV30. We can believe Nvidia claiming that NV30 based products will appear by October, we can believe analysts and observers who say that Cinematic Shading GPU will not be on the shelves until Christmas or even January-February. Basically, those, who know when NV30 will definitely be available, will not tell you and us anything, those, who do not, will present you the launch date and time with the venue NV30 will be announced in. Also we have some doubts about Renderman ideology on PC just now, but that is another story...

Met dank aan robpol voor de tip.

Moderatie-faq Wijzig weergave

Reacties (46)

2,5 keer zo snel in Quake III (1280x1024, 4x FSAA)

LOL komen we inmiddels op 300+ frames ofzo ?? en dat op die res met 4x FSAA :D

Het wordt steeds gekker ... wordt tijd dat er kan worden gebenchmarked op UT 2003 en Doom 3 :D
En dat terwijl een gemiddeld beeldscherm niet meer dan 120 fps kan verwerken (refresh rate) en het menselijk oog niet meer dan een 50 fps :?

Tuurlijk zal door die brute rekenkracht de variabele fps niet onder die waardes komen, maar toch.... :)

Edit: zinsopbouw klopte niet helemaal
Een mens heeft al moeite om meer dan 12 beelden per seconde van elkaar te onderscheiden, vanaf 20-25 is het gewoon vloeiend.
Bewegend beeld ontstaat wanneer er 24 beeldjes per seconde (of meer) na elkaar getoond worden. Het oog is "traag", de beeldjes blijven "hangen", waardoor ze naadloos, geleidelijk in elkaar lijken over te gaan. Als de beeldjes opeenvolgende momentopnamen zijn van iets bewegends, onstaat door dit effect de illusie van bewegend beeld.
Dus een beeld is bewegend vanaf 24 fps, verder kan het menselijk oog tot ongeveer 85 fps waarnemen. Hogere fps zal voor het oog niet minder knipperend zijn.

Het probleem bij games is dat ze rekening moeten houden met verschillende videokaarten. Ze willen veel spellen verkopen, dus een GeForce 2 of 3 zou hem nog moeten kunnen draaien. Als je de snelste kaart van het moment hebt kun je in hogere resoluties draaien e.d. maar op een gegeven moment is de verhouding tussen de snelste kaart en de kaart die de meesten mensen bezitten te groot.
Je betaald dan zeer veel voor een hele snelle kaart terwijl je er uiteindelijk niets aan hebt. Hogere resoluties dan 1600x1200 kunnen de meeste monitoren toch niet aan. En je wilt toch ook op 100Hz kunnen gamen! Dus 1280x960 bij 100Hz? Dan moet je al een 96KHz monitor hebben.
Ik geloof niet veel van deze specs. :Z Het lijkt er meer op dat nVidia zijn hachje probeert te redden (sinds de eerste samples van de radeon 9700) door zo veel mogelijk geruchten over hun NV30 de wereld in te sturen (of opzettelijk te laten lekken). Om zo klanten proberen te "conserveren" door ze langer te laten wachten met de aanschaf van een videokaart.
:(
Het is voor mij eerst zien en dan geloven...
Idd, dat wel, maar als ze allebei uit zijn, kan je gaan vergelijken (oh nee, dat doen anderen wel voor je) En dan ga je pas beslissen of je iets koopt.

maar dan moet je wel de keuze maken tussen de radeon 9700 en de "Omen", wnat als je nog langer wacht kan je bklijven wachten totdat weer een nieuwere uit komt.

de Omen (kweet niet eens of ie zo gaat heten, maar kdoe het maar voor het gemak, iedereen weet over welke kaart ik het heb, klaar) trekt mij gewoon, omdat deze functies heeft van 3DFX, en mijn oude kaart is mij zeer goed bevallen, kheb een voodo 3 2000, jaja, NOG STEEDS!!! al 5 jaar! maar kmoet nu seri gaan kijken naar een nieuwe! ADUH!

Maar idd, Gabriel LG, eerst zien dan geloven.

Greetz, Zvennn
Ik betwijfel of hij idd 3Dfx functies gaat krijgen, dat werd namelijk ook al van de NV20 (GeForce3) beweerd en daar zitten ze ook niet in...

En misschien gaat de kaart ook wel kontschoppen. :) Maar als nVidia niks concreets wil (lees gerust:"kan") vrijgeven over de NV30 neem ik dit soort info met een hele grote slok bier ;)
Hier loopt ook al sinds vandaag een topic over op het vorm : http://gathering.tweakers.net/forum/list_messages/564085
Feit is dat nvidia nog steeds geen werkende samples + concrete performance data heeft (alleen nog maar simulatie data etc), anders hadden ze deze wel naar buiten gebracht tijdens de paper-launch van de radeon 9700. Of ze hadden wel al werkende samples maar, maar de performance viel zo erg tegen dat ze deze data binnenshuis hebben gehouden. Ik verwacht dan ook geen nv30 in normale hoeveelheden de winkel voor december 2002. Tom Pabst (tomshardware) gaat zelfs uit van 6 maanden, dus jan/feb (http://www.tomshardware.c...3/020802/siggraph-03.html).

De productie zal zeker niet makkelijk zijn, kijkend naar de 15% yields van TSMC en de problemen die AMD e.d. al hebben bij TSMC.
Al met al denk ik dat de toekomstige generaties videokaarten de grondslag zullen zijn voor 3D televisie
Maar wat nu als de Videokaarten voledige realiteit kunnen nabootsen, wat is dan de volgende verbetering
Het oneindig verhogen van de resolutie heeft ook weinig zin omdat de schermen niet als maar groter zullen blijven worden(stop toch wel ergens bij 2 meter beeld diagonaal)
Blijft dan dus maar een mogenlijkheid over om te concureren en dat is met de prijs
En als echte Nederlander moet ik zeggen DAT kan me niet vroeg genoeg gebeuren
Hmm 3x zo snel in 3dmark 2001? Dat zou dan 30000pnt moeten zijn of zo. Zal wel niet dus. Een GF4 is volgens mij ook niet eens 2x zo snel versie 2000 van dat populaire bench proggie als een GF2pro.
Mijn GF2mx scoorde 2800 puntjes in 3dmark2001
en mijn nieuwe TI4200 rond de 8000 op de zelfde
processor. Bijna 3x zoveel dus.
Nou zaten hier nog wel een paar modellen
tussen maar het is dus wel mogenlijk.
Ik denk echter dat je niet meer naar een directx 8
benchmark moet gaan kijken met een kaart die
directx 9 ondersteunt.
Ik benchmarkte vroeger mijn eerste voodookaartje met
final reality en daar laat ik ook mijn GF4 niet meer
op los. 8-)
Volgens mij wordt met zo'n brute videokaart je CPU weer meer de bottleneck, tenzij je op 2048x1860 (oid) een spelletje speelt. Een verdubbeling van de score zal er dus niet in zitten.

Leuk! Kunnen we die tenminste tegen die tijd de CPU weer vervangen voor een Pentium Quad 4.77 Ghz. :)
Volgens mij wordt met zo'n brute videokaart je CPU weer meer de bottleneck
bij een vrij jonge en goede engine is de cpu imho allang de bottleneck. Denk aan volumetric shadows van complexe objecten en hele ingewikkelde hidden surface removal algoritmes. Tel daar een complexe game AI en een realistisch physics-model bij op en daar heb je het al: cpu = bottleneck. 'T is natuurlijk leuk dat je videokaart 100 ziljoen (bij wijze van spreken) polygonen kan weergeven per frame, maar in-game zullen het er niet zoveel zijn die ook daadwerkelijk zichtbaar zijn. In veel engines worden veel pixels weggeflikkerd tijdens het renderen omdat ze zich achter een andere polygoon bevinden. Mooier zou zijn als die polygonen helemaal niet getekend worden, heb je ook niet zo'n snelle videokaart meer nodig :)
Ja daar waren ze ook al mee op weg met de kyro2 (en nog een paar andere kaarten die in de vergetelheid zijn geraakt)
Maar die kaart werd (helaas) een flop, want de algemene prestaties vielen tegen in verhouding tot een gf2 en verder waarschijnlijk ook
door te weinig ondersteuning ervan in spellen :? ;
Tile Based Rendering had ook op zich een goede toekomst tegemoed kunnen gaan, dunkt mij

Maar net als anderen is ook deze techniek
uitgestorven geraakt (voorlopig)

Ik had ook nog het id dat er nog een opvolger zou komen van de kyro :? en dat de uitgever overgenomen was ed. problemen :9
Uhm, daar heb je het geloof ik mis. Nvidia heeft al standaart in hun kaarten zitten (vanaf de GeForce 3 geloof ik) dat alle 'hidden surfaces' niet gerenderd worden, dat scheelt weer een hoop rekenkracht.
Volgens mij wordt met zo'n brute videokaart je CPU weer meer de bottleneck, tenzij je op 2048x1860 (oid) een spelletje speelt. Een verdubbeling van de score zal er dus niet in zitten.
Of tenzij je gebruik wilt maken van de nieuwe floating point colors, of al de andere leuke nieuwe features en geintjes met vertex en pixel shaders. De CPU zal waarschijnlijk kunnen zorgen voormeer realistische bot en karakters in spelletjes, spraakherkenning en andere onzin die gaming leuker maken. Ik ben wel nieuwsgierig of tegen de tijd dat de eerste vertex en pixelshader ondersteunende games op de markt komen of deze kaart dan wel weer snel genoeg is om die op maximum detail te kunnen draaien aangezien de games (nieuwe engines) dan ook weer gemaakt zijn om weer eebn tijdje mee te kunnen. Tot nu toe heb ik het id dat de software bakkers amper de hardware bakkers bij kunnen houden.

In ieder geval wordt het tijd voor een 3dMark 2002(3) met floating point shit erin om al dit nieuwe moois met elkaar te kunnen vergelijken :)
Ja maar de CPU bakkers zitten ook niet stil. Intel gaat als een gek met dekloksnelheden van de Pentium 4 en AMD timmert aan de weg met hun brute Hammer. Bovendien ontnemen moderne videokaarten de CPU veel werk. Dus ik denk dat het wel meevalt :)
Nou??? het schijnt zelfs zo te zijn dat op tragere computers een GF2Pro beter werk levert als een GF3. Ik weet ook nog dat op nog tragere computers een TNT soms bijna even goed loopt als een GF2MX.
Naja ze stappen HEEL WAARSCHIJNLIJK ook af van de naam GeForce omdat de nieuwe nvidia kaart nieuwe architectuur heeft dus het zou ook niet onlogisch zijn om een grotere vooruitgang te krijgen dan bij de overgang van de vorige kaarten.
't Is al sinds april bekend, dat de NV30 naar alle waarschijnlijkheid 'Omen' gaat heten.
oh my god die specs man! :9~
is nou maar te hopen dat die aantal triangles inderdaad geen verwarring van termen is
alhoewel dit natuurlijk nog altijd een heel lekker resultaat zou zijn :9
is nou maar te hopen dat er niet teveel vertraging is ook dan weet ik tenminste wat ik wil voor nieuwjaar :P
is nou maar te hopen dat die aantal triangles inderdaad geen verwarring van termen is
helaas, wat ze zeggen is gewoon bullshit. Ze noemen het ook wel appels met peren vergelijken :)
Als een videokaart een X miljoen aantal vertices per seconde kan verwerken wil dat niets zeggen over het aantal triangles, maar puur alleen het transformeren van de vertices (of het toepassen van vertex shaders natuurlijk).
Als je een triangle wilt renderen is de fill rate namelijk van veel groter belang. Een kleine polygoon is nou eenmaal sneller te tekenen dan eentje die je hele scherm vult, puur en alleen omdat er in de kleine polygoon veel minder pixels moeten worden getekend.
En een triangle bestaat idd uit 3 vertices, maar dat kunnen net zo goed getransformeerde als ongetransformeerde vertices zijn, waardoor er totaal geen verhouding is tussen het tekenen van triangles en het verwerken van vertices.

Maar goed, de echte bottleneck blijft het geheugen, waarvan de snelheid indirect is aan te geven met de fillrate. Aangezien die volgens de specs 2.7x zo snel is als de gf4 ti4600 zal ie ook overall wel zo'n 2.7x zo snel zijn mits je dezelfde settings gebruikt (dus net zoveel textures per pixel, FSAA, enz.). Dat gecombineerd met het feit dat je ook nog eens nog meer textures per pixel kunt gebruiken kunnen sommige dingen in een minder aantal passes gerenderd worden, wat de snelheid ook weer ten goede komt (maar dan moet de engine van een spel daar wel gebruik van maken natuurlijk)
Fillrate (de theoretische bedoel ik, waar ze het in de specs over hebben) staat in principe los van geheugen. Het komt vaak genoeg voor dat men grote fillrate-getallen geeft die niet waargemaakt kunnen worden door gebrek aan geheugenbandbreedte. Maar met 1GHz DDR-II geheugen en LMA-III weet ik nog zo net niet of het een bottleneck wordt voor de NV30. nVidia heeft bij de GeForce3 en GeForce4 al een veel betere balans gevonden tussen geheugensnelheid en core dan bij de voorgangers het geval was.
Maakt nou toch even niet uit wat ze zeggen.
Laat ons even een paar natte :z hebben en lekker
weg :9~ bij de gedachte tot de eerste benchmarks verschijnen. :+
ik weet niet maar ik ben dat Nvidia een beetje zat
ze zitten onderanderen zo dik in het geld dat ze een beetje de Microsoft van de Videokaart wereld zijn

leuke specs en veel beloven
maar als je nou kijkt naar de introductie prijs van dat kaartje (waarscheinlijk 500/600)
en dat vergelijkt met de introductie van een G-Force2 GTS, die 800Gulden was ofzo

in het erste geval is dat dus 200euro meer
en je gaat mij niet vertellen dat alle kosten van de GF2 en 5 (productie/research/enz.) 200 euro per kaart meer gaan kosten

kortom, ik heb het gevoel dat Nvidia een ongelofelijke monopolie positie heeft.
Ati doet ook wel mee met de prijs verhogingen maar toch een stuk minder als Nvidia, daarom kijk ik Nvidia er nogal op aan
Een monopolie is gelukkig onmogelijk in deze marklt (het maximale is een oligopolie), de prijzen van nvidia en ati lopen redelijk gelijk op, de uitgifte prijs van de 4600 en de 8500 waren allebei $399, alleen de gf3 was verhoudingsgewijs een uitschieter ($450-$499)

De prijzen zijn sinds de introductie van de gf3 weer een stuk gedaald waardoor je tegenwoordig voor zeer weinig geld een zeer snelle kaart hebt (gf4 4200), iets wat veel mensen schijnbaar niet door hebben (gezien het gezeik over de prijzen)

Nvidia is nog steeds een stuk kleiner dan ati en is tot de dag van vandaag meer klantgericht geweest dan ati, unified drivers voor de meest gebruikte os's (iets wat bij ati niet het geval is: geen goede linux suppport en geen unified drivers: zie de aparte 9xxx drivers)

Daarnaast is het misschien verstandig te kijken naar wat je nodig hebt aan 3d prestaties en niet naar het merkje of de prijs
Waarom zou nVidia z'n kaarten zo duur houden, ik denk dat als mensen juist vanwege de prijs ook gaan kijken.

Ik denk dat de consument toch eerder voor de ATi valt (ALS deze goedkoper zou zijn) omdat deze tegenwoordig in de buurt zitten van kwaliteit en snelheid. Mensen kijken altijd eerst naar het prijskaartje en DAN pas naar de specs, naar wat ie kan. Dr zijn dr maar weinigen die denken van: goh hij kan wel veel, de prijs moet ik dan maar op de koop toe nemen.

Ik ben gewoon toe aan een nieuwe videokaart, en als ie uitkomt boeit het me denk ik niet, mij gaat het om de kwaliteit en de performance, maar ook om gebruiksvriendelijkheid.
Ik kocht ook een MP3-discman voor 300 euro, terwijl ik gemakkelijk een andere had kunnen kopen die misschien wel wat minder kon, maar ook GELUID gaf.

Ik heb iets nodig, en dan koop ik het, KLAAR! en ik denk dat weinig mensen denken zoals ikke.

Greetz, Zvennn
NVidia is echt niet kleiner dan ATi. Ik denk dat ze ondertussen wel even groot zijn. ATi was groot in de oemwereld omdat ze de kaarten ook zelf maakten. NVidia was beter in de retailmarkt. Nu zitten ze allebij in beide markten. Ze beconcurreren elkaar in iedre geval hevig en dat is goed. Al heb ik graag dat er nog meer spelers bijkomen zoals 3Dlabs e.d.
Wat? Heb jij een ECHTE nVIDIA GeForce thuis liggen? Misschien een reference board, maar een echte denk ik niet! Ik zie echt niet in de winkel een officiele nVIDIA kaart liggen :)
2,5 x zo snel is wel leuk , maar dit zal alleen mogelijk zijn met een die-hard opgefokte cpu :D , maar dat kan aan mij liggen. En de prijzen zijn idd niet echt goedkoop ( geen gf5 of whatever voor mij :R )
maar ik ga echt geen 500 euro (ik denk dat dat de prijs word, of duurder) neertellen voor een videokaart, hoe goed en mooi die ook is

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True