Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties
Bron: iXBT Labs

Onze russische vrienden van iXBT Labs hebben nieuwe specs van de nVidia NV20 van het net geraapt. Volgens dit nieuwe lijstje heeft de opvolger van de GeForce2 6 rendering pipelines, die elk 3 textures per kloktik kunnen verwerken. De drie pipelines zorgen in combinatie met de kloksnelheid van 300MHz voor een pixel fillrate van 1,8Gpixel/s. Om te voorkomen dat de NV20 te maken krijgt met een vergelijkbaar geheugenbandbreedte-bottleneck probleem als de GeForce2, wordt de geheugenbus verbreed naar 256-bit. Bij gebruik van 200MHz DDR chips geeft dit een bandbreedte van 12,8GB/s. Wegens een gebrek aan concurrentie meent nVidia de kaart te mogen prijzen op een belachelijke 800 dollar!

Of we dit verhaaltje ook daadwerkelijk moeten geloven valt nog te bezien. Eerdere speculaties over de specs van de NV20 spraken over 4 pipelines, 300MHz kloksnelheid en Hidden Surface Removal als middel om de beschikbare geheugen bandbreedte beter te benutten:

  • Core: 300MHz;
  • Memory: 200MHz DDR SDRAM;
  • 256bit memory bus;
  • 12.8GB/sec memory bus bandwidth;
  • Fillrate 1.8Gpixel/sec (5.4Gtexel/sec);
  • 6 rendering pipelines with 3 texturing units each;
  • 0.15 micron manufacturing technology.
Besides, NV20 should have a greatly improved T&L engine and should be fully compliant with DirectX 8.0. As far as the performance goes, it is expected to be just outstanding: at the resolution set to 1600x1200x32 the system built with an Intel Pentium III CPU shows around 100fps in Quake3. The new wonder from NVIDIA is supposed to be presented at COMDEX Fall 2000 and should cost around ~$800.
Moderatie-faq Wijzig weergave

Reacties (85)

Knap dat ze qua 3d WEER sneller zijn. En niet zo verbijsterend verassend. Maar hoe zit het met de 2d kwaliteit?

Die is nu bij de Geforce 2 ook nog bedroevend. De G200 [en die is oud EN zit op een Compaq monitor]] op mijn werk heeft sherper en mooier 2d beeld dan de Geforce 2 [nieuw en op een IIyama Diamondtron 19"] die ik thuis heb. Om dus over de G400 maar te zwijgen [schijnt nog betere 2d te hebben].

Kortom: laat ze voor die prijs Matrox overtreffen qua image quality en dan zou ik er misschien aan kunnen denken zo'n bedrag neer te leggen voor een videokaart.....hoewel, 800$, zijn ze helemaal gek geworden. ;)
Ik heb beide kaarten gezien (g400 en geforce 1/2) en het verschil valt nauwelijks op. zeker niet als je ook nog eens een redelijke monitor hebt.
ik heb geen van beide gezien :)

maar ik denk dat als je een tijdje met een videokaart werkt je daarna wel degelijk een groot verschil ziet! je kunt niet ff 10 sec kijken en dan bepalen dat ie niet verschilt...

dat is meestal met alles als ik op een cel 333 werk merk ik ook geen verschil met mijn p100@133 maar als ik na 2 dagen ermee werk wil ik toch wel snel een nieuwe pc!


* 786562 -the
Als ik het verschil na een paar uurtjes niet zie, is het verschil voor mij te minimaal om als een belanrijke feature van een kaart (g200/400) te zien.
Nou, de G200 van me werk is echt een stuk strakker dan me Geforce 2 thuis. En dat terwijl er een slechtere monitor aan hangt. Matrox style image quality heb ik nog niet gezien van nvidia.
Met een goed scherm valt het verschil juist duidelijker te zien.

Het verschil tussen een goede en een slechte DivX zie je ook veel duidelijker op een goede TV dan op een slechte TV. Lijkt me logisch, toch?
Er lekt trouwens wel erg veel weg daar bij nVidia he? Zijn het geen drivers dan is het wel dit soort info... Misschien moet iemand ze eens een plakbandje passen ofzo... :)

[suspicious mode] Of zouden ze het expres doen?! [/suspicious mode] ;)
Wat ik weet met uitlekgevallen is dit:

Ik had ooit ee n2.0 versie van mijn tweakdriver. Hiervoor had ik +/- 20 betatesters, omdat ik zelf niet kon testen met mijn configuratie. Uiteindelijk zat er iemand tussen die alle beta reports op het web zette en gewoon de betaversies ter download zette. Ik vond dat niet leuk, maar toen ik de final version uitbracht, was er niemand meer die aan een andere driver dacht. Iedereen was onder de indruk van die BETA-reports, en wilde dus dat stuurprogramma hebben. Zo ook met nVidia: ze geven specs uit, en iedereen wil dat ding straks hebben. Jammer dat ze het fout doen: ze geven het een belachelijke prijs, de prijs van mijn stuurprogramma was $0,00 ipv $800.
Dit zijn waarschijnlijk foute specs, en foute prijzen.

Maar ennieway, de reacties van nVidia-minnend Nederland zijn lachwekkend:

"Als die geheugen bus echt 256 bit breed is, dan is 800 dollar best wel een te rechtvaardigen prijs."

HAHA! En dit zijn dezelfde mensen die de V5 6000 duur vinden? (Een produkt dat bijna evenveel bandbreedte heeft, maar dan op een goedkopere manier)

"NVIDIA SINGLE CHIP DESIGN ROCKS!!!"

Nou, DIT is wat je ervan krijgt, mensen! Belachelijke busbreedtes tegen belachelijkere prijzen. Dit is een van de redenen waarom ik denk dat deze post pure onzin is. 3dfx brengt eerder dan lente volgend jaar (waarschijnlijk kerst dit jaar) de Rampage uit met evenveel bandbreedte, maar dan multichip en dat is dan tegen de prijs van de V5-reeks! Durf dan nog eens te zeggen dat "multichip sux"!


Nogmaals, dit doet nVidia niet. Anders zijn ze FRIED, BIG TIME.
Sorry hoor, ik vind deze prijzen ($800) ook echt belachelijk, maar 3dfx spant toch echt de kroon met hun (is ie al uit) v5 6000...

Ik kijk dus zeker wel uit naar de rampage, en hoop dat 3dfx dan eens een betaalbare, goede kaart op de markt gaat brengen..
Rara, wat is duurder. $500 of $800?

Duh.
De nv20 is nog niet uit...en de v5 6000 gaat $600 kosten en dat is een absoluut record.
De V5 6000 is ook nog niet uit. Die zal warschijnlijk geen $600 maar $500 gaan kosten.

Dus Nv20 blijft het duurst.
MMM het is ook een feit dat als je er nou eenmaal een weekje mee speelt dat je eigenlijk niet eens het verschil meer merkt, zelf doe ik niet aan die onzin mee, ik koop gewoon lekker elke 1.5 jaar een nieuwe kaart/processor, heb nu een voodoo II met een P400 II processor en lekker veel geheugen en daar draait me UT perfect op, ok geforce II heb ik ook mee gespeelt het ziet er wel mooi uit maar ik kan nou niet zeggen dat ik met heel veel meer plezier heb gespeelt.
Ik heb gewoon een Savage4. Ik maak zowat elke maand een nieuwe tweakdriver voor dat ding, en hij wordt alsmaar sneller. Nog ff een jaartje wachten en dan hoeft die Geforce niet meer. Ik heb nu al 40-45 FPS in Unreal Tournament op 1024x768x32 HQ. En dat met een slome K6/3-400 @ 450 en 192MB RAM. Kwaliteit is ook sowieso beter dan alles wat er nu op de markt is (S3TC rules). Op de HCC Dagen nog ff een Duron 700 @ 900 en een Epox 8KTA+ of Abit KT7 kope en dan ben ik weer bij.
Als de GeForce3 uit komt loopt nVidia gewoon weer een hele generatie voor op de concurrentie. Omdat de concurrentie bij de high-end kaarten (GeForce2 GTS-achtige performance) niet echt heftig is, is er ook geen noodzaak om de prijzen te verlagen. nVidia zou niet snugger zijn als ze het anders deden. Ook hebben ze alle prijssegmenten goed gedekt met de TNT2, GeForce2 MX, GeForce2 GTS en GeForce2 Ultra. Die kaarten doen het qua prijs en prestaties goed in vergelijking met de concurrentie, dus in dat opzicht is er voor de consument niet zoveel te klagen.
[antfuckmode]
Je vergeet de GeForce 2 Pro.. :P..
[/antfuckmode]
Uhm als de GeForce 3 uitkomt neem ik aan :)
200 MHz DDR (dus 400 MHz). Waarom dan niet meteen 460 of 500 MHz zoals op de GF2Ultra? Als ze echt het beste van het beste willen maken met deze kaart ga je toch niet terug in geheugensnelheid? Zeker niet zonder Hidden Surface Removal. Want we hebben ook al kunnen lezen dat een 2x zo brede bus niet 2x zoveel snelheid levert, omdat je niet alles nodig hebt wat je leest.

1600x1200x32 met 100 fps vind ik ook twijfelachtig. Bij een gewone GF2 begint het geheugen pas een echte bottleneck te vormen bij processoren > 1 GHz. En aangezien de PIII op dit moment nog niet sneller gaat lijkt het me sterk dat je zoveel kunt winnen op een PIII met deze nieuwe videokaart, want je processor wordt de bottleneck.
Of neemt deze kaart ook veel meer taken van de processor over dan de normale GF2?

Mocht het wel waar zijn dan is het mekka voorlopig wel bereikt. Ik durf het nu aan, normaal steun ik alle ontwikkelingen naar boven wel ongeacht wat ze kosten, maar als deze prestaties echt waar zijn hoeven we voorlopig niets nieuws meer. 1600x1200x32@100 is het mekka. Totdat er nieuwe spellen komen die veel zwaardere eisen gaan stellen, maar of dat gebeurt is de vraag want normaal geprijsde systemen en topsystemen gaan wl steeds verder uit elkaar lopen op deze manier.
--------
Femme: met die prijs?
460 en 500MHz DDR chips zijn erg slecht leverbaar. Het gebruik van die chips zou het voor de videokaart-fabrikanten onmogelijk maken om de GF3 kaarten in grote aantallen te produceren en dat lijkt me niet de bedoeling. Uiteindelijk zal het de bedoeling dat de complete GF2 lijn wordt vervangen door GF3 varianten en dan moet je wel in volume kunnen produceren (de GF2 Ultra is niet bedoeld om in grote volumes geproduceerd te worden).
Iedereen die even de moeite neemt om de bron te lezen komt te weten dat het om een item gaat uit het forum van iXBT. Een of ander mannetjes genaamd Gabdab (niet geregistreerd ofzo) knalt een paar specs neer met een verhaaltje en jawel de discussie barst los.
Het enige wat iXBT doet is het posten van dit nieuws op hun eigen 'news-section'. Ze weten zelf ook niet of dit waar is uiteraard, vandaar ook hun 'ps'.
Therefore we cannot vouch for the truth of these specs
Het spijt me heel erg maar ik vind dit een beetje 'Register-achtig'. Zeker het gedeelte van de prijs is erg twijfelachtig, de specs zijn naar mijn idee ook wat aan de hoge kant.
Ik ga niet zeggen dat die Gabdab helemaal uit zijn nek lult, maar ik geloof echt niet dat DIT de NV20 wordt.
Ik denk toch dat dit een veelgewilde kaart word no matter what de prijs is, zo'n kaartje wordt zowiezo altijkd goedkoper als je het in combinatie met een computer koop bij een grote OEM zoals Dell, en daar letter de mensen niet vaak op de onderdelen zelf maar eerder op de prijs van het geheel, want zeg nou zelf; de average joe heeft toch veel liever "die supersnelle gaming 3d kaart" dan een 60GB HD.

Jammer dat de onderdelen zo duur gaan worden.
Maar bedenk wel dat dit de laatste kaart zal zijn die zo goed zal zijn wegens de performance; boven 1600x1200 zijn er niet echt veel resoluties over, zeker niet voor mensen met een 19" (Ik heb 22" :9), en 100fps is ruimschoots (te veel), want de monitor refresh rate kan dat niet eens aan ;). Kortom: na deze kaart word het battle of the titans in feature land; aan performance valt weinig te verbeteren.

Ook vraag ik me af wanneer de resoluties groter gaan worden? lijkt me wel heel grappig, want volgens mij kan dat gewoon niet meer, op 2048x1536 kan je al 4 IE windows van 1024x768 openen en multitasking zal toch altijd gelimiteerd zijn door de hersenen van een mens. Bovendien zijn alle websites gemaakt voor bepaalde resoluties, als je over 2 of 3 jaar 4096x3072 als resolutie draait op een 22" (groter zullen ze niet worden, daar krijg je hoofdpijn van), dan zal je toch beslist moeite krijgen met het lezen van de lettertjes :)
$800 voor een kaart? BELACHELIJK! Ziet er zeer goed uit verder wat betreft de specs, maar de prijs is onbezonnen. Niemand gaat er $800 voor een 3d kaart betalen, echt niet.
Niemand gaat hem kopen? Ach, het gewoon een kwestie van vraag. Hoe hoger de prijs, hoe lager de vraag. Geloof mij, er zullen genoeg mensen zijn die die prijs er voor over zullen hebben, alleen minder dan wanneer de prijs lager zou zijn. (elementaire economie)

Wat Blind Dent zegt: in plaats van de technologie in de ijskast te houden, brengen ze hem gewoon eerder uit tegen een ruime winstmarge.
Nee, en _niemand_ gaat 3000 voor een pentium 4 betalen waar nog niet eens een moederbord voor is..

Wake up and smell the coffee, dude!

Er zijn altijd wel mensen die iets kopen, hoe slecht de prijs/prestatie verhouding ook is, als het maar het absoluut snelste is.


Bij het lezen van de reakties bekruipt mij zo'n gevoel dat de gemiddelde persoon denkt "hallo! Dat kan ik niet betalen, Hier wordt een grondrecht van mij de grond ingeboord!"
Het is afhankelijk van de concurrentie en de vraag. De vraag is er, er zijn altijd mensen die alles direct willen hebben. En als je het geld ervoor hebt en ervoor over hebt zou je het kunnen doen. Het probleem ligt bij de concurrentie, die is er nauwelijks, alleen ATI komt af en toe nu even om de hoek kijken. En 3dfx heeft wel iets leuks, en iets wat extreme cooling nodig heeft, wat weer te denken geeft.
Doordat iedereen zijn eigen patenten bijna geheel beschermd en er nog geen uitspraken zijn omtrent misbruik van de machtspositie op de markt, kan het zo wel even blijven. Binnenkort hebben we wat duidelijkheid omtrent Rambus omtrent patenten sdr/ddr ram en 3dfx tegen nvidia. Hopelijk krijgen we de situatie dat patenten kort na uitkomst tegen redelijke betaling 'geleased' mogen worden. Dat zou een goed prijsdrukkend effect hebben.
Maar in de huidige markt zullen we het moeten stellen met of erg veel geld uitgeven (relatief want het is mijn referentiekader) of stellen met een product dat minder prestatielevert. Nvidia kan vragen wat ze willen, want de prijzen zijn weer niet zo hoog dat niemand ze koopt. Want wat wij veel vinden, vinden bijvoorbeeld de gemiddelde Zwitser, Amerikaan en Japanner weer normaler.
Wat is er zo belachelijk aan $800? Het is gewoon de allernieuwste kaart de ontwikkelkosten zijn uiteraard gigantisch, en men kan voor 400(goedkope versie) tot 800piek(beste uitvoering) een G-Force2 kopen die nu nog echt het neusje van de zalm is. Laat ze het lekker $800 maken voor de mensen die graag een videokaart willen hebben die overdreven goed is.
Bedenk trouwens wel dat $800 niet meer is dan de Voodoo 5 6000....
bedenk dan is dat de V5 6000 een prijs van $600 gaat krijgen en zover mijn wiskundige kennis gaat (k studeer t wel magoed) is 800 nog altijd meer dan 600, ik neemaan dat deze 800 ook in US dollars is, dus ik vraag me nogal af hoe j t idee kan krijgen dat de V5 6000 duurder is dan de NV20.
dit natuurlijk buiten het feit dat de kaarten niet tegelijk uitgebracht worden en je dus een prijsvergelijking op dit moment niet kan maken
Overdreven goed? Misschien snel, of is de beeldkwaliteit ook zeer goed? Mag toch wel voor dat geld.

En dan moeten we het allemaal nog maar zien natuurlijk. Het bericht bevat nogal wat "should be" "should have" en "is to be expected".

Ik ben bang dat de snelheid toch tegen zal vallen en de prijs, nou ja, ook dus.

Ben eigenlijk meer benieuwd naar de G800 in plaats van de wekelijkse nVidia geruchten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True