Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: Digit-Life

Digit-Life heeft naar eigen zeggen een sample ontvangen van een videokaart met een NV20 chip, die 27 februari officieel aan de wereld gedemonstreerd wordt. In hun analyse wordt alleen gesproken over de features van de kaart, benchmarks en foto's mogen uiteraard nog niet gepubliceerd worden. Toch zijn er een aantal interessante punten die naar voren komen in het verhaal, die afwijken van de eerder bekende specs.

De core bestaat uit 60 miljoen transistors en zal bij de release op 200MHz lopen, pas later zullen er Pro en Ultra versies met 250 of 300MHz cores verschijnen. nVidia richt zich dus niet meer op brute kloksnelheid om de performance te verbeteren. In plaats daarvan is er hard gewerkt aan de snelheid en features van de T&L engine, die volgens de geruchten 150 miljoen triangles per seconde kan doen en in praktijk zo'n 40 miljoen haalt.

Verder claimen ze dat de nieuwe chip 4 pixels per clockcycle en 4 textures per pixel kan doen, resulterende in een fillrate van 800 megapixels en 3,2 gigatexels per seconde. Dat in combinatie met HSR en andere geheugensparende technieken moet de kaart genoeg kracht geven om ver boven de performance van een gelijk geklokte GeForce2 uit te komen.

Natuurlijk hebben we eerder NV20 specs gezien, maar door het enorme verhaal over de werking van de vertex engine en uitgebreide informatie over de verschillende features voor mooiere en realistischere spellen die in de drivers aanwezig zijn, komen deze gegevens een stuk betrouwbaarder over dan de gemiddelde kale lijst:

NV20 chip - kleinSo, now we will show where the claimed 4000 million pix/sec for XBox come from. The OverDraw factor of many modern games exceeds 2-4. For example, in case of movements it reaches 3 in Quake3, and 6 (!) in Unreal. But remember that everything depend on effective realization of hidden primitive removal. It's unlikely that the technique used in the NV2A will throw out 100% hidden pixels. So, for 4 pipelines and 60% effectiveness we have the OverDraw around 6. This figure is the most possible, and it served a basis for calculation of the XBox specs.

It's clear that the number of necessary pipelines (with the OverDraw fixed) will directly depend on the effectiveness of algorithms of hidden pixel removal! A good algorithm will require only 4 pixel pipelines. Games of the future, to be created taking into account the XBox and DX8, will in greater degree rely on T&L and hardware hidden surface removal than on its own effective algorithms. Besides, an increased complexity of models will additionally lift the OverDraw. But nevertheless, remember that 4000 million pix/sec is a relative figure and it can be reached only in theory. Meanwhile, a question whether those tricks are realized in the NV20 and how much they are effective remains open.

[...] It's not clear up what will be with a speed, many things will depend on memory and programmers. I want to note a tighter integration of the API (DX8) and hardware and wide range of technological innovations. It's obvious that together with the XBox the NV2x series is capable to provoke a real revolution of trick effects in games. The main thing is that game developers manage to create new games or remake the current ones; it's cool that the upcoming XBox guaranties availability of games intended for the API DX8 possibilities.

De eerste NV20 kaarten van Asus, Leadtek, Elsa en Hercules zullen in maart op de markt komen, een maand later gevolgd door GigaByte, MSI en vele anderen. De prijs voor een 64MB versie zal in het begin tussen de $450 en $500 liggen, maar dat zal al snel zakken.

Moderatie-faq Wijzig weergave

Reacties (52)

Wel allemaal toff especs dus alleen de prijs is belachelijk.
Ook al zal de prijs snel zakken zie ik hem niet gauw rond de Fl 600,- komen.
Dat is toch wel een beetje max wat de meeste willen betalen denk ik.
tuurlijk is het te duur om zomaar ff te kopen, maar het is dan ook nieuwste van het nieuwste en snelst te krijgen superkaartje. Nogal logisch dat dat veel kost. De software vraagt nog lang niet om zo'n snelle kaart dus het is ook nog compleet zinloos om hem (haar?) te kopen.
Ik denk ook zeker dat als andere fabrikanten zich gaan richten op deze markt dat er vanzelf wat meer ruimte komt in de prijs.
Daarnaast is een produkt er pas als het ook daadwerkelijk in de schappen ligt, in de tussentijd kan er ook nog VEEL gebeuren.
Dat is wel het grote voordeel van NVidia kaarten. Er zijn heel veel fabrikanten die de chip gebruiken voor hun 'eigen' kaart. Dus het aanbod is erg groot, wat de prijs vaak drukt. Bij ATI zijn het allemaal kaarten van ATI zelf en wordt de chip niet door anderen uitgebracht wat dus het aanbod beperkt. Misschien dat er verandering komt wanneer ook Intel rechten heeft op de technologie van ATI maar ik ben bang dat het voorlopig zo blijft
Look on the bright side...

Binnenkort MXjes halen voor 200 piek? :)
Nee, GTSjes voor fl 350 :)
GTS Pro voor fl 400 :)
Ultra voor fl 500 :)

ofzo...
Ik vind de prijs wel meevallen. Is iets meer dan 1000 piek. Net zo veel als de Geforce2 toen ie op de markt kwam. Het grootste voordeel is dat de Geforce 2 nu snel gaan zakken.
Dat verhaal dat de NV20 snel gaat zakken geloof ik niet. Die zal ook pas gaan zakken nadat er een nieuwe van NVidia komt.
Ik vind de prijs wel meevallen. Is iets meer dan 1000 piek.
$500 in de VS wordt f1500 hier.
Geen onzin uitpreken,
volgens jou is een dollar 3 gulden.

Moet je zien hoe veel een dubbeltje meer of minder uit maakt. Het is onterecht dat je zo'n slechte indicatie maakt. De Dolar ligt rond deze tijd op F2.58
Je moet niet vergeten dat de hardware prijzen hier in Nederland stukken boven die in Amerika liggen. Hij zal dus best wel in die richting komen. De Radeon is in Amerika ook veel goedkoper dan in Nederland.
Het gaat goed met de euro de laatste weken. :)
Nu is 1 dollar gelijk aan NLG 2,36 ongeveer.

Wat niet wegneemt natuurlijk dat het wel duurder zal gaan kosten dan gewoon amerikaanse prijs * 2,36 (zie andere reacties)
Daar heb je gelijk in, maar hoe komt het feit dan dat bijna alles in amerika goedkoper is?
Minder distriebutiekosten, meer concurrentie en meer vraag?
De ultra was $500 in de vs en 1300 hier in nederland, das nog te duur, maar toch al weer 200 piek minder dan 1500...bovendien zal nvidia echt wel goedkopere (en langzamere) versies moeten uitbrengen als ze nog kaarten willen verkopen..
'Vrij snel' is over ongeveer een half jaar.

Toevallig is het dan ook weer tijd voor de GF4 of de GF3Ultra of zo.

nVidea brengt ook 'vrij snel' nieuwe produkten uit.

MetalStef
De GeForce II zal wel moeten zakken want de Pro en met name de Ultra versie WAREN gewoon TE duur, dat zie je nu, ze zijn op brute kracht gebouwd en dat is duur, dat geheugen dus. Nu heeft NVidia een nieuwe core met betere mogelijkheden en zou de GF2 Ultra duurder en langzamer/even snel? zijn. Dus als ze nog willen verkopen moet de GF2 Ultra in de uitverkoop dus ik denk dat die straks voor 1000 over de toonbank gaan :) Dan moet de GF2 Pro toch naar 800 ofzow gaan en de gewone naar 600-700.. MX'jes zouden wel even zo blijven, worden toch wel verkocht:
Ik denk dat deze kaart hoge ogen gaat gooien.
De meeste Gforce 1 gamers zullen toch wel weer willen upgraden.
Omdat de Gforce 2 duur was/is en de Ultra's al helemaal is de GF3/NV20 toch de kaart waar men voor gaat, Ik wel teminste :)
Leer ermee te leven, Top gamer kaarten ZIJN duur.
Ik moet toegeven ik koop vaak duurdere onderdelen voor mijn hok, en ik update gemiddeld elke 3 maanden wel met nieuwe zut, CPU/MEM/HDD/Vid card.
Ik ga voorlopig niet aan een ander merk dan nVidia beginnen, ATI = slechte driver support / 3Dfx = dood.

En als halo, Tribes 2 uitkomen dan wil ik wel FPS op de MAX settings.
( Al liep de tribes 2 beta op 40-90 FPS op mijn Gforce 1DDR ).
Leer ermee te leven, Top gamer kaarten ZIJN duur.
Oh ja? Toen ik mijn voodoo1 kocht was ie net uit en koste toen f 425,- Was toen echt het mooiste wat je kon krijgen. Mijn voodoo2 koste f325,- was toen ook nog maar zo'n 3 maand uit. Had je ook het beste wat er was. Tegenwoordig moet je zo'n f800,- voor 1 van de snelste 3d kaarten neerleggen. Lijkt nergens op natuurlijk.
Ook ik vind de high-end kaarten tegenwoordig veel te duur, maar bij introduktie kostte de Voodoo1, en de 12MB Voodoo2 toch ook echt zo'n 700 pieken hoor.
Ik kocht m'n eerste PC zo'n 16 jaar geleden. Dat was 'n XT en die koste me 4500,- pietermannen. Daar kan ik nu 'n top-of-the-line systeem voor kopen.
In al die jaren dat ik met PCs geklooid heb, heb ik de prijzen alleen maar zien dalen. En dat terwijl de performance omhoog ging!
Behalve voor videokaarten. Schijnt dat deze in de omgedraaide wereld leven!

Dus aub nVidia en concurenten, houdt het op een core en biedt deze tegen een schappelijke prijs (fl 500,- max) aan!
pff, videokaarten zijn juist ook relatief goedkoper geworden, als je nu naar de mx kijkt (en dus niet alleen naar de ultra) dan zie je dat die kaart verhoudingsgewijs zeer goed presteert voor de prijs die erbij hoort, de v1 was voor wat je ervoor kreeg verhoudingsgewijs duurder

Dwz, als je een een vergelijking maakt met de prijs/kwaliteit verhouding over de periode v1-gf2 van diverse pc-componenten dan denk ik dat zal blijken dat die verhouding nu relatief beter is dan vroeger...

Voor een v2-sli setup betaalde je zo'n 1300 piek, en dat is gecorrigeerd voor inflatie en koopkrachtverbetering heel wat meer dan je nu voor een geforce2 ultra betaald....
Tja VROEGER kom ik nog een Golf GTItje kopen voor 8000,-
voor een >gelijkwaardige< auto vandaag betaal je een 20.000
En zo kan je door gaan met elk produkt.
Het leven wordt duurder... vraag maar aan mama.
Deze is wel heeel wat goedkoper dan geforce2 ultra, dus de prijs is best redelijk, denk ik.

Ik zag Creative hier niet tussen staan, brengt deze geen kaartje uit?
Ik vind het toch een beetje vreemd wat nVidia tegenwoordig doet. Ze zijn echt heel hard bezig met in een behoorlijk tempo steeds snellere grafische chips uit te brengen met allemaal hele geile specs, terwijl de software of games die er ook daadwerkelijk gebruik van maakt hard aan het ontbreken is.
Ik kan met mijn GeForce ook al Quake3 op 1024x768 met 80fps spelen. Ik ga echt geen 1200 gulden ofzo investeren om een nog hogere framerate te krijgen.
Excuse me,
maar Quake3 is al meer dan een jaar oud en gezien de huidige prductie-cyclus in de vid-kaart industrie loopt ie dus twee cycli achter...

Ik denk dan ook, dat dit NIET de game is om mee te bepalen hoe je vid-kaart overweg kan met de huidige generatie spellen, die om de hoek komt zetten, want zoals je al zei kan de huidige generatie zonder problemen een vette framerate uit Q3 stampen...

Ergens in een van de eerste reacties op DOOM3 stelde Carmack, dat met alle effecten waar ze DOOM3 mee vol willen proppen, slechts de op moment van uitkomen top of the line bakken op full detail hoge res kunnen draaien...

DAAR is die kaart dus voor... Of je het dat nou waard vindt of niet, is dan weer voor iedereen verschillend...
wat moeten ze dan ? stilzitten ?

en een hoop nieuwe geile features zijn onzichtbaar voor software...
als jij een game maakt hoef jij nix te coden om HSR te laten werken bijvoorbeeld...
DX8 ondeeersteund al diverse functies, waar de (toekomstege) NV20-bezitter slechts van kan dromen. :z :Z :z :Z
Sjees valt me tegen zeg! Een core van maar 200MHz, dat heeft mijn GF2 ook! Dan wordt zo'n kaartje natuurlijk niet echt interessant voor mij en voor andere GF2 gebruikers. Kunnen ze echt beter die core omhoog gooien naar 300MHz en van daaruit gaan opbouwen naar een Pro en Ultra.

Maar ze zullen later Pro en Ultra versies uitbrengen? Vraag ik mij af of ze dan de zelfde architectuur gebruiken en dus alleen maar de kaart oc'en... Dan wordt zo'n normale GF3 natuurlijk wel weer interessant :9. Hoef je minder te betalen voor een 'eigenlijke' GF3 Ultra door 'em gewoon te oc'en :).

Denk niet dat ze zo'n GF3 voor meer dan 1200,- mogen verkopen. De GF2 dan ook wel weer in prijs dalen als eenmaal deze kaart op de markt komt en dan vind ik een prijs van 1200,- wel erg radicaal voor een GPU met een core van maar 200MHz.

Maar goed, we zullen zien...
Sjees valt me tegen zeg! Een core van maar 200MHz, dat heeft mijn GF2 ook! Dan wordt zo'n kaartje natuurlijk niet echt interessant voor mij en voor andere GF2 gebruikers. Kunnen ze echt beter die core omhoog gooien naar 300MHz en van daaruit gaan opbouwen naar een Pro en Ultra.
Duh, wat doet die core snelheid er nou toe als de techniek beter is zodat het eindresultaat gewoon sneller is? Net zoals AMD vs. Intel, een Athlon van 1.2 GHz klopt ook een PIV van 1.4 GHz...
een athlon word geklopt door een p4 op alle fronten behalve o prijs/prestatie de p4 is sneller in 3dgames en al die shit check tomshardware maar eens.
60 miljoen transistors goeiendag, daar kunnen AMD en intel nog een puntje aan zuigen.
Maar misschien wel slim van nVidia om niet voor brute kloksnelheid te gaan (de standaard consument let daar trouwens toch niet op als ze een grafische kaart kopen), maar ik vraag me toch echt af hoe deze kaart zich gaat verhouden met de toekomstige ATi Radeon 2.

En of er in de opvolger van de NV20 features zitten die ze van 3dfx hebben overgenomen.
In de opvolger van de NX20 prob. de NV25 zitten die functies nog zeker niet ...
Het developen van een nieuwe garfische kaart en drivers duurt wel even.

Hopelijk introduceren ze dan een tile-based system
(op de Gigapixel patenten van 3dfx)
Daarom kost de kaart ook zoveel geld... Wie betaald krijgt wat.
Als je het geld er niet voor over hebt, koop je hem toch niet?

Ik wil ook graag voor een dubbeltje op de eerste rij...
Een Rolls Royce kost toch ook geen F20.000,00 ?
Nee, dan moet je maar gewoon in je Fiat Panda GTI je rondjes rijden.
Dit is dus gewoon de Rolls Royce onder de videokaarten. Stoer ding, en als ik het geld had, zou ik hem meteen kopen!
Veel mensen liepen een paar jaar terug allemaal to vloeken op Intel dat ze toen al een 1 Ghz processor hadeen draaien en dat ze die niet uitbrachten omdat ze met geleidelijke stappen meer winst konden maken. Of dit waar is of niet ter zijde maar ik denk dat Intel zowieso tijd nodig heeft om haar technologieen betaalaar te krijgen voor het grote publiek. Dus als bedrijven hun producten zo snel (moeten) ontwikkelen dat ze minder tijd hebben om die technologie betaalbaar te maken, dan krijg je dit soort scenario's.
Ik denk ook dat de P4 in deze categorie valt.
Uiteindelijk is het gewoon waar. Wie high tech wil zijn moet gewoon flink dokken. ;(
gelukkig ik had gedacht dat de NV20 een nog overgeclockerde geforce 2 zou worden, Hopelijk is de beeldkwaliteit ook beter
Door deze nieuwe technieken heeft hij dus minder duurde hardware nodig. Het zou mooi zijn als we dat later ook in de prijs gaan merken
denk niet dat je het veel in de prijs zult merken..
de R&D kosten betaal je..
de kaart kost kwa onderdelen niet zo super veel..
als voorbeeld:
ik meen dat de productie van een p3 cpu maar 25dollar kost.. en kijk eens wat ze er voor vragen..

zijn dus de ontwikkelings kosten..
De P3's kosten gewoon zoveel (meer) omdat Intel ze nauwelijks in deftige hoeveelheden kan leveren, de yield is wat aan de lage kant :r

flamebait?!?
Beetje een teleurstelling, tis nu net een "Pentium" naar "Pentium MMX" vergroting. Al die handige features uit de GeForce 2 worden nog niet eens gebruikt. Wat echt een vooruitgang zou zijn, was een grote vooruitgang bij zelfde software, door middel van "slimme" technieken (ok HSR valt daar wel onder ;) ). Die "nieuwe" snufjes kunen ze wellicht een keer beter collectief inplannen en dan ook daadwerkelijk gebruiken.

Maarjah, stilstand is achteruitgang, dus we nemen het maar voor lief :)
Volgens mij heeft de NV20 alleen maar uitbreidingen op het ontwerp van de GF2 hoor. Ze worden alleen niet meer specifiek genoemd. Ik neem nl. ook aan dat de NV20 ook weergewoon met de Detonator drivers zal gaan werken.
Overigens vind ik HSR en EMBM niet geringe toevoegingen...
Hoe zit het trouwens met die hardware NURBS ondersteuning?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True