Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties
Bron: x-bit labs

Op het forum van x-bit labs is een post verschenen over de specificaties van de NV20. De schrijver van deze post beweert dat op de Chinese site waar gisteren foto's van de NV20 te bewonderen waren, nu ook de specificaties en release date te vinden zijn. Hij was zo aardig deze gegevens te vertalen, en dat stukje luidt als volgt:

NV20 will be released on 2001.2.27, the main specification of NV20 are:
  • Fabrication Process: 0.15 or 0.13-micron
  • Transistors in the Core: 30~50 million
  • Rendering Pipelines: 4
  • Texture Units per Pipeline: 3
  • Core Speed: 300MHz
  • Memory Speed: 250MHz (DDR)
  • Memory Bandwidth: 8G/sec
  • Pixel Fill Rate: 1200 million-pixels/sec
  • Texel Fill Rate: 3600 million-texels/sec
  • Triangles Processing Speed: 150 million-triangles/sec

Ten opzichte van eerdere speculaties zien we dat de geheugensnelheid is gestegen naar 250MHz DDR, maar dat de bandbreedte van het geheugen is gedaald naar 8GB/s, wat zou betekenen dat de NV20 een 128bit brede memory bus bezit (net als de telgen uit de GeForce2-familie). Verder is het aantal rendering pipelines niet 6, zoals eerder verondersteld, maar 4, net als bij de GeForce2 GTS/Pro/Ultra.

Als de releasedatum klopt, hoeven we nog maar even te wachten om te zien of deze gegevens op de waarheid berusten...

Moderatie-faq Wijzig weergave

Reacties (40)

Triangles Processing Speed: 150 million-triangles/sec
Dat is dus twee keer zoveel als een PlayStation 2 ... om het even in het juiste perspectief te plaatsen.

En verder:
Het is gewoon een Geforce 2 met HSR!!
. Erhh, de GeForce 2 (MX/GTS) heeft toch maar twee texture units per pipeline ???
JumpStart,

De GeForce 2 GTS/Pro en Ultra hebben er ook 4, alleen de MX heeft er maar 2.

[update]

Whoops, ik las texture units per pipeline, maar je hebt het over de pipelines zelf, dat klopt, de GF2 heeft maar 2 pipelines.

De Radeon heeft er echter ook 3.

[/update]
Daar raak ik niet bep. van onder de indruk. Zowel niet van de spec als van de betrouwbaarheid van de site waar ze vandaan komen...
Ik vraag me af wat er dan zo 'revolutionair' aan is dat deze chip sneller maakt dan de (DDR : ) versies van de GeForce2 Pro Ultra
(of hoe ze die ook precies noemen..)
Behalve die 150 Mpolygon/sec dan :P. Is een stuk hoger dan de 15 M van mijn MX-je
Aantal transistors: ergens tussen de 30 en 50 miljoen.
Ja hallo! Waar slaat dat nou op, als je de exacte specs hebt weet je dat ook.
Ik snap niet dat jullie dit bericht allemaal vertrouwen :? :? :? ? Volgens mij waren de vorige gegevens hierover veel betrouwbaarder (daar gingen ze niet, "tussen 30 en 50 miljoen" zeggen, 6 pipelines en meer mem-bandwith leek me het beste wat nVidia kon doen op dit moment, en een kleinere core om de core speed iets op te voeren uiteraard..

Overigens worden vid. cards nu wel veel ingewikkelder en technisch sterker dan CPU's, en dat wordt alleen maar erger (of beter voor gamers als ik!!! :*)) dankzei de enorme snelheid waarmee nVidia zijn chips uitbrengt
Die specs slaan nergens op : tussen 30 en 50 miljoen transistoren.
Er waren al indicaties van Nvidia en M$ dat ze over de 50 miljoen transistoren gingen , dat is veel meer de de NV15(GF2).Dus is het een veel complexer ontwerp dan slechts een opgefokte GF2

Mijn gok is :
-Veel geavanceerdere T&L unit
-Meer features zoals bijv . EBMB en andere speciale effecten in hardware.
-HSR in hardware , dus hardwarematige ondersteuning van HSR of in ieder geval hardware die ervoor is geoptimaliseerd
-Meer textureunits
-Meer bandbreedtebesparende features in hardware , zoals bijv. Hyper Z bij ATI
-verbeterde FSAA (misschien de superieure FSAA van 3dfx),met een mindere performance-hit , FSAA ook hardwarematig ondersteund ipv. de "hack" met de T&L -unit.
-mogelijkheid tot 64 bit rendering , in ieder geval hoger dan 32 bit.
-verbeterde texture-compressie , misschien wel een nieuwe standaard.
-verbeterde lay-out en andere Ramdac voor betere beeldkwaliteit in 2d en 3d.Want op dat gebied blijven ze duidelijk achter op ATI en Matrox.


Mijn conclusies en erg onzeker ,maar een chip met meer dan 50 miljoen transistoren is toch echt wel iets meer dan een opgefokte GF2 Ultra.
voor betere beeldkwaliteit in 2d en 3d.
In theorie blijven ze met een lagere RAMDAC op 2d gebied idd achter op matrox en ati, maar in de praktijk heb ik zelf gemerkt dat dat pas vanaf resoluties vanaf 1600 te zien is op een goede monitor..

Veel mensen vergissen zich hier vaak in de begrippen 2d en 3d, aangezien de 3d van nvidia en ati, blijkens tests de beste zijn

De 3d kwaliteit van nvidia hoort dus bij de top, dat wil niet zeggen dat verbetering niet welkom is, maar wel dat het onzin dat de 3d kwaliteit van nvidia nu ten opzichte van andere aanbieders slecht zou zijn.

De 3d kwaliteit is dus verhoudingsgewijs goed en de 2d kwaliteit ook prima > kan natuurlijk beter als je op zeer hoge res gaat DTP-en, maar de meeste mensen draaien onder de 1600, dus de kwaliteit daarboven is voor veel mensen niet zo van belang)
Je moet niet vergeten dat de Radeon maar 2 rendering pipelines heeft met 3 textureunits per pipeline.De GF2 heeft er 4 met 2 textureunits per pipeline.De Radeon houdt de Gf2 nu al goed bij , moet je voorstellen wat de Radeon II met 4 rendering pipelines , hogere clocksnelheid van core en geheugen en wat meer Z-buffer truukjes en andere bandbreedtebesparende elementen en goede drivers(ja , hoort er ook bij ATI!) wel niet moet gaan opleveren , ben ook zeer benieuwd naar de NV20 en hoe Nvidia het bandbreedteprobleem gaat oplossen.


En dat laatste artikel was dus fout :
Radeon heeft 2 rendering pipelines en 3 textureunits per pipeline.
Radeon heeft 3 rendering pipelines toch stond in laatste vergelijking. Ik denk trouwens dat de Radeon II erg goed met NV20 gaat concurreren, zeker omdat (in tegenstelling tot bij de GeForce II) de Radeon niet extreem veel later gaat komen dit keer, dat was toch het grootste probleem van de Radeon 1

edit:
dan stond het dus fout in die nieuwsposting over R2 vs NV20, hebben ze bij de R2 rendering pipelines en textureunits door elkaar gegooit :)
Klopt dat de Radeon maar 2 pipelines heeft, maar de Radeon II krijgt het dubbele
ALS dit een op waarheid beruste specs list is(lijkt school onderzoek wel, moet je er ook bij zetten waar je alels op basseert :)) Vrees ik voor nVidia dat hier de wet van de remmende voorsprong om de hoek is komen kijken, misschien willen ze wel, maar hebben ze onder druk van hun eigen 6 mndn schema enkele dingen moeten laten vallen, ALS dat zo is word hij wel behoorlijk snel, maaaaaaaar word het een kaart met een kortere houdbaarheid, ik bedoel hiermee dat kaarten die niet zo gek lang hierna komen er (niet gemakkelijk maar toch) overheen kunnen komen.
En om even op de 3 texture units te reageren
WAAAAAAAARR zijn ze mee bezig? ze wisten dat DX8 nu geoptimaliseerd is voor 4 textureunits, zoals de RadeonII(ja ik weet het geruchten) er wel 4 heeft per pijplijn, MAW, dit zou, in een worst case scenario voor nVidia, de volgende ommekeer in videokaart land kunnen zijn, mits let wel mits andere bedrijven WEL hun geruchten waar kunnen maken.
Ik geloof meer in features voor geheugen bandbreedte besparing WANT zoals je nu al ziet, wat moet je met een HELE brute core speed als je die niet maximaal kan benutten behalve in 640x480x16? nVidia is niet gek en zal geen nieuw texturecompressie tech releasen zo vlak nadat DX juist voor het huidige systeem is ontworpen, en DX9 is nog lang niet in zicht!

Maar zoals met alle geruchten eerst zien dan kwijlen, en nog maals dit alles is erop berust dat alles over nVidia kaartje waar is en de rest het ultieme wel waar kunnen maken!
Misschien beseft nVidia dit zelf ook wel en hebben ze daarom een uitbreiding op de GF2 gemaakt om hun remmende voorsprong nog een beetje te vergroten. Dan kunnen ze straks de Radeon II nog bijhouden en werken ze ondertussen aan een nieuwe chip die de concurrentie weer op grote achterstand zet.

Maar misschien is dit inderdaad het begin van het einde van nVidia. Dan ontstaat er wel meer ruimte voor concurrentie. Ik denk dat oa door het gebrek aan concurrentie de GF2 zo duur is. Alleen hoop ik niet dat bijv. ATI als enige de leidersrol overneemt, want dan schieten we er nog weinig mee op.

Maar het kan ook nog zo zijn dat de NV20 veel meer dan een uitgebreide GF2 is. Dan gebeurt hetzelfde als toen de GF2 uitkwam en kopen alle gamers deze nieuwe kaart terwijl hun GF2 nog wel minstens een jaar te snel voor nieuwste spellen blijft.
Ik denk dat oa door het gebrek aan concurrentie de GF2 zo duur is
tja, als er zo weinig concurrentie zou zijn, waarom hebben ze dan de mx uitgebracht....het gekke is dat de concurrentie van nvidia vaak net zo duur of duurder is (3dfx is niet voor niets falliet, zo'n v5-6000 van 1700 valt niet meer te verkopen)

Natuurlijk is een monopolie nooit goed, maar de meeste mensen hier kijken alleen naar de duurste kaarten van nvidia en vergeten gemakshalve maar even dat ze ook nog andere kaarten uitbrengen zoals de mx, die absoluut enorm goedkoop is, zelfs vergeleken met vroeger en zeer goed presteert als je naar de prijs/kwaliteit verhouding kijkt...iets wat de concurrentie nvidia nog niet nadoet...

De NV20 zal echt niet superduur worden, want dan verliest nvidia onherroepelijk de markt aan de concurrentie en dat is het laaste wat ze willen...
Dan gebeurt hetzelfde als toen de GF2 uitkwam en kopen alle gamers deze nieuwe kaart terwijl hun GF2 nog wel minstens een jaar te snel voor nieuwste spellen blijft.
Idd, ik snap ook niet waarom de meeste tweakers steeds het nieuwste van het nieuwste willen hebben terwijl de extra prestatie helemaal niet zo nodig is (zeker niet als je naar de kosten kijkt)
Dat zijn vaak ook dezelfde mensen die vinden dat de prijzen te hoog zijn en dat het maar vervelend is dat er zoveel keus is (wees blij met zoveel keus)
Maar misschien is dit inderdaad het begin van het einde van nVidia.
Dit vind ik net zo'n illusie als dat AMD Intel wel effe failliet zal laten gaan, zo snel gaat dat niet hoor. nVidia heeft enorm veel geld gehaald uit de Geforce familie, met al dat geld kunnen ze lekker snel ontwikkelen en heeft de concurrentie (eigenlijk alleen Ati) moeite ze bij te houden... Zou wel leuk zijn, wat concurrentie, maar ik denk niet dat Ati nVidia zo makkelijk bij kan houden.
daarom staat er ook het begin van het einde, bij 3dfx was de V3 ook al enigzins het begin van het einde, of eigenlijk de overname van STB.
En wat zijn de nieuwe functies ?
Als ik deze specs zo zie lijkt die NV20 core heel erg op een overklokte GF2 Ultra ...
ik vind de programmable shaders en HSR behoorlijk gave nieuwe features
Als ze van die fantastische specs zouden hebben genomen zou de kaart denk ik onbetaalbaar zijn geraakt, want bedenk wel, de eerste 2 3 maanden zal dit een extreem high end kaart zijn, maar daarna moeten ze er ook nog wat verkopen, en de vooraad freakjes is nou eenmaal beperkt, aldus vind ik dat deze specs wel redelijk normaal zijn, aangezien de geforce2 t.o.v. de geforce1 ongeveer de zelfde verbetering van specs liet zien...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True