Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: Media Xplosion

Venator schrijft dat het Duiste Media Xplosion een verse preview online heeft met daarin veel nieuwe info over de nVidia NV20 GPU. Volgens de gegevens uit het artikel krijgt deze opvolger van de GeForce2 een 300MHz snelle core (0,15micron), 4 pipelines die elk 3 texture units per kloktik verwerken en een fillrate van 4,8GTexels. Voor het geheugen wordt gebruikt gemaakt van 500MHz DDR SDRAM dat voor een bandbreedte van 8GB moet zorgen. De geheugenbus is volgens deze info niet verbreed naar 256-bit, maar op 128-bit gebleven. De toename van 7,2GB bandbreedte van de GF2 Ultra naar 8GB voor de NV20 lijkt wat weinig, maar met behulp van technieken als HSR (Hidden Surface Removal) kan dit in de praktijk een heel ander beeld geven.

Volgens Media Xplosion zal de chip in januari 2001 op de markt moeten komen, maar of er nog steeds gebruik zal worden gemaakt van de GeForce naam blijft onduidelijk. Wel zal er weer diep in de buidel getast moeten worden, aangezien er uit wordt gegaan van een prijs van 1200DM. Samen met een hoog stroomverbuik (15W) zijn dit de twee grootse nadelen. Hieronder meer info & specs uit de preview (maak evt gebruik van een translator).

Das Kern-Feauture des NV20 ist die Vertex Shader, eine programmierbare T&L-Einheit. Mittels eines Vertex Shaders lassen sich auf jedem Eckpunkt der Spieleszene kleine Assembler-Programme ausführen. Dies ermöglicht spezielle Lichteffekte, Morphing-Funktionen und weitere Gimmiks. Spieleentwickler dürften an der neuen Flexibilität des Vertex Shaders im Gegensatz zu einer fest verdrahteten T&L-Einheit erfreut sein. Da der neue Co-Prozessor vollkommen kompatibel zu DX8 ist, wird der gesamte Chip auch einige neue 3D-Effekte, wie z.B. Curved Surfaces in Hardware (Unterstützung für Freiformflächen) und 3D-Texturen (sodass eine Textur sich auch in den Raum erstrecken kann, die Textur füllt ein Objekt aus) unterstützen.

Auch neue Pixel-Shading-Verfahren wurden voll auf DX 8.0 optimiert und erweitert, Cube Environment Mapping, graduell abgestufte Nebeleffekten und echten, reflektierenden Bump Maps sollen für eine nie dagewesene Darstellungsqualität von 3D-Objekten und Charaktere im Chip sorgen. Auch Vertex blending, Morphing, Skinning, Elevation Fog, Mesh Warping (nützlich für prozedurale Wellen), prozedurale Texturkoordinatenerzeugung (Reflexionstexturen) und die Realisierung beliebiger Beleuchtungstechniken gehören ebenfalls zu den neuen Features. Durch neue Bandbreitenreduktion HSR "Hidden Surface Remove-Technologie" ist es möglich, ähnlich wie beim Radeon-Chip von ATi, nur die sichtbaren Flächen zuberechnen um so wertvolle Datenübertragungen sparen zukönnen. So würde das Problem des "Bandbreiteflaschenhals" zum Speicher reduziert werden. Insgesamt soll die Geometrieeinheit des Chips ganze 1 Trillionen Operationen und die T&L-Einheit alleine 100 Gigaflops pro Sekunde durchführen können. Die Render-Pipelines des Chips sollen zudem programmierbar sein, interessant ist das auch DX8 dieses Feature unterstützt. Nun können Programme die Pipeline gestalten, denn bisher wurde die Architektur dieser Pipelines von den Entwickler vorgeben. So bieten sich viele neue Möglichkeiten einige Performance-Vorteile aus dem Chip herrauszuholen.

NVIDIA will vielleicht auch eine "Multisampling" - Funktion einsetzen, die eine bessere Anti-Aliasing-Performance, ähnlich wie bei der Voodoo5 5500, bringen soll. Wie bekannt ist, hatte 3dfx in ihre VSA100-Chips spezielle Effekte integriert, die Filmatmosphäre aufbringen sollten. Die "cinematographic effects will Nvidia jetzt auch mit dem Namen A-Buffer einsetzen.

NV20 tabel specs
Moderatie-faq Wijzig weergave

Reacties (45)

Bij 15W stroomverbruik zullen sommige moederbord-fabrikanten zich toch ook eens achter het oor moeten gaan krabben, zo'n beest voeden vanuit een AGP slotje is niet echt simpel meer, zeker omdat de 15W die hier aangegeven is alleen betrekking heeft op de GPU zelf, tel daarbij op het geheuge, analoge electronica, de uiteraard aanwezige fan et cetera.... En je hebt dus een stroomvretend monster in je slotje zitten!

Bijkomend probleem is natuurlijk de warmteontwikkeling: als er veel stroom ingestopt moet worden dan komt 'ie er ook weer als warmte uit, toch? Alweer meer warmte in je toch al te warme systeem! Misschien een goed idee om dat AGP slot maar eens wat verder van de CPU af te plaatsen, geeft wat meer mogelijkheden voor fatsoenlijke luchtcirculatie rond het mobo.
Dan kan het mischien zo zijn dat er mischien een Externe voeding geleverd moet worden. Zoals als de oude 486 DX4. Gewoon een aparte kabel naar 12V (voor de 486 5V). Dat zou het probleem kunnen oplossen.

Update: Het lijkt me wel vaag. Omdat het op de 0,15 micron techniek is gebaseerd waarom het nog zoveel energie nodig heeft???
De gewone GF2 core vret al 9 watt.Das op 200Mhz. Er komt dus 100Mhz bij. Ook komt er weer een texture unit bij, een snellere TnL engine enz. De chip wordt daardor aardig groot en dus warm. Daartegen over staat het 0.15µ TSML procede. Ik vindt dat ze het verbruik aardig binnen de perken weten te houden, want dit ding heeft meer transistoren dan de P4 en die vreet ongeveer 50 watt.

Gelukkig voor nVidia wordt AGP Pro steeds meer ingeburgerd, maar er gaan inderdaad weer probs komen met mensen die een AGP slot hebben wat weinig stroom levert.
Geen flame hoor,

maar die NV20 is gwoon net de P4 onder de gpu'tjes, :P

alleen haalt ie wel fatsoenlijke prestaties.
maarja 1200 dm neertellen voor een videokaartje, vind ik toch net te veel
De AGP Pro standaard ondersteund 50W via de AGP bus. In feite is 'n AGP Pro slot niks anders dan 'n normaal AGP slot met een verlenging die voor de voeding gebruikt wordt.
Misschien een goed idee om dat AGP slot maar eens wat verder van de CPU af te plaatsen, geeft wat meer mogelijkheden voor fatsoenlijke luchtcirculatie rond het mobo.
dit is niet zo'n goed idee als het lijkt,
als je dit doet duurt het nl ook langer voordat data bij de kaart is, waardoor de kaart dus weer trager wordt.
Volgens mij kunnen die Duitsers niet rekenen.
Geforce 2 Ultra: 4 pipelines met 2 textureunits * 250 Mhz= 2000 Mtexels
NV20: 4 pipelines met 3 textureunits * 300 Mhz= 3600 Mtexels, en geen 4800!
Nou ,ik hoop dat ze met iets echt revolutionairs komen , want tot nu toe ziet het er niet echt indrukwekkend uit op papier, ik denk dus dat er nog een aantal dingen verborgen zijn gehouden , want op papier lijkt het wel weer een doorontwikkelde Geforce Ultra , die gewoon snellere core/geheugen heeft en een nieuwe T&L unit , die voor de echte verbeteringen moet gaan zorgen , en HSR is ook niet zo bijzonder hoor , kan gewoon in drivers ,zie 3dfx.Als je een aantal dingen bekijkt ga je merken dat 3dfx Nvidia in de toekomst gaat inhalen:
1. HSR is bij 3dfx al geimplementeerd in de nieuwste (beta) drivers.
2. 3dfx heeft de Gigapixel techniek overgenomen , die een zeer grote besparing voor de geheugenbandbreedte gaat opleveren.
3. 3dfx heeft al veel ervaring met multi-GPU oplossingen voor het bandbreedte verhaal.
4. 3dfx heeft betere FSAA , wat ook zeer belangerijk gaat worden en zeker zeer bruikbaar zal zijn in combinatie met de bandbreedte besparing.

Het voordeel van Nvidia is dat ze al veel langer bezig zijn met T&L..

En die stroomconsumptie , ik weet nog dat iedereen het had over de stoomkachel van 3dfx en over de belachelijke prijs van de v5 6000 , nou die voordelen lijken dus ook te zijn verdwenen als je een Nvidia kaartje koopt.Nee , wordt een interessant jaartje op deze markt...........
je vergeet de texel shaders
nvidea vind dit zelf een nogal zeer heftige geweldige nieuwe feature cq revolutionaire techniek ;)
Geheugentechniek zal wel weer de bottleneck worden. 250 MHz DDR ram is nu schreewend duur en zal duur blijven zolang alleen Geforce dat spul nodig heeft (voor normale PC's is 133 MHz DDR al zat). Het lagere energieverbruik van DDR gaat met deze hoge kloksnelheid ook naar de maan.
Embedded memory (al was het maar 4 Mb) zou de prestaties verbeteren, evenals de genoemde 256bit-bus (maar dat maakt de print weer duur).

Dat HSR het geheugen efficienter zal laten lijken door bottle-neck-verplaatsing zal wel meevallen, aangezien Nvidia niet zoveel know-how heeft in die techniek. Voor goede HSR (van nVidia) zou ik wachten op NV25
Ik denk dat nVidea al aardig wat ervaring heeft opgedaan in HSR met de Detonator drivers. Ik kan me niet meer herineren vanaf welke release, maar de GeForce2 MX werdt ongeveer 25% sneller vanaf 'n bepaalde release. Ik denk dat alleen mogelijk is met 'n soort HSR in de drivers.
Nu maar hopen dat de handleiding niet in het Duits is ;)
Dat is niet zo'n probleem, die kun je vertalen.
Als erop staat "made in germany" ben je helemaal de klos!
Ik zou hem niet te veel power geven ander kun je beter een bomsquad bellen.
Is het trouwens niemand opgevallen dat in het artikel gesmeten worde met zogenaamde nieuwe technieken die allemaal 'gejat' zijn 3dfx ati en oudere kaartjes van nividea. de A-buffer (3dfx: T-buffer), Vertex blending, Morphing, Skinning, Elevation Fog (ATI) en Curved Surfaces (deze feature zat mijn mijn EDGE 3D al, maar is nooit in latere ontwerpen opgedoken omdat deze feature niet in rendermodel van toen paste (alleen polygonen). En de claim dat hun processor een 100(!!!) GigaFlop (!!) preformance moet leveren bij T&L vind ik een beetje overdereven ... Dan zou je met 10 van die cores een van 's werelds snelste super computers kunnen bouwen (1TeraFlop)
Was het niet zo dat de NV 20 minder stroom moest gaan gebruiken?
of dat ie wel eens minder geld mag gaan verbruiken
Uh, Atmosphere ik denk niet dat jouw EDGE 3D curved surfaces had (of het was een geavanceerd prototype) maar zgn Quads (net als de SEGA Saturn). Vooral interessant bij de NV20 is de hoge polygonen rate; ik hoor velen zeggen dat deze niet mogelijk zullen zijn omdat de geheugenbanbreedte te beperkend zal zijn. Klopt wel voor een deel, maar een 60m p/s moet mogelijk zijn omdat er heel wat caches aan boord zullen zijn. Trouwens heeft iemand ooit gemeten of de T&L performance afneemt (relatief) wanneer je omschakelt naar een hogere resolutie/ kleur diepte?
Ja die ondersteunde hij ook (het was geheel gebaseerd op de saturn) .. maar er werd echt (die Nvidea zelf aangegeven) curved surfaces ondersteund, echter heb ik het nooit gebruikt zien worden. Het grote probleem van deze functie was trouwens (heb ik verder niets over kunnen vinden maar heb het gehoord) dat het veel te traag was en dat er alleen maar elipsen en cirkel getekend kon worden.
De Edge 3D ondersteunde zeer zeker curved surfaces. Dit was namelijk zijn grootste marketing feature.


* 786562 Ralph
Ik ben bang dat nvidia nu ook monopolistisch gedrag aan het vertonen is. Die video kaart kan toch bijna niemand meer betalen! Bij Intel en AMD verlagen de prijzen van hun CPU's telkens weer. Voornamelijk als er een nieuwe uitkomt. Maar nvidia heeft geen concurentie meer (3dfx is geen concurent op dit moment) en hoeft dat dus niet te doen... Erg jammer hoor.
De concurentie zal zeer binnenkort wel weer toeslaan, nu 3dfx softwarematige HSR gaat toepassen in zijn drivers. Als je dat bericht van laatst had gelezen zijn de bentmarks van die nieuwe driver bijzonder, de voodoo5000 ging zelfs voorbij de geforce2 ultra. De Rampage spesificaties die uitgelekt zijn zagen er ook hoopvol uit.
Begin nu toch weer te twijfelen of ik begin februari aan een NV20 ga.
Monopolistische is gelul, ze brengen nu ipv 1 kaart er gewoon meerdere uit, waarvan de top-versies gewoon heel duur zijn (ferrari is toch ook duur, of niet?)
Ze zullen echt wel een weer een zwaar goed presterende budget versie op de markt brengen (de mx is toch ong. 400 piek, net zoveel als de voodoo 1 destijds dus).
Monopolist zijn ze absoluut niet, ze brengen gewoon de kaart uit die het meest gevraagd wordt door de markt, en ze hebben opereren bovendien in een redelijk open en competatieve markt.
Als nvidia niet innoveert worden ze zo weggeconcurrered door de rest (ati/nvidia), dat zou niet gekund als ze een monopolie zouden hebben (net zoals MS).
Toen op een gegeven moment 3dfx relaxed achter begon te leunen werden ze plots ingehaald door nvdia (net als bij amd/intel), waardoor wij nu vet goede videokaarten voor weinig geld hebben (de mx) en meer keuze in videokaarten(de ultra bijv).


* 786562 blouweKip
Als je naar het schema kijkt.
Dan zie je daar staan:

DirectX 8.0 opt.
MX: Nein.
GTS, Pro, Ultra: Nein.
Nv20: Ja.

Dan vraag ik me toch wel een beetje af waar die heren van Nvidia mee bezig zijn.
1600 piek neertellen voor de Ultra die niet eens van DirectX 8 gebruik kan maken vindt ik een beetje overdreven.
Tja, ze kunnen moeilijk een videokaart volledig compatible maken met een DirectX die nog niet bestond toen ze hem ontworpen he? De NV20 heeft toch ook geen ondersteuning voor de nieuwe features van DX9 |:(
Als er nauw samengewerkt wordt dan kun je met een beetje roadmap vergelijking er wel voor zorgen dat er verschillende dingen goed werken.

Ik denk dat nVidia een flinke vinger in de Directx pap heeft. Beetje triest vind ik het.
En trouwens, zo oud is de Geforce 2 Ultra nog niet eens. En DirectX 8 beta versies waren er al een hele tijd.
opt zal wel "optimized" betekenen he...
dat sluit niets uit in principe :)
Iedereen die 1600 voor een ultra betaald is zowiezow gek...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True