Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: Reactor Critical

Reactor Critical heeft een vier pagina's lang artikel geschreven over de NV20, de opvolger van de GeForce2 Ultra, die begin volgend jaar moet verschijnen. Het artikel is deels gebaseerd op geruchten en gelekte informatie van Comdex, deels op logisch nadenken en ook een beetje op de verbeeldingskracht van de schrijver . Omdat bijna 65% van de brute kracht van de GeForce2 verloren gaat door gebrek aan bandbreedte en er voorlopig geen alternatief is verwacht hij in ieder geval HSR op de GeForce3:

The whole matter is that the traditional accelerator architecture has a very substantial flaw in producing an effect known as overdraw. When an accelerator processes pixels which never show on the screen (such as a section of a wall obscured by an an object in front of it) the whole wall is nonetheless mapped. As a result, the accelerator and RAM chug along at merely 20-30 per cent of their potential capacity because of the wasted effort. NV20 will be free of this defect, and only by virtue of the released power its performance will double or even quadruple. The actual gain will vary from one application to another.[break]Natuurlijk zal de performance van de nieuwe videokaart niet alleen afhangen van HSR, maar zorgt nVidia ook voor 250/300MHz DDR RAM. Ook budget versies met 166/200MHz RAM worden genoemd. Op T&L gebied staat al bijna vast dat NV20 een enorme doorbraak is, aangezien vrijwel dezelfde chip (NV2A) in de X-Box komt te zitten waarvan de specs al bekend zijn. De 300MHz chip zal namelijk naast 1,2 gigapixels/4,8 gigatexels ook 150.000.000 polygonen per seconde kunnen uitspugen. De allersnelste kaarten van nu halen met moeite een vijfde van dat getal. Maar de nieuwe T&L pipeline heeft nog een voordeel boven zijn voorgangers:[/break]Presumably, the T&L unit is going to be programmable, i.e., game developers are no longer confined to following the dictates of the accelerator hardware and can instead fine-tune it for their own needs.

So far we do not know how many light sources the new GPU will be able to process and whether there will be a severe performance hit if the number of light sources defined is increased. My take on this is that we can expect 32-64 sources per scene. That's quite a lot really, given that all T&L-equipped accelerators to date maintain no more than eight light sources, and the performance with these six to eight sources leaves much to be desired.[break]Natuurlijk moeten we ons niet gek laten maken door alleen maar cijfertjes. In een tijd waarin veel mensen zich afvragen waarom er nog extra snelheid nodig is moet er ook iets aan de featureset gebeuren. Naast het verder ontwikkelen van de pixel shaders kunnen we het volgende verwachten:[/break]Another all-important function well worth mentioning is 3D textures which give one such neat effects as breakable walls and objects which can be smashed into smithereens, and much more. Generally, one will be able not only to specify the surface texture of an object but also that of the entire interior. It will possibly become the major feature of the next generation of accelerators. It is clear that voracious 3D textures guzzle up far more memory than ordinary ones. That is why nVidia has already come up with a method to compress these textures.

Ze sluiten zelfs niet uit dat er een soort T-Buffer of FXT1 support in de NV20 komt. Verder dromen ze nog even over features als EMBM, voxel accelleration en skeletal animation. Hoeveel van dit artikel waar is zullen we over niet al te lange tijd weten, maar het is in ieder geval interessant om te lezen . Bekijk zelf de rest van de geruchten hier.

Moderatie-faq Wijzig weergave

Reacties (26)

De NV20 zal waarscheinlijk niet zo duur worden als de de GeForce2 ultra . De reden is dat ze niet zo,n snel geheugen nodig hebben als de ultra om het bandbreedte probleem op te lossen, omdat ze HSR (zo als vele denken) gaan gebruiken.
HSR is niet zo effektief als men graag wil geloven. PowerVR is de eerste die hiermee gestart is. Men doet een soort van Z-check en vergelijkt de waarden die over de verschillende pipelines binnenkomt. Aan de hand van deze waarden wordt dan beoordeeld of deze pixel zichtbaar is of niet. Lijkt theoretisch een geweldige oplossing, echter er zit een groot probleem aanvast. Software moet geoptimalisseerd zijn voor HSR toepassing. Meestal komt de data een beetje random binnen en wordt er niet altijd van achter naar voren opgebouwd.
Dit resulteerd in een zeer varieerend resultaat en incompatibiliteit voor diverse spellen.
Ik denk dat er teveel naar de X-box is gekeken. Voor de X-box is HSR een heel ander verhaal, omdat daar de software nog gemaakt moet worden en alleen nV daar de hardware voor heeft. En dan is HSR een hele mooie oplossing. Echter op het PC platform zie ik het zwaar in voor nVidia.
Dan vergeet jij dat binnenkort bijna alle spellen die voor het PC platform gemaakt worden X-box compatible gemaakt zullen worden, en dus volop zullen profiteren van de functies van de GeForce, wellicht dat er een speciale app komt la Glide, ik hoop het alleen niet want dat zou betekenen dat nVidia een bijna-monopolie krijgt.....
Binnenkort ????????
Die X-box duurt nog wel even voordat ie op de markt komt. Dan is de NV20 allang weer verschroot.

Heb dat trouwens nog nooit gehoord en ik betwijfel het ten zeerste of dat waar is.
ik ben het wle met slashhead eens, maar niet helemaal. We zien nu al dat de kyro in bepaalde games veel hogere framerates neerzet dan de GTS. Dit gebeurt niet in Q3 omdat dat spel al zo geoptimaliseerd is, dat er weinig weg te halen valt.
HSR technieken hebben in iedergeval de toekomst en niet iedereen grade elke 6mnd ze videokaart up. Vergeet niet dat deze kaartje goedkoper kunnen zijn dan de huidige generatie omdat nvidia overschakeld naar het nieuwe TSML 0.15 systeem wat weer kleinere en beter yieldende chips oplevert, plus dat DDR steeds meer mainsteam wordt.
ThaVinny,
HSR is iets heel anders dan Tile-based rendering.
Deze twee doen wel hetzelfde maar verschillen enorm van techniek.
Tilebased rendering is veel moeilijker maar ook effectiever.
PowerVR doet in weze geen echte Z-check. De PowerVR werkt met 'n display-list. Wat wil dit zeggen? Eigenlijk heel simple. Op het moment dat de grafische applicatie zegt, laat nou de 3D scene maar zien (de 'copy' van de frame-buffer naar de display-buffer), wordt pas gerenderd. Hierdoor kun je niet-zichtbare polygonen overslaan omdat je weet uit hoeveel en welke polygonen de scene bestaat. Een ander bijkomend voordeel is dat je geen z-buffer meer nodig hebt!

De GeForce renderd elk polygone dat naar hem toe wordt gestuurd direct naar de frame-buffer. De ATI Radeon werkt volgens dezelfde techniek. Normaal gesproken wordt 'n compleet polygone gerenderd door de GeForce, dan wordt de z-check uitgevoerd en dan worden de zichtbare pixels naar het geheugen gestuurd. Door de z-check voor het renderen uit te voeren (zoals de ATI-Radeon doet) en door de z-buffer on-chip te brengen, kan efficienter gebruik worden gemaakt van de render-pipeline en (most important) hoeven textures niet uit het geheugen te worden gelezen! Hierdoor wordt geheugen bandbreedte bespaard en zou alles 'n stukje sneller moeten gaan.

Voor HSR of display-list-rendering is helemaal geen apparte interface nodig. Het is echter wel zo dat 'n driver het een en ander kan verbeteren (versnellen).
\[wild-guest]Zo kun je 'n soort HSR in de driver uitvoeren door 'n display-list op te bouwen en niet alles te laten renderen. Dit zou de performance verbetering die we 'n aantal maanden geleden hebben gezien met de Detonator drivers en de GeForce 2 MX kunnen verklaren.\[/wild-guest]
Die geoptimaliseerde software die jij zou willen zien (Glide achtig tooltje) heet DirectX, nVidia werkt samen met Microsoft en ik denk dat dit zeer sterk te merken zal zijn in DirectX, hier blijkt ook maar weer dat hun samenwerking veel ernstiger kan uitpakken dan verwacht, nVidia zal altijd beter blijfen presteren als ze mee kunnen praten met de DirectX boyz.
guote:
---------------------------
In een tijd waarin veel mensen zich afvragen waarom er nog extra snelheid nodig is moet er ook iets aan de featureset gebeuren.
-----------------------------------
We zitten nog mijlenver van fotorealistische rendering af, dus meer snelheid is absoluut noodzakelijk, veel meer snelheid ;)
ja maar je hebt meer aan fssa dan aan 150 fps, om fotorealistische kwaliteit te bereiken!!
Tja dit klinkt misschien een beetje raar, maar waarom komt een preview die niet gebaseert is op feiten maar op geruchten en geschreven door een fansite (reactor critical is toch een nvidia fansite? Ikzelf kan het niet controleren omdat ie het niet doet bij mij :() niet echt bepaald "geloofwaardig" over?

Want het is niet bekend hoe goed die hsr funktie wordt (het kan zijn zoals de "fsaa support voor de geforce", onbruikbaar en slechter dan de competitie en dus LANG niet zo goed als wordt beweerd (want hij gebruikt getallen van de KYRO en die had meer brandbreedte besparende dingen dan alleen maar tiledbased renderen), of het is wel goed..


Ikzelf kan nu niet echt ingaan over het artikel zelf (aangezien ik niet op reactorcritical kan komen)
"65% van de brute kracht van de GeForce2 verloren gaat door gebrek aan bandbreedte"

"the accelerator and RAM chug along at merely 20-30 per cent of their potential capacity because of the wasted effort. "

ken je nagaan hoeveel er nog bespaart moet worden aan bandbreedte. stel dat hsl gaat tegenvallen, dan kan je misschien nog wel 50% verlies krijgen door bandbreedte. dat is gigantisch. als 3dfx nu eens een goede chipset maakt, maken ze ze af. voor het eerst sinds de geforce heb ik weer vertrouwen in 3dfx. vooral met hun meerdere chipies EN gigapixel hebben zij een behoorlijk voordeel kwa bandbreedte. dat moeten ze benutten. ook, zoals in het artikel vermeld, hebben zijn natuurlijk al goede fssa technieken. het gaat nu gewoon niet meer om de snelheid, maar om de beeld kwaliteit.

ik denk dat 3dfx gewoon te vroeg was met hun fssa. het was net een jaar te vroeg ofzo, de power was nog niet echt aanwezig. nu de power WEL aanwezig is (alleen aanwezig bij de concurrent, power moeten zij ook nog eens een beetje bewijzen) moeten ze als de wiedeweerga ff een goed chipe maken.

ik zag het eerst niet zo goed in voor 3dfx, maar als het mee zit kan ik mijn voodoo 3 kaartje toch nog vervangen door een echt gouwe oude 3dfx kaart!! :)

(ps he mods, klasse werk, meteen die domme reactie van mij wegwerken, toppie)
voor diegene die het niet weten HSR = hidden surface removal
trefwoorden:
Snel :9
Duur :(

toch denk ik dat er weer een hoop mensen zijn die na de eerste dag dat ie uit is aankomen rennen met een bult geld, net als destijds met de GTS en als met de Ultra zal gebeuren/gebeurt.

maar hey, met ZULKE specs ;)
Ik vind het een beetje onzin om weer te gaan zeuren over hoe duur dit ding gaat worden, want dat wordt in elke newspost over videokaarten gedaan..

Er wordt hier een lijstje met mogelijke features gepresenteerd dat ons allemaal laat kwijlen :9 Laten we hopen dat NVidia hier ook werkelijk een monsterlijke kaart van weet te bakken (waar ik overigens van overtuigd ben :)).. De prijzen dalen op den duur toch wel :)
Er komt waarschijnlijk ook een budget versie net als de mx versie van de geforce2gts en die was ook niet zo duur. Ik had hem voor 356.10. Dus dat komt wel goed. Ik geloof best dat dit gaat komen, maar het is vooral van belang wanneer dit gaat komen. Is het weer in 6 maanden dan.... WOW
budget versie van NV20 = NV17
die core zal later ook gebruikt worden op de 2e revisie van de northbridge van de Crush chipset.
Dat bedrag zul je in EURO's op moeten hoesten :(
leuke specs ja.. maar het zal aan mij liggen denk ik maareh...: HSR ? hoge snelheids reactor?
"t komt voor NVidia dus niet zo slecht uit dat de anderen er mee ophouden. Tenminste ik neem aan dat deze ontwikkeling bakken met geld kost. Of zouden de concurrenten het feit dat Nvidia de mega-investor Microsoft achter zich heeft, hebben aangegrepen om maar es om te kijken naar een andere produktgroep ??

Edit: Hier stond dus Sony ipv MS...Thanks Shevar !
No offence, maar dit is bs....


Wat heeft sony te maken met nvidia? Wat jij denk ik bedoel is m$ die veel geld heeft gegeven aan nvidia voor de ontwikkeling van de xbox chip. En als jij denkt dat de "rest" is uitgespeeld dan denk ik dat jij je nog wel eens zou kunnen vergissen.

Want als het goed is heeft 3dfx nog gigapixel tech in zijn achterzak zitten, videologic heeft veruit de meeste ervaring in tiling en andere bandbreedte besparende methoden.

En aan wat voor een andere "produktgroep" zat jij te denken? Wasmachines?
Ok, ik ben het artikel door gekomen. Ik moest wel m'n lach inhouden hoor. Je kunt wel erg goed lezen dat het een Nvidia fan-site is, wat een hoop 'ja stop dit er ook maar in' features.

A-Buffer?? Lijkt me niet. NVidia gebruikte tot nu toe supersampling voor FSAA, waarom nu ineens anders?

3D textures? hahaha. Leuk idee, maar ze hebben al bandbreedte tekort en dan komen ze met 3D textures? no way, of onbruikbaar langzaam. Oh, ze gaan het comprimeren? Wordt dat door DirectX8 ondersteund dan?

FXT1 texture compressie van 3DFX kopen, geen weg!

32-64 lightsources? Wie heeft dat nu nodig, overkill => not likely. Het hele lighting gedeelte van de T&L unit wordt al zoweinig gebruikt, het lijkt me onzinnig van NVidia om daar effort in te stoppen.

100 Mio polygonen? Da's 4-5 keer zoveel als de NV10, met maar 50% clockspeed toename. Lijkt me niet mogelijk.

Dus wat blijft erover: HSR, dat is inderdaad iets wat mij lijkt dat NVidia nodig heeft. De T&L unit zal sneller zijn.

Ik denk dat men teveel naar de specs heeft gekeken van de X-box en dan maar aangenomen dat de NV20 de graphicschip voor die gameconsole is. Mij lijkt dat er nog wel een generatie tussen zal zitten. Immers, de NV20 zou in de eerste helft van 2001 moeten uitkomen, terwijl de X-box pas in het najaar komt.


* 786562 zonoskar
Supersampling staat niet bekend als de beste en meest efficiente methode om FSAA te doen, vervanging is daarom waarschijnlijk, hoewel niet per se de volgende generatie al.

3D textures gaan we zeker zien in de toekomst, als je goed gelezen had is er op dit moment al 3D texture compression.

FXT1 is open source en gratis

Overkill ben ik met je eens, maar als je het kan inbouwen (het is ws. maar een driver-trucje) waarom zou je het niet doen?

Het belachelijke aantal polygonen zit ws. voor een groot percentage in een particalsysteem (non-textured, non-lit, non-transformed poly's als regendruppels en vonken).

NV20 is inderdaad niet de graphics chip van de X-Box. De X-Box chip heb ik al aangeduidt zien worden als NV25 en NV2A, iig een aangepaste NV20, omdat de specs van X-Box en de geruchten over NV20 gelijk zijn. Bovendien wacht Microsoft niet op een volgende generatie chip van nVdia omdat ze dan 2 weken voor de lancering alle spellen, hardware en drivers moeten gaan optimalizeren en daarna nog moeten beginnen met de productie van de X-Box zelf.
Shevar, ik bedoelde o.a. deze nieuwspostings over [url=10560.tweakers.net/nieuws.dsp?ID=14440]3DFX

en deze over [url= 10560.tweakers.net/nieuws.dsp?ID=14058]S3

S3 gaat zich meer toeleggen op de Rio en minder op de graphics
Vooruit gaan moeten we altijd (anders ben je dood) dus ook met de Vid kaartjes. De preview van Reactor is natuurlijk leuk maar het is id alleen maar gebasseerd op geruchten, we moeten gewoon geduld hebben (ik weet het, geduld hebben is moeilijk als Tweaker zijnde :)).

n ding kunnen we wel alvast zeggen de NV20 gaat een bruut chippie worden maar zal naar mijn mening niet voor aardverschuivingen gaan zorgen. Zoals al eerder aan gegeven zal ook bij de NV20 het geheugen de grootste bottleneck zijn. HSR lost dat nooit helemaal op maar is slechts een begin, persoonlijk denk ik dat we meer moeten gaan denken aan een combi van embedded ram in de chips (wat is er met Bitboys gebeurd??), HSR en grotere busses (512bit??). Dit alles zal nog jaren gaan duren, embedded ram kan nu nog slechts in kleine hoeveelheden in de chips worden gebakken om het kosten plaatje in orde te houden.

Tevens wil ik een ding kwijt: Toystory on a chip (quote van Nvidia over NV20) komt nog lang niet, hoe krachtig de NV20 dan wel niet mag worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True