Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties
Bron: The Inquirer, submitter: XWB

In tegenstelling tot wat nVidia zelf beweert, komt de geruchtenmachine van The Inquirer met het nieuws dat de GeForce FX vier rendering pipelines heeft, in plaats van acht. De eerste twijfels zagen het licht toen nVidia aangaf weinig vertrouwen te hebben in de benchmarkwaarde van Futuremark's 3DMark03. 3DMark03 maakt namelijk gebruik van single texturing om de benchmarks op het beeld te toveren. Volgens een technisch marketing manager van nVidia heeft de GeForce FX vier pipelines en twee texture memory units, wat resulteert in acht textures per klokcyclus bij multitexturing. Nu blijkt echter dat deze acht textures per klokcyclus alleen in bepaalde gevallen gehaald kunnen worden:

"GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations"

and

"Only color+Z rendering is done at 4 pixels per clock"

nVidia GeForce FX logoDit wekte de interesse van The Inquirer op, waarna aan een aantal ontwikkelaars gevraagd werd hoe dit zat. Wat blijkt? Bijna alle moderne spellen maken gebruik van Color+Z-rendering. Dit betekent natuurlijk dat de GeForce FX in de meeste moderne spellen 'slechts' vier textures per klokcyclus kan halen, wat de 4x2-architectuur van de FX half zo krachtig maakt als de 8x1-architectuur van ATi's Radeon 9700 Pro.

Bij nader onderzoek bleek dat veel spellen, zoals bijvoorbeeld Unreal Tournament 2003, gebruik maken van zowel single- als multitexturing. Wanneer je geen multitexturing nodig hebt om een scene te renderen, wordt gebruik gemaakt van single texturing om de bandbreedte optimaal te benutten. Je wilt namelijk niet je bandbreedte verspillen simpelweg om een videokaartenproducent tevreden te houden . Magee en trawanten verzekeren ons dat ze hun onderzoek door zullen zetten, en hopelijk volgt er snel meer nieuws betreffende nVidia's nieuwste toverkaart.

Zie voor meer informatie ook het forum van Beyond3D, waar dit onderzoek oorspronkelijk begon.

Moderatie-faq Wijzig weergave

Reacties (28)

Ook handig om even te vermelden is dat The Inquirer dit niet van zichzelf heeft, maar van Beyond3D. Op het Beyond3D-forum is al bijna 2 weken een onderzoek gaande over de 4x2 dan wel 8x1 architectuur van de FX.

Hier kun je 'm vinden:
http://www.beyond3d.com/forum/viewtopic.php?t=4252

Lees het eens door, want daar staan zo'n beetje alle argumenten genoemd. Tevens hebben ze bij B3D net een GFFX gekregen van nVidia om te reviewen, en de eerste tests wijzen uit dat het inderdaad een 4x2 architectuur is.

Op Beyond3D zijn ze een beetje pissig op The Inq omdat ze hun onderzoek nog niet hadden afgerond en The Inq nu doet alsof zij degenen zijn die het ontdekt hebben.

nVidia heeft overigens nooit echt officieel verklaard dat ze een 8x1 architectuur hebben. Op de site staat alleen dat ze "8 pixels per clock" ondersteunen. De meeste reviewsites gingen toen uit van 8x1, omdat de 9700 dit ook had.

Edit: [offtopic]Geweldige moderatie hier weer op Tweakers. -1: Flamebait? :? Valt me wel vaker op dat normale posts met een -1: Troll of -1: Flamebait worden beoordeeld.
Rustig maar hoor, je staat alweer op +4 ;)
Maar als bijna alle moderne spellen Color+Z-rendering gebruiken, en de FX dán wel maar 4px/clock doet, dan is dat natuurlijk niet echt handig...
Ik zou bijna denken verkoop onder valse voorwendselen... Alhoewel NVidia inderdaad nooit gezegd heeft dat het 8x1 was.
Precies, het wekt valse verwachtingen.
Check dit van tech report:
GeForce FX is 4 pipes by 2 texture units?
by Scott "Damage" Wasson - 05:42 pm, February 21, 2003

After seeing this report at The Inquirer, we asked NVIDIA for clarification: Does the GeForce FX have four rendering pipes with two texture units each or eight with one each, as the world was led to believe? Here's the answer we received from NVIDIA:
GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations


For advanced applications (such as Doom3) *most* of the time is spent in these modes because of the advanced shadowing techniques that use shadow buffers, stencil testing and next-generation shaders that are longer and therefore make the apps "shading-bound" rather than "color fill-rate" bound.
Only color+Z rendering is done at 4 pixels per clock, all other modes (z, stencil, texture, shading) run at 8 pixels per clock.

The more advanced the application, the less percentage of total rendering is color, because more time is spent texturing, shading and doing advanced shadowing/lighting.

We will unpack this statement for you shortly, but it appears Fraud at The Inq got this one right.
Soms is het dus 8x1, in de moderne games dus 4x2...
Wat is dit voor bullshit? Als je acht pipelines met ieder één TMU hebt (nVidia specs) is het logisch dat je alleen acht pixels per clock haalt als ze maar één texture gebruiken. Zodra een pixel meerdere textures nodig heeft zullen vier van de pixelpipes ingezet worden als TMU om dit in één keer voor elkaar te krijgen, maar dan kan hij inderdaad nog maar vier pixels tegelijk verwerken.

Dit is een "truc" die al vele jaren door nVidia en ATi wordt toegepast. Natuurlijk zou het leuker zijn als de GeForce FX ook acht multitextured pixels per clock kon doen, maar dat is natuurlijk een duh-conclusie, want meer pixels is voor een videokaart vrijwel altijd beter. Het is complete onzin om te zeggen dat een chip maar vier pipelines heeft omdat hij maar vier multitextured pixels per clock kan uitspugen. Ja, effectief worden er tijdens moderne games misschien maar vier gebruikt, maar een beetje gaan roepen dat de andere vier daarom niet bestaan is weer typisch The Inquirer, ze noemen nota bene zelf vier gevallen waarin wel acht pixels tegelijk worden verwerkt.

Bij nVidia is het gewoon 8x1, 4x2, 2x4 of 1x8, en bij Radeon 9700 is het 8x2, 4x4, 2x8 of 1x16 (pixels per clock x aantal textures per pixel). Dus heeft de Radeon een voordeel? Ja! Heeft nVidia gelogen? Nee!
Volgens mij is het juist zo dat Nvidia 4 pixelpipelines heeft met elk 2 TMUs, terwijl Ati 8 pixelpipelines heeft met elk 1 TMU. Nvidia kan dus niet in 8x1 mode werken, maar Ati wel.
Lees nou eens zelf wat je zegt.
Nvidia kan dus niet in 8x1 mode werken,
Versus:
GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations
Het lijkt me dus duidelijk dat GeForce FX wel degelijk 8 pixels per clock kan verwerken, daar is gewoon geen speld tussen te krijgen. De conclusie van The Inquirer is zo fout als het maar zijn kan.
Maar net daarboven staat:
Nu blijkt echter dat deze acht textures per klokcyclus alleen in bepaalde gevallen gehaald kunnen worden:
Het is niet echt duidelijk dus.
Dit zie je dus fout volgens mij.

8x1 is dus heel iets anders als 4x2. 4x2 kan net zo snel zijn als er MEERDERE textures gebruikt worden. Echter zoals al vaker de laatste tijd gezegd wordt is een 8x1 architectuur in de nieuwere spellen veel effectiever als een 4x2 architectuur vanwege de pixelshaders.

Door deze architectuur wordt het ook duidelijk WAAROM nvidia 2x zo langzaam is in tests die pixelshaders gebruiken.

Er is dus zekers te weten een groot verschil tussen 2x4, 4x2 en 8x1.

En trouwens een Radeon9700 is gewoon 8x1 en niet 8x2

[edit]
Aanvulling

[quote]
Als je acht pipelines met ieder één TMU hebt (nVidia specs) is het logisch dat je alleen acht pixels per clock haalt als ze maar één texture gebruiken.
[/quote]

Het leuke is dit staat dus niet in de specs van de GFX, daar staat 8 pixels per clock. Nergens heeft er gestaan dat het een 8x1 architectuur is. Een hele hoop sites hebben dit geschreven. HardOcp heeft als enigste de correcte specs opgeschreven.
Zoveel negatieve publiciteiten zullen Nvidia niet goed doen. Nu moeten ze gewoon die FX vergeten en zo snel mogelijk betere versie uitbrengen.
Tjsa, dit verandert niets aan de performance van de GeForce FX.
Als ik de uitleg van nVidia goed begrijp is het net bij oude spelletjes dat de GF-FX slechter werkt dan de Radeon 9700pro...

Color+Z rendering is het gewone renderen van vaste voorwerpen, waarbij een kleur/texture op het scherm gezet wordt en de dieptebuffer geüpdatet wordt.
Stencil rendering en dergelijke worden gebruikt voor effecten die gebruik maken van niet solide voorwerpen, zoals bijvoorbeeld de vermelde stencil beschaduwing of ook diepte-maps voor schaduwen.

Ik vind dit een goeie zet van nVidia, omdat bij moderne 3D engines de effecten meestal fill-rate limited zijn (dwz dat de snelheid gelimiteerd is door hoe snel de kaart pixels kan tekenen), omdat ze veel herhaaldelijk renderen, maar meestal wel maar in een 'halve' modus (zoals enkel stencil, enkel z, shaders, etc) en dus niet meer het grootste gedeelte in Color+Z.

Dan denk ik bv aan Doom 3, Splinter Cell, het opkomende Deus Ex 2 (en Thief 3), ... die veel doen met belichting en post-processing effecten (denk aan Splinter Cell's nachtkijker en thermisch zicht).
Het enige spijtige vind ik dat ze niet ATI's cijfers hebben gevolgd en voor deze halve modi dan 16x1 geimplementeerd hebben. Dan zou nVidia's kaart sneller zijn op de nieuwste games hoewel ze 'dezelfde' specs zou hebben als ATI. Beter marketing materiaal bestaat niet!
Een technisch Marketing Manager?

Wat ben je dan technisch onderlegd of marketing technisch onderlegd? :?

/toelichting/
hoe doe je dat, is het niet of technisch of marketing?
/toelichting/
Een technisch marketing manager kun je, denk ik, je voorstellen als een techneut die nu de externe relaties inlicht over de techninsche kant van de zaak. Aangezien in de tweakers-business veel mensen een redelijk verstand hebben van de technische kant van de zaak is het in bijv. persconferenties natuurlijk handig een techneut die kan babbelen bij de hand te hebben.
Best mogelijk, maar het zou iemand moeten zijn die juist gekoesterd wordt. Een techneut die de dingen goed uit kan leggen in begrijpelijke (en dus correcte) taal is erg waardevol. Tweakers.net illustreert dit fraai. Velen weten technisch van wanten, maar drukken zich vaak zo allerbelabberdst uit dat je er geen touw aan vast kunt knopen. Het niveau Nederlands ontstijgt soms dat van groep 8 basischool niet.

Dat een zuivere marketing benadering ook niet werkt kun je zien door naar een willekeurige witgoedwinkel te gaan en daar een technische vraag te stellen.
Een technisch marketing manager is vermoedelijk een techneut die op technisch vlak volledig gefaald heeft en nog een allerlaatste laatste kans krijgt op de marketing afdeling alvorens op straat gekickt te worden.
Zo gaan die dingen
:+
het moet nou toch niet gekker worden met nvidia en de geforce fx, het begint langzamer hand op een soap te lijken, de ene blunder naar de andere blunder, de ene leugen naar de andere leugen, wie nouu nog beweert dat nvidia geen steken heeft laten vallen, nou dan weet ik het ook niet meer, maar wat mij echt zwaar tegenvalt van nvidia, dat ze de consument zo voor de gek houden, en dan bedoel ik mensen die niet zo zijn als ons(tweakers), want de mensen die er niet zo veel van af weten, die trappen met open ogen in de marketing truc van nvidia, schandalig.
nVidia heeft helemaal niemand voor de gek gehouden. Omdat jullie uit de door nVidia verstrekte gegevens verkeerde conclusies trekken zijn hun in ineens leugenaars....
lees dit eens: http://www.nvidia.com/docs/lo/2430/SUPP/PO_GeForceFX_1102.pdf

nVidia heeft gekozen voor efficient gebruik van de silicium. 8 pipelines is alleen gunstig als je grote polygonen hebt. Dit in combinatie met een hoge reso maakt het nog gunstiger.
Toch zit de meeste vertraging, in games, niet op die plek waar veel pixel pipelines gunstig zijn. Daarom is dit niet direct een nadeel en eerder een soort van compromis.
Een halvering van het aantal pipelines heeft als gevolg dat de pixelshader ook vele malen langzamer zijn.

En de marketing van Nvidia is helemaal gericht op die pixelshader en dat dit de toekomst is. En dus maken ze maar een kaart die de helft van de snelheid heeft wanneer die pixel shader gebruikt worden.

Ik denk dat dit wel degelijk een nadeel is, zeker in toekomstige spellen.
Er moet wel de mogelijkheid zijn om alle pipes te vullen... En die is er (meestal) niet, daarom heeft nV gekozen voor dit compromis.
Jouw argument klopt niet. De pixelshader stuurt de texture layers en de fillrate bepaald de snelheid niet het aantal pipelines.
nVidia heeft gekozen voor optimalisatie voor 2x FP16 instructies. Niet voor niets zegt Carmack dat wanneer je programmeert volgens het NV30 concept dat ie gelijk danwel sneller is voor de pixelshader dan de R9700pro. Vergeet niet dat de clock 500MHz is.... i.p.v. 325 voor de R300.
Ik ben benieuwd of ze dit veranderen naar 8 echte rendering pipelines bij de NV35. Misschien kan dat een stuk bijdragen aan de performance...
Op de site staat alleen dat ze "8 pixels per clock" ondersteunen.
maw een domme marketing stunt die hen duur zal komen te staan
De quote komt trouwens uit een statement van nVidia. Hier is het volledige statement die ze naar verschillende websites hebben gestuurd:
GeForce FX 5800 and 5800 Ultra run at 8 pixels per clock for all of the following:
a) z-rendering
b) stencil operations
c) texture operations
d) shader operations


For advanced applications (such as Doom3) *most* of the time is spent in these modes because of the advanced shadowing techniques that use shadow buffers, stencil testing and next-generation shaders that are longer and therefore make the apps "shading-bound" rather than "color fill-rate" bound.
Only color+Z rendering is done at 4 pixels per clock, all other modes (z, stencil, texture, shading) run at 8 pixels per clock.

The more advanced the application, the less percentage of total rendering is color, because more time is spent texturing, shading and doing advanced shadowing/lighting.
Bron: http://tech-report.com/news_reply.x/4782/

Conclusie: soms werkt de FX als een 8x1 soms niet....

In principe moet je bij de FX dus niet meer denken in termen als 8*1 of 4*2 of 2*3 of 4*4. Dit zal waarschijnlijk helemaal worden doorgetrokken in NV35 en NV40. Er gaan hardnekkige geruchten dat ATi voor R400 ook zal afstappen van het bekende Pipes*TMU concept.
De vraag is natuurlijk of het wel relevant is om bij single-texturing 8 pixels per kloktik te verwerken.
Ik bedoel hoe snel kun je iets waarnemen? Meer dan 30FPS is goed genoeg voor iedereen! |:(

Het had veel erger geweest als het andersom was :z

(4pix.p/tik bij Multitext. en 8 pix.p/tik bij Singletext.)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True