Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: The Inquirer

We lezen bij The Inquirer dat de R580-core van ATi's X1900-kaarten, die begin volgend jaar op de markt komen, over niet minder dan 48 pixel shaders zou beschikken, die door 16 pipelines gevoed worden. Deze pipelines leveren de data van de 16 texture units richting de de pixel shaders. De verhouding tussen shaders en pipelines is daarmee 3:1, een verhouding die ATi al meer toepast. In de R530-core wordt de data bijvoorbeeld ook door drie keer zo veel pixel shaders verwerkt als er pipelines zijn om de gegevens aan te leveren.

Concurrent nVidia levert cores met een verhouding tussen pipelines en shaders van 3:2. De G70, bekend van kaarten als de GeForce 7800 GTX, kan zestien shaderoperaties uitvoeren op de data die door 24 pipelines wordt aangeleverd. Het artikel van The Inquirer oppert het idee dat nVidia met de komende G71-gpu wel meer pipelines beschikbaar wil maken, maar dat de verhouding hetzelfde blijft. Bij het gebruik van 24 pipelines zou dat dus 36 shaders opleveren. Volgens The Inquirer zou het niet de eerste keer zijn dat nVidia druk op game-ontwikkelaars uitoefent om voor zijn platform te optimaliseren. Enigszins afhankelijk van bijvoorbeeld het succes van de 'The Way It's Meant To Be Played'-campagne zou ATi daarom wel eens gedwongen kunnen worden om ook meer pipelines per shader te gaan bakken, speculeert de site.

Pixel shaders aan het werk: links zonder, rechts mét
Links vóór toepassing pixel shaders, rechts erna
Moderatie-faq Wijzig weergave

Reacties (59)

> zestien shaderoperaties uitvoeren op de data die door 24 pipelines wordt aangeleverd [...]
> Bij het gebruik van 24 pipelines zou dat dus 36 shaders opleveren.

Euh??? Dat lijkt me niet helemaal te kloppen !?! Dat eerste is toch 2:3 en niet 3:2 !?!


[Edit] Ah, het tweaker artikel is niet helemaal duidelijk. Inquirer is duidelijker:

RV530: 12 shaders (of pipelines) en 4 texture memory units. Dat is 3:1.
R520: 16 pixel shaders/pipelines en 16 texture memory units. Da's dus 1:1
G70: 24 pipelines/pixel shaders en kan 16 textures verwerken. Dat is 3:2.
Het gaat dus blijkbaar niet om de verhouding tussen shaders en pipelines, zoals het Tweakers artikel zegt, maar de verhouding tussen shaders/pipelines en texture units.

\[Edit2:] ah, bovenstaande reactie van Cheetah verduidelijkt het beter. Thnx, Cheetah!
16 pixelpijpen lijkt me nogal weinig :? Hoe hoog willen ze die kloksnelheid opschroeven om een 7800GTX 512Mb te ownen?


Shaders geven idd mooie effecten, maar daat heb je nix aan als je de textrues niet goed weergeven kan....
16 pixelpijpen lijkt me nogal weinig
De pipelines van de nieuwe ATi architectuur zijn geen "klassieke" pipelines. Bij de 9x00, X8xx en X1800 serie is er per pipeline 1 Texture unit (TMU) en 1 pixelprocessor. Bij de R580 is er per pipeline 1 TMU en 3 pixelprocessors... iedere R580 pipeline kan dus theoretisch 3x zo veel pixels verwerken als een klassieke pipeline.

ATi geeft de pixelverwerkingscapaciteit dus een grote boost ten opzichte van eerdere generaties, maar de textureverwerkingscapaciteit neemt niet veel toe (pixel:texture = 48:16 = 3:1).

Zeker op dit moment is bij veel games echter het aantal TMU's (ofwel textureverwerkingscapaciteit) ook van belang voor de verwerkingssnelheid. nVidia hanteert bij G70/7800GTX (en vermoedelijk ook bij G71) de verhouding 3:2, ofwel 3 pixel processors staat tot 2 texture units. De GTX heeft 24 pixel processors en 16 texture units... naar verwachting is dit bij G71 32 om 24.

In vergelijk met elkaar zal vermoedelijk de G71 dus krachtiger zijn op texturegebied, en de R580 krachtiger op pixel gebied... Wat dit in de praktijk voor games zal betekenen valt nog te bezien :)
maar moet je daar dan toch niet een soort van minimum voor houden? Ik bedoel, dat is allemaal leuk en aardig voor de high-end graphicscards, maar als je dit 3:1 ook voor de middenmoters gebruikt, dan zit je toch al snel met te weinig fillrate.
Bijvoorbeeld bij de X1600 zit er daardoor toch een behoorlijke bottleneck. En dat is toch een kaart die veel meer omzet moet gaan maken dan de X1800.
Fillrate wordt steeds minder bellangrijk, de radeon X1600 is gebouwd om nog een heel eind mee te gaan (misschien te toekomsgericht), de xbox 360 gpu is nog extremer dan de X1600; 8TMUs:64shaders
Next gen engines leunen imho steeds zwaarder op pixelshaders. Belichting, HDR enz. zijn allmeaal zaken die door de pixelshaders gedaan worden.
De Doom3 engine bijvoorbeeld heeft niet zo'n heel hoge polygon count, alle detail wordt door de shaders toegevoegd.
Ik denk dat ATi de goede keus heeft gemaakt.
Daar gaat het niet om, deze r580 moet het opnemen tegen de G71 chip, de X1800Xt 512 moest het opnemen tegen de Nvidea 7800Gtx 512 en daar slaagt hij voor de een mss net niet in maar voor de ander wel, hangt van je game af en de rest van je set up.

Zonet benchmark gevonde!:
http://www.techreport.com...00-crossfire/index.x?pg=1

Dus die spiculatie gaat niet op
Ik weet niet van waar je dat haalt maar er is geen enkele benchmark waarin de X1800XT sneller is dan de GTX 512.
In benchmarks met lagere aa is de X1800Xt wel degelijk sneller en er waren er nog een paar anderen.

Maar denk nu gewoon even logisch na, SLi is er al? 1 jaar zeker, ruim een jaar toch, pak dat eht daarvoor nog een half jaar in ontwikkeling is geweest. Vanaf dat SLI werd aangekondigt waren de eerste chipsets die het ondersteunden er ook... Als je reeds een dik jaar kan investeren in het optimaliseren van je chipsets, je drivers en dergelijke zal je autpmatisch een degelijke voorsprong hebben, in mijn ogen hebben we het hier niet over welke is nu echt de betere kaart, maar welke kaart is beter uitgewerkt en welke kaart heeft het beste beleid gehad bij introductie.

Hoeveel moderborden zijn er die op dit moment fansoenlijk een xpress 200 chipset draaien? Die kan je toch even op je 2 handen gaan tellen... Ati heeft gewoon een oerslecht beleid gehad ivm met introductie laat staan het optimaliseren van derden hun apparatuur.

GEwoon al de hoeveelheid ram (1gb of 2) neemt in zulke test al enkele frames meer weg bij de een als bij de ander (omgekeerd geld dit natuurlijk ook)...
Check daarvoor http://www.tomshardware.c...h_ram_do_you_really_need/

Edit:
http://www.hkepc.com/hwdb/x1800cfoc-5.htm Mooi vb van mijn statement, nu gaat hij er ineens weer wel over? ...
Sparkle GeForce 7800 GTX 256MB DDR3 (PCI-e, 2x DVI, ViVo) SPPX70XVH ¤ 457,-
Club3D Radeon X1800 XT 512MB DDR3 (PCI-e, 2xDVI) CGAX-TX182VDD ¤ 500,40
4MSI GeForce 7800 GTX 512MB DDR3 256bit (PCI-e, 2x DVI) NX7800GTX-VT2D512E ¤ 657,89

als je naar de prijs kijt dan ben je geloof ik toch iets beter uit met een X1800 XT 512MB
Met dat linker plaatje heb je iets van uhuh...

en dat rechter plaatje is gewoon: WOW! VET!

Maar ja, beetje offtopic...
Alleen wel een beetje jammer dat ze zonder toestemming een afbeelding van mij gebruiken, portretrecht heet dat toch? 8-)
oh, ik dacht dat ze jouw gezicht gebruikten als demonstratie hoe slecht een zonnebank voor je huid is :P
Nee nee nee, dat was iemand anders. Die foto is gemaakt toen ik net 6 blikjes Red Bull op had. }>
dat plaatje werd al gebruikt door hercules als demo voor de 9700pro :Z nix is nieuw
Klopt, pixel shaders hebben ze al een tijdje. :Z
Misschien een beetje off-topic maar waarom moeten er altijd van die griezels op van die voorbeeld plaatjes staan? Ben ik nou zo vreemd of ben ik de enige die dit niet aanspreekt?
Misschien omdat normale mensen niet van die lelijke dikke rode ogen hebben en van die vreselijke rimpels...

En omdat je daarmee de kwaliteit van de afbeelding goed kan weergeven.
Ik vond dus ook al dat die pixel shader van Ati de afbeelding alleen maar lelijker maakte.
Ze hebben er bij nVidia wat aan gedaan.

Stuk beter toch?
offtopic:
Laat dit bericht eens lezen door een niet-tweaker, of lees het voor. Kijk dan eens naar de reacties...
kijkend naar het plaatje:
dus als ik het goed bekijk verouderen games sneller met pixelshaders? :+
Ik vind deze verhoudingen wel verbazend. Een beetje pixel shader gebruikt per pixel meerdere texture look-up, toch al snel minstens vier. Wat heb je dan aan meer pixel shaders dan texture look-ups? Dat gedeelte snap ik niet helemaal, iemand die dit uit kan leggen?
Het gaat ook om de verhouding tussen texture fetches en andere operaties in een pixel shader. ATi's verwachting en die van veel anderen is dat het aantal andere operaties de komende tijd gaat stijgen t.o.v. de texture fetches naar gelang pixel shaders complexer worden.
een texture pipeline doet geen texture lookups voor de pixel shaders, die haalt hij zelf uit het geheugen.
Begrijp ik het dan goed dat de 48 shaders 16 pipelines beschikbaar hebben om uit de 16 texture units informatie te halen? En dat dus een pixel shader tijdens zijn uitvoering meerdere keren een pipeline gebruikt voor zijn verschillende textures en dat als teveel pixel shaders tegelijk texture-informatie willen hebben, dan moeten ze op elkaar wachten tot er ruimte is?
nee.
een pipeline maakt een texture vlak, en vervolgens gaan de shaders daarop aan het werk om alle licht en andere shader effecter er op toe te passen.
aangezien op pixels vaak meerdere shaders operaties worden toegepast heb je daarom meer pixel shaders nodig als pipelines, zeker in nieuwe games.

pipelines zijn leuk, maar hebben inmiddels een punt bereikt waardoor meer toevoegen alleen goed is voor extra fill-rate (dus je scherm opvullen) en dat kunnen wel al snel genoeg eigenlijk.
Dat rechter plaatje is ook te bereiken zonder (pixel) shaders, met bijvoorbeeld doodnormale textures... Het is echt geen noodzaak om veel shaders te hebben, het is alleen misschien makkelijker voor de programmeurs. Wij als gebruiker merken er niets van, omdat als de gamedevelopers iets er gelikt uit willen laten zien, dan krijgen ze dat toch wel voor elkaar. Shaders of geen shaders.
Nee hoor, dat heb je toch verkeerd begrepen. Wat een statisch plaatje is, kan over het algemeen inderdaad zonder pixel shaders ook wel gemaakt worden. Het voorbeeldplaatje bij dit artikel is ook echt extreem slecht gekozen, wat dat betreft. Maar zodra dingen gaan bewegen, kunnen pixel shaders een reusachtig verschil maken. Echter, om echt goed te snappen wat pixel shaders helpen en zo, moet je wel zo ongeveer een programmeur of game developer zijn. Het is een dusdanig technisch onderwerp dat het niet vreemd is dat 'normale' gamers niet zien wat de pixel shaders precies doen.
Nou, je kan oa PPL aanhalen, Per Pixel Lightning. Dat is toch wel een troef buiten de 'interactie' op gewone textures.
Ja, klopt, dat is zeker een belangrijk aspect, maar is op zich al erg technisch, want hoeveel gamers weten dat games zonder pixel shaders alleen belichten op de vertices (gauraud shading)?

Maar inderdaad, dat is een van de vele voordelen van pixel shaders, zeker in combinatie met een leuke normal map. :)
Je kan ook *alles* wat moet veranderen door belichting een vertex maken. Je krijgt dan verschrikkelijk complexe modellen, maar je bent je pixel shaders kwijt :)
Zit het hele pipeline-shader unit verhaal niet zo in elkaar? ->

een pixel pipeline is het onderdeel wat de uiteindelijjke kleur van een pixel bepaalt. Heb je 16 pixel pipelines, dan kun je dus 16 pixels per keer (clock) kleuren.

Ok, voor een setje pixels (een poly met materiaal X) heb je 3 shaders gedefinieerd. Die moeten voor iedere pixel worden uitgevoerd. Heb je 1 pixel shader unit per pixelpipeline, dan heb je dus een probleem met 3 shaders, want dan kost een pixel kleuren dus 3 clocks minimaal, ipv 1, want je kunt slechts 1 shader per keer uitvoeren. (een shader zelf kan ook lang duren, maar dat even buiten beschouwing gelaten).

Dus, heb je 16 pipelines, maar 48 shader units, dan kun je dus per pipeline 3 shaders per keer verwerken, want bij veel shader-per-pixel kun je dus gewoon doorblazen, geen pixelpipeline hoeft te wachten op een shader, want je kunt 3 shaders per keer uitvoeren. Bij 4 of meer shaders per pixel heb je dus ook daar wachttijden.

Bij 24 pipelines en 16 shader units heb je dus het fenomeen dat een shader unit wordt gedeeld door meerdere pipelines. Daar staat tegenover dat je meerdere pixels kunt kleuren, nl 24 ipv 16.

Althans, dat is wat ik er van maak.
Ah, ok, als het zo zit, dan denk ik dat ik snap hoe het werkt. Ik had ook over het hoofd gezien dat je met meerdere lichten over het algemeen ook meerdere keren dezelfde shader op dezelfde pixel loslaat, voor elk licht een keer, met multi-passing. Tenminste, ik neem aan dat dat in deze context mogelijk is?
Ik ging uit van 1 texture per pixel. Vroeger had je meerdere textures per pixel (multi-texturing! :)) en werden texture units gegroepeerd per pixel, dus had je 8 texture units, die dan dus 4 dual-texture pixels konden kleuren.

Tegenwoordig wordt dat niet meer zo gedaan, je hebt 1 target texture (of geen) en shaders, die de multi-texturing voor hun rekening nemen. Vandaar dus ook dat in sommige gevallen meer shader units beter werkt (bij games met veel shaders per pixel) maar bij games met weinig shaders per pixel, heb je daar dus niet zo veel aan.
Wannneer gaat Ati dan beginnen met die unified shader architecture? Wachten ze daarmee tot Longhorn en DX10?
Waarschijnlijk met de R600 serie.

Dan heeft het ook pas zin. Het is moeilijk om efficient van een Unified architecture gebruik te maken bij DX9.

Bij DX10 wordt het echter bijna vanzelfsprekend omdat dan de API ook unified is.
Longhorn is de beta-versie van windows xp. Je bedoelt vast Vista, aangezien deze versie van windows met DX10 komt ;).
Longhorn was de code naam voor Vista eerst.
En word intern nog gebruikt voor Server edities. :z
Want XP had whistler ofzo als codenaam bij MS eerst.


Ben ben benieuwd hoe de R580 gaat presenteren en beeldkwaliteit beter is dan de R520
er klopt niets van. Als je ati's 3:1 vergelijkt met Nvidia krijg je voor nvidia 2:3 en niet 3:2


edit: net te laat :(

vandaar dat die X1600XT zo slecht presteerd. Ik had trouwens ook gelezen op de inquirer dat de oude X1600XT een 128 bit bus heeft en de nieuwe een 256 bit bus. Weet iemand hier iets meer van?
Dat bericht klopt niet. Ze bedoelen de interne ring-bus van de X1600, maar die was altijd al 256bit breed.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True