'ATi R580 krijgt 16 pixel pipelines en 48 shaders'

We lezen bij The Inquirer dat de R580-core van ATi's X1900-kaarten, die begin volgend jaar op de markt komen, over niet minder dan 48 pixel shaders zou beschikken, die door 16 pipelines gevoed worden. Deze pipelines leveren de data van de 16 texture units richting de de pixel shaders. De verhouding tussen shaders en pipelines is daarmee 3:1, een verhouding die ATi al meer toepast. In de R530-core wordt de data bijvoorbeeld ook door drie keer zo veel pixel shaders verwerkt als er pipelines zijn om de gegevens aan te leveren.

Concurrent nVidia levert cores met een verhouding tussen pipelines en shaders van 3:2. De G70, bekend van kaarten als de GeForce 7800 GTX, kan zestien shaderoperaties uitvoeren op de data die door 24 pipelines wordt aangeleverd. Het artikel van The Inquirer oppert het idee dat nVidia met de komende G71-gpu wel meer pipelines beschikbaar wil maken, maar dat de verhouding hetzelfde blijft. Bij het gebruik van 24 pipelines zou dat dus 36 shaders opleveren. Volgens The Inquirer zou het niet de eerste keer zijn dat nVidia druk op game-ontwikkelaars uitoefent om voor zijn platform te optimaliseren. Enigszins afhankelijk van bijvoorbeeld het succes van de 'The Way It's Meant To Be Played'-campagne zou ATi daarom wel eens gedwongen kunnen worden om ook meer pipelines per shader te gaan bakken, speculeert de site.

Pixel shaders aan het werk: links zonder, rechts mét
Links vóór toepassing pixel shaders, rechts erna

Door René Wichers

Eindredacteur

15-12-2005 • 11:41

59

Bron: The Inquirer

Reacties (59)

59
57
27
8
1
13
Wijzig sortering
> zestien shaderoperaties uitvoeren op de data die door 24 pipelines wordt aangeleverd [...]
> Bij het gebruik van 24 pipelines zou dat dus 36 shaders opleveren.

Euh??? Dat lijkt me niet helemaal te kloppen !?! Dat eerste is toch 2:3 en niet 3:2 !?!


[Edit] Ah, het tweaker artikel is niet helemaal duidelijk. Inquirer is duidelijker:

RV530: 12 shaders (of pipelines) en 4 texture memory units. Dat is 3:1.
R520: 16 pixel shaders/pipelines en 16 texture memory units. Da's dus 1:1
G70: 24 pipelines/pixel shaders en kan 16 textures verwerken. Dat is 3:2.
Het gaat dus blijkbaar niet om de verhouding tussen shaders en pipelines, zoals het Tweakers artikel zegt, maar de verhouding tussen shaders/pipelines en texture units.

[Edit2:] ah, bovenstaande reactie van Cheetah verduidelijkt het beter. Thnx, Cheetah!
16 pixelpijpen lijkt me nogal weinig :? Hoe hoog willen ze die kloksnelheid opschroeven om een 7800GTX 512Mb te ownen?


Shaders geven idd mooie effecten, maar daat heb je nix aan als je de textrues niet goed weergeven kan....
Daar gaat het niet om, deze r580 moet het opnemen tegen de G71 chip, de X1800Xt 512 moest het opnemen tegen de Nvidea 7800Gtx 512 en daar slaagt hij voor de een mss net niet in maar voor de ander wel, hangt van je game af en de rest van je set up.

Zonet benchmark gevonde!:
http://www.techreport.com...00-crossfire/index.x?pg=1

Dus die spiculatie gaat niet op
Ik weet niet van waar je dat haalt maar er is geen enkele benchmark waarin de X1800XT sneller is dan de GTX 512.
In benchmarks met lagere aa is de X1800Xt wel degelijk sneller en er waren er nog een paar anderen.

Maar denk nu gewoon even logisch na, SLi is er al? 1 jaar zeker, ruim een jaar toch, pak dat eht daarvoor nog een half jaar in ontwikkeling is geweest. Vanaf dat SLI werd aangekondigt waren de eerste chipsets die het ondersteunden er ook... Als je reeds een dik jaar kan investeren in het optimaliseren van je chipsets, je drivers en dergelijke zal je autpmatisch een degelijke voorsprong hebben, in mijn ogen hebben we het hier niet over welke is nu echt de betere kaart, maar welke kaart is beter uitgewerkt en welke kaart heeft het beste beleid gehad bij introductie.

Hoeveel moderborden zijn er die op dit moment fansoenlijk een xpress 200 chipset draaien? Die kan je toch even op je 2 handen gaan tellen... Ati heeft gewoon een oerslecht beleid gehad ivm met introductie laat staan het optimaliseren van derden hun apparatuur.

GEwoon al de hoeveelheid ram (1gb of 2) neemt in zulke test al enkele frames meer weg bij de een als bij de ander (omgekeerd geld dit natuurlijk ook)...
Check daarvoor http://www.tomshardware.c...h_ram_do_you_really_need/

Edit:
http://www.hkepc.com/hwdb/x1800cfoc-5.htm Mooi vb van mijn statement, nu gaat hij er ineens weer wel over? ...
Sparkle GeForce 7800 GTX 256MB DDR3 (PCI-e, 2x DVI, ViVo) SPPX70XVH € 457,-
Club3D Radeon X1800 XT 512MB DDR3 (PCI-e, 2xDVI) CGAX-TX182VDD € 500,40
4MSI GeForce 7800 GTX 512MB DDR3 256bit (PCI-e, 2x DVI) NX7800GTX-VT2D512E € 657,89

als je naar de prijs kijt dan ben je geloof ik toch iets beter uit met een X1800 XT 512MB
16 pixelpijpen lijkt me nogal weinig
De pipelines van de nieuwe ATi architectuur zijn geen "klassieke" pipelines. Bij de 9x00, X8xx en X1800 serie is er per pipeline 1 Texture unit (TMU) en 1 pixelprocessor. Bij de R580 is er per pipeline 1 TMU en 3 pixelprocessors... iedere R580 pipeline kan dus theoretisch 3x zo veel pixels verwerken als een klassieke pipeline.

ATi geeft de pixelverwerkingscapaciteit dus een grote boost ten opzichte van eerdere generaties, maar de textureverwerkingscapaciteit neemt niet veel toe (pixel:texture = 48:16 = 3:1).

Zeker op dit moment is bij veel games echter het aantal TMU's (ofwel textureverwerkingscapaciteit) ook van belang voor de verwerkingssnelheid. nVidia hanteert bij G70/7800GTX (en vermoedelijk ook bij G71) de verhouding 3:2, ofwel 3 pixel processors staat tot 2 texture units. De GTX heeft 24 pixel processors en 16 texture units... naar verwachting is dit bij G71 32 om 24.

In vergelijk met elkaar zal vermoedelijk de G71 dus krachtiger zijn op texturegebied, en de R580 krachtiger op pixel gebied... Wat dit in de praktijk voor games zal betekenen valt nog te bezien :)
Next gen engines leunen imho steeds zwaarder op pixelshaders. Belichting, HDR enz. zijn allmeaal zaken die door de pixelshaders gedaan worden.
De Doom3 engine bijvoorbeeld heeft niet zo'n heel hoge polygon count, alle detail wordt door de shaders toegevoegd.
Ik denk dat ATi de goede keus heeft gemaakt.
maar moet je daar dan toch niet een soort van minimum voor houden? Ik bedoel, dat is allemaal leuk en aardig voor de high-end graphicscards, maar als je dit 3:1 ook voor de middenmoters gebruikt, dan zit je toch al snel met te weinig fillrate.
Bijvoorbeeld bij de X1600 zit er daardoor toch een behoorlijke bottleneck. En dat is toch een kaart die veel meer omzet moet gaan maken dan de X1800.
Fillrate wordt steeds minder bellangrijk, de radeon X1600 is gebouwd om nog een heel eind mee te gaan (misschien te toekomsgericht), de xbox 360 gpu is nog extremer dan de X1600; 8TMUs:64shaders
Met dat linker plaatje heb je iets van uhuh...

en dat rechter plaatje is gewoon: WOW! VET!

Maar ja, beetje offtopic...
Alleen wel een beetje jammer dat ze zonder toestemming een afbeelding van mij gebruiken, portretrecht heet dat toch? 8-)
oh, ik dacht dat ze jouw gezicht gebruikten als demonstratie hoe slecht een zonnebank voor je huid is :P
Nee nee nee, dat was iemand anders. Die foto is gemaakt toen ik net 6 blikjes Red Bull op had. }>
dat plaatje werd al gebruikt door hercules als demo voor de 9700pro :Z nix is nieuw
Klopt, pixel shaders hebben ze al een tijdje. :Z
Misschien een beetje off-topic maar waarom moeten er altijd van die griezels op van die voorbeeld plaatjes staan? Ben ik nou zo vreemd of ben ik de enige die dit niet aanspreekt?
Misschien omdat normale mensen niet van die lelijke dikke rode ogen hebben en van die vreselijke rimpels...

En omdat je daarmee de kwaliteit van de afbeelding goed kan weergeven.
Ik vond dus ook al dat die pixel shader van Ati de afbeelding alleen maar lelijker maakte.
Ze hebben er bij nVidia wat aan gedaan.

Stuk beter toch?
offtopic:
Laat dit bericht eens lezen door een niet-tweaker, of lees het voor. Kijk dan eens naar de reacties...
kijkend naar het plaatje:
dus als ik het goed bekijk verouderen games sneller met pixelshaders? :+
Ik vind deze verhoudingen wel verbazend. Een beetje pixel shader gebruikt per pixel meerdere texture look-up, toch al snel minstens vier. Wat heb je dan aan meer pixel shaders dan texture look-ups? Dat gedeelte snap ik niet helemaal, iemand die dit uit kan leggen?
Het gaat ook om de verhouding tussen texture fetches en andere operaties in een pixel shader. ATi's verwachting en die van veel anderen is dat het aantal andere operaties de komende tijd gaat stijgen t.o.v. de texture fetches naar gelang pixel shaders complexer worden.
een texture pipeline doet geen texture lookups voor de pixel shaders, die haalt hij zelf uit het geheugen.
Begrijp ik het dan goed dat de 48 shaders 16 pipelines beschikbaar hebben om uit de 16 texture units informatie te halen? En dat dus een pixel shader tijdens zijn uitvoering meerdere keren een pipeline gebruikt voor zijn verschillende textures en dat als teveel pixel shaders tegelijk texture-informatie willen hebben, dan moeten ze op elkaar wachten tot er ruimte is?
nee.
een pipeline maakt een texture vlak, en vervolgens gaan de shaders daarop aan het werk om alle licht en andere shader effecter er op toe te passen.
aangezien op pixels vaak meerdere shaders operaties worden toegepast heb je daarom meer pixel shaders nodig als pipelines, zeker in nieuwe games.

pipelines zijn leuk, maar hebben inmiddels een punt bereikt waardoor meer toevoegen alleen goed is voor extra fill-rate (dus je scherm opvullen) en dat kunnen wel al snel genoeg eigenlijk.
Dat rechter plaatje is ook te bereiken zonder (pixel) shaders, met bijvoorbeeld doodnormale textures... Het is echt geen noodzaak om veel shaders te hebben, het is alleen misschien makkelijker voor de programmeurs. Wij als gebruiker merken er niets van, omdat als de gamedevelopers iets er gelikt uit willen laten zien, dan krijgen ze dat toch wel voor elkaar. Shaders of geen shaders.
Nee hoor, dat heb je toch verkeerd begrepen. Wat een statisch plaatje is, kan over het algemeen inderdaad zonder pixel shaders ook wel gemaakt worden. Het voorbeeldplaatje bij dit artikel is ook echt extreem slecht gekozen, wat dat betreft. Maar zodra dingen gaan bewegen, kunnen pixel shaders een reusachtig verschil maken. Echter, om echt goed te snappen wat pixel shaders helpen en zo, moet je wel zo ongeveer een programmeur of game developer zijn. Het is een dusdanig technisch onderwerp dat het niet vreemd is dat 'normale' gamers niet zien wat de pixel shaders precies doen.
Nou, je kan oa PPL aanhalen, Per Pixel Lightning. Dat is toch wel een troef buiten de 'interactie' op gewone textures.
Ja, klopt, dat is zeker een belangrijk aspect, maar is op zich al erg technisch, want hoeveel gamers weten dat games zonder pixel shaders alleen belichten op de vertices (gauraud shading)?

Maar inderdaad, dat is een van de vele voordelen van pixel shaders, zeker in combinatie met een leuke normal map. :)
Je kan ook *alles* wat moet veranderen door belichting een vertex maken. Je krijgt dan verschrikkelijk complexe modellen, maar je bent je pixel shaders kwijt :)
er klopt niets van. Als je ati's 3:1 vergelijkt met Nvidia krijg je voor nvidia 2:3 en niet 3:2


edit: net te laat :(

vandaar dat die X1600XT zo slecht presteerd. Ik had trouwens ook gelezen op de inquirer dat de oude X1600XT een 128 bit bus heeft en de nieuwe een 256 bit bus. Weet iemand hier iets meer van?
Dat bericht klopt niet. Ze bedoelen de interne ring-bus van de X1600, maar die was altijd al 256bit breed.
k heb zonet nog een discussie gelezen hierover op rage3d de kaart zou naar speculaties welliswaar een 700-800$ gaan kosten, men verwacht geen onmiddelijke prijsdling. Hoe dan ook hij zou eind januarie al 'leverbaar' zijn volgens ati, nu daarom nog niet in de winkel, heb je de voorbije maanden maar al te goed kunnen merken met r530 core :)

edit:
natuurlijk zal er ook 512mb versie beschikbaar worden, ze gaan niet concureren door minder geheugen op dat plankje te steken hé ;)
Nee, ik zou inderdaad ook niet met een kaart uitkomen met minder dan 512 mb (=64 milibyte)

Het is misschien wel offtopic, maar er zit een groot verschil tussen MB's, Mb's, mB's en mb's

Verder zegt dit bericht me niet zo heel veel, de ene pipeline is de andere niet en ook op kloksnelheid valt er nog het een en ander waar te maken. Als de pixel pipelines van Ati daadwerkelijk zoveel anders zijn dan zijn we hier appels met peren aan het vergelijken en daar schieten we natuurlijk niets mee op.
betweter, doe het dan goed:
Nee, ik zou inderdaad ook niet met een kaart uitkomen met minder dan 512 mb (=64 milibyte)

= dus milibit
Nofl maar nu wil jij juist de betweter zijn!

512 mb is 512 milibit of 64 milibyte, niets meer en niets minder.
Offtopic : ik snap ook niet dat ze geen blote tiet als plaatjes nemen dat verkoopt toch veel beter :P

Op dit item kan niet meer gereageerd worden.