Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 52 reacties
Bron: Xbit Labs, submitter: FFWD

Volgens een gerucht dat is geplaatst op Xbit Labs zal de G80 van nVidia in tegenstelling tot eerder claims geen unified shaders hebben. In de huidige generatie van videokaarten wordt er een redelijk scherp onderscheid gemaakt tussen pixel- en vertexshaders, zowel aan de hardwarekant als aan de softwarekant. Met de komst van DirectX 10 wordt er echter één instructieset gedefinieerd die zowel voor beeldpunten als voor geometrie werkt, waardoor die scheiding in ieder geval aan de softwarekant verdwijnt. Hoewel het niet verplicht is om het ook binnen de hardware op die manier samen te voegen (tot zogenaamde 'unified shaders') leek dat wel een logische zet te zijn met het oog op efficiëntie. Van de volgende generatie van ATi wordt bijvoorbeeld wél verwacht dat deze unified shaders zal gebruiken, onder meer omdat het bedrijf voor de Xbox 360 al een dergelijke GPU heeft ontworpen.

Volgens nVidia zit er echter nog voldoende rek in hun huidige architectuur. Eerder verklaarde het bedrijf dat unified shaders pas zullen worden gebruikt als en zodra het nuttig wordt geacht. Tot die tijd zal DirectX 10 dus mogelijk ondersteund worden met aparte pixel- en vertexhardware. De gevolgen daarvan voor de prestaties zijn overigens onduidelijk. De nieuwe videokaarten van ATi en nVidia worden verwacht rond dezelfde tijd als Windows Vista, tegen het einde van het jaar dus. In de tussentijd zal nVidia nog de 90nm G71-core uitbrengen, een snelheidsboost voor de GeForce 7800.

Moderatie-faq Wijzig weergave

Reacties (52)

We hebben 1 goed voorbeeld van een chip met een unified shader model, in een systeem die daar speciaal voor gemaakt is, met software die daar speciaal voor gemaakt is, het heet de Xenos, aka R500, en hij woont in XBOX 360's, nu kan het aan mij liggen, maar dat ding heeft 48 van die unified shader units, opgedeeld in 3 groepen, die allemaal vertex of pixel shaders kunnen uit voeren.

Dus hoe presteerd dat ding, nou, in mijn ogen, niet best, ik heb nog niets gezien wat huidige kaarten niet kunnen, sommige van de spellen, PGR3, vind ik rond uit lelijk, en dat ligt niet aan de shaders, maar aan de duidelijkzichtbare aliasing (en dat op een machine die gratis AA zou hebben).

Om shader units zowel pixel als vertex berekeningen uit te laten voeren moeten ze uit meer transistoren bestaan, en minder geoptimaliseerd voor gebruik zijn, ook word de performance voor spellen makers lastiger in te schatten, en kunnen pixel shader operaties (die over het algemeen gezien meer geheugenbandbreedte nodig hebben) alle vertex shader operaties op gaan houden.

Persoonlijk ben ik dan ook geen voorstander van unified shader model, en ben blij dat nVidia er een manier omheen heeft gevonden.
je weet dat de x1900 ook 48 shader units heeft? op een zelfde manier geimplimenteerd. die doet het toch echt prima. (zelfs de snelste kaart te koop, zeker in de nieuwe generatie spellen)

en xbox 360 games vergelijken met pc games is nu nog niet aan de oorde.
alle huidige games zijn gewoon te snel uit gebracht en nog verre van geoptimalizeerd voor de 360. dat komt later.
Om shader units zowel pixel als vertex berekeningen uit te laten voeren moeten ze uit meer transistoren bestaan, en minder geoptimaliseerd voor gebruik zijn,
uit meer transistoren ja, maar die win je weer omdat je geen specialy units moet maken voor vertex shaders, in totaal heb je minder transistors nodig.
en minder geoptimaliseerd is onzin, dat hoeft zeker niet het geval te zijn.
je weet dat de x1900 ook 48 shader units heeft? op een zelfde manier geimplimenteerd. die doet het toch echt prima. (zelfs de snelste kaart te koop, zeker in de nieuwe generatie spellen)
Je zit er compleet naast...
De x1900 heeft heel wat meer dan 48 shader units, hij heeft alleen al 48 pixel shader units, daar komen de vertex shader units nog bij! Bovendien loopt die op een hogere snelheid en heeft die een heel stuk meer bandbreedte. De implementatie is compleet anders, de R500 is juist zo speciaal vanwege zijn unified structuur, die de R520 en vervolgen daarop dus niet hebben, en voor pc niet eerder als bij de R600 gebruikt zullen worden.
en xbox 360 games vergelijken met pc games is nu nog niet aan de oorde.
alle huidige games zijn gewoon te snel uit gebracht en nog verre van geoptimalizeerd voor de 360. dat komt later.
Launch titles horen goed te zijn, vooral een spel als PGR3, waarvan de screens er zo mooi uitzagen, tijdens het spelen kom ik geen bottleneck situaties tegen (op zijn hoogst een paar auto's in beeld..) en zie geen reden waarom het er zo lelijk uitziet, de hele auto wordt omgeven door een rand van aliasing...MSAA en die 10mb EDRAM zouden dat toch verhelpen?
uit meer transistoren ja, maar die win je weer omdat je geen specialy units moet maken voor vertex shaders, in totaal heb je minder transistors nodig.
en minder geoptimaliseerd is onzin, dat hoeft zeker niet het geval te zijn.
Waar haal je de aanname dat er teveel shader units op huidige hardware zitten vandaan? Een unified ontwerp is vanzichzelf al langzamer, dan kan het het eigenlijk niet veroorloven om ook nog minder execution hardware te hebben. Spellen die nu goed geoptimaliseerd kunnen worden en vevolgens geweldig draaien op de hardware, zullen net zo traag gaan draaien als de rest, natuurlijk is het voor devs handiger (mits de drivers er geen zooi van gaan maken), maar het haalt een mooie mogelijkheid om te optimaliseren weg.
Volgens mij is de resolutie van een Xbox ook een stuk lager, dus ja... je ziet idd aliasing en dus wat? als jij 3 meter van het scherm zit op de bank heb je daar weinig last van.
Dat aliasing zegt niks over de prestaties en volgens mij kan die xbox 360 nog aardig wat grafisch geweld laten zien, zeker als je kijkt naar screens van komende games.
Er zijn aardig wat mensen die inmiddels aardig wat geld neergeteld hebben om juist ook op 3 meter nog een erg groot beeld voor zich te hebben, aliasing bewijst dat de verwachtingen die voor de X360 geschapen waren niet gehaalt kunnen worden.

PGR3 gebruikt intern een lagere res en schaalt later op naar de gewenste res...dit verklaart echter niet de aliasing om de auto's heen, die zijn het gevolg van een gebrek aan AA, ondanks dat die 'gratis' zou moeten zijn.

Screens van komende games? Ik heb genoeg screens van PGR3 gezien om te denken dat het het mooiste race spel ooit zou worden, screens zeggen blijkbaar niet zo heel veel....
Dat is onzin, het ligt niet aan de GPU. Dat weet ik 100% zeker! De GPU van de Xbox is (toch?) beter dan de x1900 en moet nog voor de desktop komen? Nou zijn de huidige Xbox360 spellen niet zo zwaar, dus zou de gpu er een dikke anti-alias overheen kunnen gooien. Als je met je x1900 al makkelijk 4x AA over iedere game kan gooeien, hoezo zou het dan niet met de Xbox360 kunnen? Als de Gpu in de Xbox360 slechter was dan een x1900 hadden ze wel een x1900 erin gezet denk ik hoor :)

Na nader onderzoek denk ik dat het aan de games ligt, ik heb nu even screens gevonden van Fight Night Round 3... Zal nog wel een jaartje of 2 duren voordat ik dat hier op mijn desktop zo mooi kan toveren:
http://media.teamxbox.com...8/full-res/1139868781.jpg
http://media.teamxbox.com...8/full-res/1139408219.jpg
Ik zie hier dus geen aliasing! Bij uitgemolken spellen als Fifa street zie ik het wel, EA is gewoon lui... het ligt aan de games.
De X1900 heeft wat meer shader hardware, 48 pixelshader pipelines en een stel vertex pipelines. Bovendien heeft die een heel stuk meer geheugenbandbreedte.

4xAA is relatief, op 640x480 kan een GF4MX nog wel 4xAA doen...Bovendien is MSAA nog geen SSAA.

Ik begin erg in herhaling te vallen, maar de PGR3 screens zagen er super super super super ongelovelijk mooi uit, dat zegt niet veel...
48 pixel shader units. Geen pipelines!

En jij weet net zo goed als de rest hier, dat wanneer PGR3 aliasing heeft, dat het dan gewoon door de programmeurs komt en niet door de gpu.
De shader units zijn ge-pipelined, iedere FPU is ge-pipelined....Het is anders als een pixel pipeline zoals we vroeger kende, maar het blijven allemaal pipelines.

Als een spel waar ze lang aan gewerkt is, waarvan ik zulke mooie screens heb gezien, dat werkt op een chip die vanzichzelf gratis AA weg hoort te geven, dan kan het inderdaad nogsteeds aan de programeur liggen, maar een beetje vreemd zou ik dat wel vinden.
Een beetje vreemd ja. Maar nog altijd minder vreemd dan wanneer het aan de gpu zou liggen.

We hebben namelijk al het bewijs dat die gpu keurig nette AA levert en dat ie dat "gratis" doet, bij allerlei andere titels.

Btw als je perse over pipelines wilt praten bij de X1900, dan is de enige juiste omschrijving dat het ding 16 pipelines heeft.
In de screens die jij aanhaalt wordt enkel de boxers weergegeven. Dit houd simpel in dat je alle gpu power kunt storten op die personages en de achtergrond compleet blur is (zoals je op de plaatjes ziet). Dit is op een moderne pc net zo mooi te krijgen.
Een heel slecht voorbeeld imo.
@Jan.

Zijn er eigenlijk al spellen die zowel op Xbox360 als PC verkrijgbaar zijn zodat er eerlijke vergelijkingen gedaan kunnen worden?
Om shader units zowel pixel als vertex berekeningen uit te laten voeren moeten ze uit meer transistoren bestaan,
Uiteraard. Daarom waren de vorige generaties gpu's ook nog geen unified design
en minder geoptimaliseerd voor gebruik zijn
Onzin. Daar ga ik geen eens woorden aan vuil maken. Ga het eerst meer eens onderbouwen.
ook word de performance voor spellen makers lastiger in te schatten,
Juist makkelijker omdat je design zo simpel is. Efficientie van de gpu is veel voorspelbaarder, evenals bottlenecks.
en kunnen pixel shader operaties (die over het algemeen gezien meer geheugenbandbreedte nodig hebben) alle vertex shader operaties op gaan houden.
Dat kan in een non-unified design net zo goed. Sterker nog, het zal zelfs sneller gebeuren, want in een unified design kun je met een slim design juist zorgen dat je de operaties zo goed mogelijk verdeeld over de beschikbare brandbreedte.
(wellicht niet geheel toevallig dat ATI nu al een slimme geheugencontroller in de X1000 series ingebouwd heeft)
Persoonlijk ben ik dan ook geen voorstander van unified shader model, en ben blij dat nVidia er een manier omheen heeft gevonden.
Gewoon uitstellen omdat er in eerste instantie toch alleen maar DX9 spellen zullen zijn, is niet bepaald een oplossing. Voor de korte termijn (1 gpu generatie) zal het waarschijnlijk nog wel werken, maar vervolgens gaan ook zij naar een unified design.
Als je code unified is, dan kom je er gewoon niet omheen dat je hardware dat ook moet zijn. Anders wordt je gpu veel te complex en inefficient.
Waar het hier allemaal om gaat is wanneer er zoveel code unified is geworden dat je je gpu design moet overschakelen.
SM4.0 code kan gewoon werken op hybride designs, de Xenos is in mijn ogen niet eens zo heel anders. SM5.0 code zal toch niet gaan werken, of de interne architectuur er nu een beetje op lijkt of niet. nVidia heeft dit mal gewoon gekenen naar wat SM4.0 allemaal eist, en heeft de snelste/meest efficiente/goedkoopte architectuur gebruikt ervoor.

Unified code heeft niet persee unified hardware nodig, je weet wel, laagjes...
Ze hebben gekozen wat voor HEN (vogens hen) de snelste/meest efficiente/goedkoopste architectuur is.

Dat hoeft helemaal niet te betekenen dat dat ook voor ATI geldt.

De ervaring van beide bedrijven is immers verschillend, en er zitten ook de nodige essentiele verschillen in hun huidige ontwerpen, die kunnen verklaren waarom ze er verschillend over denken.

Wat betreft de noodzaak van unified hardware. Het ligt er net aan wat je definitie van noodzaak is.
Zoals ik elders al aangaf kun je unified code op non-unified hardware draaien. Maar het betekent dat je een zeer inefficiente gpu krijgt. Bovendien kan het niet op een huidige generatie gpu. Je moet namelijk allerlei extra opties inbouwen. Als je namelijk een unified shader hebt die afhankelijk is van zowel pixel als vertex data en berekeningen, dan moeten je pixel shaders je vertex data kunnen aanspreken, en je vertex shaders je pixel data. Dat betekent dus extra transistors in vergelijking met de huidige kaarten.
En dat was nou net de reden waarom je geen unified architectuur wilde. ("je" hier in de algemene vorm gebruikt)

m.a.w. het belangrijkste nadeel van een unified design moet je dus ook in gaan bouwen in je non-unified design. Maar zonder dat je er de voordelen van een unified design voor terug krijgt.
zijn er dan echt nadeelen om het niet unified te ontwerpen?

en ik zou zeggen dat het al nuttig is om te doen, het maakt het iniedergeval voor de software makenlijk, en het chipontwerp zal er ook niet echt ingewikkelder van worden lijkt me.

edit : just, dus waarom gaan nvidia dan niet gelijk over?
Dave Kirk zei ooit over unified architetecturen: jack of all trades, master of none.
Dit wil zeggen dat als je pipes hebt die zowel pixel als vertexshaders aankunnen, je pipes krijgt die geen van beide echt goed doen.
Als je gespecialiseerde pipes hebt die ofwel pixel, ofwel vertexshader goed kunnen ben je in bepaalde scenarios beter af. Scenarios zoals wanneer er nog veel DX9 games zijn.
Een 2de nadeel is dat unified kaarten een scheduler hebben, een arbiter die beslist of de pipe nu een pixel dan wel een vertexshader pipe gaat zijn. Deze chip zorgt voor de load balancing.
Alle data moet langs deze scheduler komen en dat is dus een bijkomende vertraging.
Which is better—a lean and mean optimized vertex shader and a lean and mean optimized pixel shader or two less-efficient hybrid shaders
Als je gespecialiseerde pipes hebt dan ben je ook in DX9 vaak slecht af.

Kijk bv nu naar de discussie hoeveel pixel shader units je moet hebben tov vertex shader units.
Het prestatieverschil tussen de X1800 en X1900 laat perfect het probleem zien van de huidige non-unified architectuur.

Bij een unified architectuur heb je niet het probleem dat je niet kunt voorspellen waar een spel meer de nadruk op legt. Daardoor kun je weer een simpeler kaart ontwerpen waardoor ie efficienter en krachtiger kan worden.

Een vergelijking tussen de NV30 en de R300 laat duidelijk zien dat "jack of all trades, master of none" helemaal niet waar hoeft te zijn.
De R300 was juist de "jack of all trades" maar was bovendien "master of all"
NV30 had allerlei gespecialiseerde units. Integer units vs floating punt units. full precision vs partial precision. etc etc. R300 had gewoon allemaal dezelfde units.
Zoals iedereen weet was dat R300 design gewoon beter op dat moment. Zo goed zelfs dat Nvidia het overgenomen heeft in de Geforce 6000 serie.

Hoe kom je er overigens bij dat die scheduler een vertragende factor is? Dat is helemaal niet waar.
Zou je die stelling wellicht even willen onderbouwen?
Het hangt van de scheduler af of een pipe een pixel of een vertex shader gaat zijn. Die moet dus een keuze maken aan de hand van welke pipes er bezet zijn en hoeveel er nog geprocessed moeten worden. Goede load balancing en prediction zijn zeer belangrijk voor de scheduler.
Het is dus de kwaliteit van de keuzes van deze scheduler die de snelheidsbepalende factor zal zijn.

Ik geef toe dat unified the way to go is. Maar nu misschien nog niet. Ik denk dat een gespecialiseerde pixel shader pipe veel nuttiger is dan eentje die zowel pixel als vertex shaders kan doen.
Een pixel shader vergt veel meer rekenkracht dan een vertex shader. Als zo'n pixel shader gebruikt wordt om vertices te processen heb je dus een superkrachtige pipe die praktisch staat te idlen en geen werk heeft. Zonde van het potentieel.

Maar goed, beiden hebben voordelen en nadelen. Maar met in de verste verte nog geen dx10 games in aantocht zie ik "nu" het nut nog niet van een unified architectuur.
Dergelijke schedulers zijn er in belangrijke ook al in de huidige kaarten. Bv in de X1000 serie.
Daarbij moet de scheduler dan wel niet kiezen of er pixel of vertex shaders uitgevoerd moet worden, omdat die scheduler alleen maar pixel operaties afhandeld, maar hij moet net zo hard kijken welke "pipes" er bezet zijn, wat er nog geprocessed moet worden, welke request naar het geheugen al afgehandeld zijn en op welke nog gewacht moet worden.

Je ziet dat de vertragende factoren nu al aanwezig zijn.

Wat betreft een pipe die "nuttiger" is.
Uiteindelijk gaat het om het aantal transistors wat je gebruikt.
Een gespecialiseerde shader units doet zijn werk niet beter dan een unified. Het verschil is dat ie minder transistors nodig heeft. Zoals je zelf al aangeeft kun je die transistors nuttiger gebruiken. Aan de andere kant is een unified design veel simpeler en kun je de pipe makkelijker bezet houden. Daar levert je weer betere efficientie van je transistors op. Uiteindelijk krijg je ergens een omslagpunt.

Kijk weer naar de R300 vs NV30. De R300 had complexere shader units die meer transistors vergden, maar ze waren allemaal dezelfde en de core werd zeer efficient gebruikt. Uiteindelijk pakte het ontwerp van de R300 het beste uit.

De beschikbaarheid van DX10 code zal inderdaad een flink stuk bepalen. Maar ook de wijze waarop de DX9 code in Vista verwerkt gaat worden.
DX10 code geeft wel een aantal opties in spellen die in DX9 (bijna) niet mogelijk zijn. Als die opties gebruikt gaan worden zullen ze wel veel aandacht gaan krijgen.
Omdat nVidia graag eerst uitprobeert en daarna, als ze er tevreden mee zijn, het pas echt inzet! Kijk maar naar de verkleining naar 90 nm GPU's. Ati was daar eerst mee maar had wat problemen, nVidia past dit eerst toe in de budgetkaarten, die niet zo prestatiekritisch zijn, en daarna komen ze wel met de high-end kaarten!

Lijkt mij een slimme strategie daar je dus het risico sterk verkleint immers: als je budgetkaart niet zo optimaal werkt kan dat nog opgevangen worden maar als je high-end kaart niet goed werkt heb je een probleem!
hey dat is gek... in deze thread word nvidia geprezen omdat ze terug houdend zijn, en in die andere gfx thread for nvidia aangehaald als veel vooruitstrevender/innovatief zijn.

dus welke is het en welke is beter? of ligt het er maar gewoon aan wat op dat moment het beste uit komt?
ik ga voor het laatste.
Het hangt er maar van af wat je vooruitstrevend noemt. Als eerste naar 90nm gaan omdat je chip anders te heet wordt noem ik niet echt innovatie.
Anders zou Intel innovatiever zijn dan AMD op dat vlak.
Dat is maar hoe je het bekijkt.

De grootste omzet wordt in ieder geval niet in de high-end markt behaald...

Van de andere kant is het natuurlijk niet zo goed voor je naam als je high-end kaarten problemen vertonen omdat deze het meest in het nieuws komen.

Het is dus een beetje kiezen tussen twee slechten...
zijn er dan echt nadeelen om het niet unified te ontwerpen?
Ja. :)
Dan heb je een bepaalde hoeveelheid rekenkracht in de een en in de ander. Alleen als de game precies dezelfde verhouding gebruikt wordt de kaart optimaal gebruikt.
Bij een unified ontwerp maakt de verhouding niet uit.
Ik geloof dat het 'probleem' met unified shaders is dat de vertex en pixel pipelines ingrijpen op andere plekken in het render process.
Vertex shading heeft te maken met het transformeren van driehoeken, pixel shading heeft te maken met texturen van de al getransformeerde driehoeken.
Normaal gesproken vinden deze processen onafhankelijk van elkaar plaats.

Bij unified shaders moet je dus meer die-space verbruiken voor de goede afhandelijg van de data (aangezien er 2 type processen door elkaar lopen) maar krijg je winst omdat je met minder pipelines uit de voeten kan.

Ook kan je bij unified shaders een beter balans trekken tussen vertex shaders en pixel shaders (omdat je ze vrij mag indelen) bij het maken van spellen.
Bij gescheiden shaders kan het voorkomen dat je van het ene nog wat over hebt en van het andere tekort komt.
Unified Architekture zou op dit moment grote nadelen hebben.
Op XS is deze discussie er ook geweest en de nadelen die naar voren kwamen waren:
(als het ruwe performence verschill tussen de dx9 kaart en Unified kaart niet groot genoeg is)
Dat in Dx 9 games zon kaart het zou afleggen tegen een goede DX9 kaart zoals de X1900.
Dit omdat de Dx9 games niet zijn gemaakt om gebruik te maken van het unified design.
En er zou Dx9 geemuleert moeten worden.

Dus om nu een Unified kaart op de markt te brengen heb je het voordeel dat over een jaar ofzo als er Dx10 games zijn je het wint van de huidige hardware.
maar tot dat er Dx10 games zijn is de kans groot dat je het qua performence verliest van de goede DX9 kaarten.

Dus simpel, als je nu als bedrijf een Unified Architekture kaart op de markt brengt zal hij in een aardig aantal benches (die dus nog allemaal Dx9 zijn) kunnen verliezen van de Dx9 hardware van de concurent.
Het gaat juist tegen de hele structuur van de chip in, in de tijd van de eerste voodoo waren het nog werkelijk twee chips, 1 Rasteriser en 1 Texture Sampler, later met HWT&L is het vertex gedeelde pas 'echt' tot stand gekomen, maar de barriere is er altijd geweest.

Zelfs ATi heeft de barriere nog niet helaam weg, de R500 heeft dan wel 48 unified shader units, maar die zitten in groepen van 3, en elke groep kan tegelijkertijd of vertex of pixel shaders uitvoeren, een van de 2, dus al die 16 units die erin zitten moeten dan allemaal aan dezelfde soort shader werken.

Het feit dat dat in de R500 zo werkt geeft ook aan, dat het nog niet ZO unified is, en aangezien dat switch meganisme en de nieuwe verbinden binnen de chip (alle shader units moeten bij alle texture units en alle vertex untis kunnen) wel transistoren kosten, en niet al te veel opleveren, kan ik nVidia's beslissing maar al te goed begrijpen.
Het probleem met direct X 10 is dat het niet beschikbaar zal zijn voor windows versies XP en lager. dit betekend dat je als game fabriekant je halve markt verliest op het moment dat je een directX 10 only game maakt. het zal daarom nog wel even duren voordat direct X 10 only games er zullen zijn. maar het is van microsofts kant natuurlijk ook een vrij slimme zet want er hoeft maar 1 "killer" game directx 10 only te zijn en iedereen gaat "vrijwillig" vista draaien.
:) tegen de tijd dat Windows Vista komt zou er voor Windows XP een Dx update komen onder de naam Directx9.0L met deze Dx zou windows XP ook SM4.0 gaan ondersteunen en dus daarmee ook ondersteuning bieden voor Unified Architekture.

of je met Dx9.0L alle opties in een Dx10 game kunt gebruiken is natuurlijk niet helemaal bekend.
Dat gaat niet tegelijkertijd met Vista komen, de volgende Dx versie zal onderdruk van ATi en nVidia eerder dan Vista op de markt komen, juist omdat ATi en nVidia de chips er eerder klaar voor hebben dat dat MS Vista op de markt kan brengen.
Games ondersteunen vaak meer dan één generatie pad.
zoals DX7 DX8.X en 9.

Dus 'n DX10 game kan 'n DX8.1 minimum requierment eventueel onder XP win en optimum onder Vista DX10.
Recommended Dx9/10. XP/Vista.

Dus met je XP X1800XL ding kan je dus ook de meeste eerste DX10 games ook wel kopen en spelen met redelijke fps.
Om even een ander onderwerp aan te snijden wat ermee te maken heeft.
Voor een console denk ik wel dat unified het beste is, er is precies bekend wat het hele systeem is, en met unified kun je dan zelf als gamemaker beslissen wat je meer wilt gebruiken.
Voor een PC is dat anders, er zijn zo veel mogelijke combo's van systemen mogelijk, alleen al in videokaarten is een berg keus, dus is het moeilijker.
Unified heeft dus zeker op fixed-systems een voordeel.
Aan de andere kant, als je nou een non-unfied chippie in je console gooit weet je ook precies wat ie kan, maar daar moet je je dan ook aan houden, en kun je iets dus niet gaan overbelasten, bij een PC zou je in een game dan gewoon je settings lager zetten, bij een console is dat weer lastig natuurlijk.
Je hebt gelijk, als je het tenminste sarcastisch bedoelt had....

Een console staat inderdaad vast, dus weten dev precies met welke verhouding vertex shaders/pixel shader ze te maken krijgen. Unified haalt zoals ik al zei de mogelijkheid tot optimaliseren weg, terwijl die mogelijkheden juist voor de lange levensduur van een console erg belangrijk kan zijn.
Unified haalt niet DE mogelijkheid van optimaliseren weg.
Het haalt EEN mogelijkheid van optimaliseren weg.
En daar zit je dan met je 7800GTX... Iedereen maakt je eerst wijs dattie Vista compatible is, en dan komen ze met deze crap... :P
Alle 7xxx kaarten zijn Vista compatibel, net zoals de ati X18xx en X19xx kaarten. Ze zijn wel niet compliant.
Lijkt erop dat NVIDIA na het FX drama wat terughoudender geworden is met toekomst features in te bouwen.
Ik vind het goed zo. Er zijn toch altijd (meestal negatieve) verrassingen waar ATI/NVIDIA voor komen te staan bij nieuwe implementaties.

NVIDIA zal later dan met 'Unified Shadering done right' komen :Y).
ik vrees dat als de directX 10 games erg veel shaderpower vragen het een beetje een miskleun kan worden ala FX serie of hij moet zo veel meer power hebben dan de R600 anders kan het wel gebeuren dat het hollen of stilstaan word...
ik zet m'n geld op ati

fanboy ben ik niet, ik draai hier met een heerlijke 6800GT!
Hier heb je wel een punt.
Bij de overgang van DX8 naar DX9 ging het helemaal fout bij nVidia doordat ze de FX serie te veel leek op de GF4.
Het is te hopen voor nVidia dat deze conservatieve houding niet nog een keer zal opbreken.
Het voordeel is natuurlijk wel dat de eerst komende twee jaar geen beroep op de DX10 gedaan wordt, eventuele DX10 zwakheden zullen waarschijnlijk niet aan het licht komen.

Zelfs bij de GF7800 blijkt Dynamic Branching (is deel van SM3.0) een zwakte te zijn, echter, geen enkele game die het nu gebruikt.
Het belangrijkte prolbeem bij de FX was niet dat ie te veel leek op een GF4.

Het belangrijkste probleem was dat de R300 die een zuivere DX9 kaart was, NET zo snel was in DX8 spellen.
DAT was het grote probleem.

Als de FX sneller was geweest in DX8.1 en de R300 sneller in DX9 dan was de situatie heel anders geweest. Dan had je moeten afwegen hoeveel "oude" spellen je nog zou spelen en hoeveel "nieuwe" en aan de hand daarvan kiezen voor FX of R300.
Maar nu was de keus simpel. Bij "oude" spellen waren de kaarten gelijkwaardig. En bij de nieuwe spellen was de R300 2x zo snel. Makkelijke keuze.

Als ATI door hun extra ervaring met de Xbox360 nu een unified gpu kan ontwerpen die NET zo snel is als een non-unified gpu bij het draaien van van non-unified code, dan krijgt Nvidia opnieuw een groot probleem.
echte puur dx10 games zullen nog wel een jaar of 2 op zich laten wachten.
het is nu pas zo dat dx9 games echt op gang komen.
verder heb je wel gelijk dat er steeds meer shaders worden gebruikt in games.
Spellen zonder texture lookup zullen nog wel even opzich laten wachten, en tot die tijd zich nVidia dus nog goed.

de nv40 had in princiepe 4x zoveel shaderkracht als de nv30, het feit dat die niet 4x zo hard liep betekent dus dat er ook nog andere bottlenecks aanwezig zijn (geheugenbandbreedte en texture lookups bijvoorbeeld).
Dat zal dan waarschijnlijk betekenen dat Nvidia op de korte termijn het beste zal presteren (eind dit jaar dus) en ATI op de wat langere (de generatie erna).
Zo zullen we ook nog in de toekomst het bekende haasje over zien van de twee bedrijven :)
Waar baseer je die uitspraak op?

Het verleden laat namelijk zien dat dat helemaal niet geval hoeft te zijn.
Kijk naar de Nvidia 5800 vs Radeon 9700.

De 9700 was volledig ontworpen voor DX9, de 5800 voor DX8.1 en in beperkte mate voor DX9.

Toch kon de 9700 de 5800 met gemak aan in DX8.1

Er zijn genoeg scenario's denkbaar waarin een unified design de huidige DX9 code net zo efficient kan verwerken als de huidige designs.
ATI heeft het voordeel dat ze al ervaring met een unified design hebben kunnen opdoen bij de Xbox360. Daarom zullen ze minder koudwatervrees hebben dan Nvidia.

Dat is overigens geen waardeoordeel over één van beide bedrijven. Als je als bedrijf oordeelt dat je een krachtiger gpu kan maken wanneer je het design (nog) niet unified maken, dan moet je dat uiteraard gewoon doen.

Ik denk dat Nvidia overigens een heel andere benadering heeft.
Ze gaan er waarschijnlijk vanuit dat de eerste 6 maand tot een jaar er toch geen DX10 spellen uit komen. (of heel weinig). En als je dus toch allemaal non-unified DX9 code gaat draaien, waarom zou je dan al een unified design maken?
In de volgende videogeneratie (dus volgend jaar) komen ze dan wel met een unified design.
De 5800 was volledig ontworpen voor DX9, echter, gewoon NIET GOED, ze hadden te weinig shader units, door de indeling met 4 pipeline en 1 shader units per pipeline. Of een shader nu DX9 of DX8 is, als je meer of snelere shader units hebt, gaat het gewoon sneller, bij DX8.1 waren destijds alleen niet vaak de shaders een bottleneck.
Dat herinner je je dan toch verkeerd.
De 5800 had genoeg shader units. (4x2)
Het probleem was echter dat niet alle shader units floating point units waren. Daarom waren ze dus niet allemaal in te zetten voor DX9 code. De integer units waren alleen voor DX8.1 en lagere code te gebruiken.

Dat betekent meteen dat je dus bij DX9 code een enorme achterstand had tov een kaart waarbij alle units geschikt waren voor DX9. (zoals de R300). Bij DX8.1 code was die achterstand er niet.
En dat is dan ook precies wat je toen in de spellen zag gebeuren.

Dan kun je dan een slecht DX9 ontwerp noemen, maar in werkelijkheid is het gewoon een bewuste ontwerp keuze geweest om maar een gedeelte van de shaders voor DX9 geschik te maken.
Als een kaart maar ten dele geschikt is voor DX9 dan kun je naar mijn mening niet meer stellen dat een kaart volledig ontworpen is voor DX9. Daarom noem ik het dus een kaart die ontworpen is voor DX8.1 (waarin ie zijn volle kracht kon gebruiken) met beperkte DX9 functionaliteit.
Dat waren Texture lookup units...

Jij beschrijft de NV37?(FX5700), niet de NV30, die was eigenlijk nog triester, die had een 4x1 design waarvan slechts de helft DX9 shaders kunnen uitvoeren.

NV30 en NV35 hadden beide 4 pixel pipeline met per pipeline 2 texture units en 1 shader unit. De shader units was zo slechts nog niet, alleen gebouwd op de nooit gebruikte PS2.0a standaard, en met gebrek voor FP24.
Het enige wat dit betekent is dat nVidia voorlopig geen zin heeft om te investeren in het ontwerpen van Unified Shader hardware.
Softshadows in FEAR leveren ROP bottlenecks op (iets vrij zeldzaams), de X1900 heeft maar 16 ROP, evenals de X1800(XT), de X800XT(PE), 6800GT en Ultra, 7800GTX...
Ja maar het gaat hem ff niet over de softshadows, dat kan geen enkele kaart momenteel aan, het gaat erom dat ATI beter presteert in games met veel shaders.
Zonder softshadows draait het best aardig...overal op....en het gaat mij erom dat blijkbaar shader performance juist in het voorbeeld wat hij aanhaalt NIET de bottleneck is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True