Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: The Inquirer, submitter: FFWD

De heren van The Inquirer zeggen het grootste geheim rond ATi's nieuwste GPU, de R420, ontrafeld te hebben. Het aantal pipelines dat de chip zou bevatten is lange tijd geheim gehouden, maar volgens The Inquirer bevat het ontwerp er zestien waarvan er in eerste instantie twaalf ook werkelijk gebruikt zullen worden. Het lijkt erop dat de R420 een zwaar aangepaste R360 is; er zijn een aantal pipelines toegevoegd en de chip wordt gemaakt volgens het 130nm-procédé, waardoor de kloksnelheid weer een stukje omhoog kan. De core van de snelste exemplaren zal waarschijnlijk op 500MHz draaien en het geheugen op 1GHz. De NV40 van nVidia zal zestien pipelines hebben, dus het blijft onzeker welke van de twee chips straks als snelste uit de bus komt.

ATi R420 core
Moderatie-faq Wijzig weergave

Reacties (45)

...De NV40 van nVidia zal zestien pipelines hebben, dus het blijft onzeker welke van de twee chips straks als snelste uit de bus komt...

Alsof je op basis van specificaties kan voorspellen of de ene grafische chip sneller is dan de andere. Volgens mij hebben een aantal mensen zich daar in het verleden al in vergist. Specificaties zijn leuk, maar of het uiteindelijk ook snel(ler) werkt (dan de concurrent) blijft altijd afwachten.
Je kan ook een formule1 motor met 900pk in een cinquecento hijsen... Maar dan istie nog niet net zo snel als die formule 1 auto...
Je kan ook een formule1 motor met 900pk in een cinquecento hijsen... Maar dan istie nog niet net zo snel als die formule 1 auto...
Maar als je het motorblok van een cinquecento in een formule 1 auto zet, dan weet je wel gelijk hoe snel die formule 1 auto is ;)

Dat zelfde principe kan je in dit geval ook toepassen. Meer pipelines heeft potentieelmeer prestatie tot gevolg. Zonder het uitbreiden van het aantal pipelines wordt het erg moeilijk om de prestatie van een core te verhogen. Je kan de snelheid van de core wel verhogen, of andere trucjes toepassen zoals pixel en vertex shaders, maar met zo'n aanpassing bereik je (potentieel) lang niet zo veel als met het toevoegen van een aantal pipelines.

Overigens een interessant detail dat er, volgens deze geruchten, slecht 12 van de maximale 16 pipelines worden gebruikt. Dit kan namelijk betekenen dat Ati moeilijkheden heeft met de productie van de chips (yields). De overstap van 150nm naar 130nm zou hiervan de oorzaak kunnen zijn. Ati heeft al eerder 130nm gebruikt (Radeon 9600 serie), maar dat waren allemaal RV chips. Het is nu voor het eerst dan Ati zich op 130nm waagt met de topmodellen, de Rxxx series.

Het kan echter ook zijn dat INQ het hier over een Pro versie heeft. In het artikel noemt de schrijver hierover al het een en ander, maar het is mij niet helemaal duidelijk op welke versie de 12 pipelines betrekking heeft. Indien het hier over een Pro versie gaat, dan zou dit nogmaals kunnen bevestigen dat Ati problemen heeft met die yields. Ati kan dan immers op een later tijdstip (wanneer de yields het toelaten) een XT uitbrengen die wel de maximale 16 pipelines gebruikt.
Alsof je op basis van specificaties kan voorspellen of de ene grafische chip sneller is dan de andere. Volgens mij hebben een aantal mensen zich daar in het verleden al in vergist.
Specificaties geven niet alleen aan wat potentieel te prestaties van een product zijn, maar het geeft ook aan waartoe de producent in staat is. nVidia gebruikt al sinds de eerste GeForceFX videokaarten 130nm, en wellicht dat de NV45 op 110 wordt gebakken.

Ati stapt daarentegen nog maar net over op 130nm. Ze hebben weliswaar ervaring met 130nm, maar het is aannemelijk dat nVidia de eerste zal zijn die 110nm zal gaan gebruiken.
Het werkt heel simpel, ze maken chips met 16 pipelines, en elke chip die meer dan 11 werkende pipelines heeft krijgt een pass stempel. Dit hoeft niet zozeer aan te geven dat ze problemen hebben, dit is gewoon een strategie om lage yields te beperken. Later in de produktcycle kan dan nog voor een pro/ultra oid versie gekozen worden door chips die 16 werkende pipelines hebben te verkopen als een snellere kaart. Je moet het vergelijken met Intel's celerons, dat zijn ook gewoon P4's die of gekortwiekd zijn om aan de marktvraag te voldoen of gewoon een lading mislukte cache hebben.
En er is nog een mogelijkheid. De kloksnelheid van de chip is pas na produktie bekend. Als je nu de pijplijnen doormeet en de traagste 4 uitschakelt, kun je de kloksnelheid opvoeren.
Overigens een interessant detail dat er, volgens deze geruchten, slecht 12 van de maximale 16 pipelines worden gebruikt. Dit kan namelijk betekenen dat Ati moeilijkheden heeft met de productie van de chips (yields)

....

Indien het hier over een Pro versie gaat, dan zou dit nogmaals kunnen bevestigen dat Ati problemen heeft met die yields
Er is nog een andere mogelijkheid. De R420 heeft zoals het er nu naar uit ziet 6 vertexshader-units. Als deze uit het originele R400 zijn overgeheveld dan zouden deze wel eens heel erg krachtig kunnen zijn... Het zou dan zelfs mogelijk kunnen zijn dat de R420 maar 12 pixelpipes heeft, maar dat die VS-units gebruikt kunnen worden als pixelpipelines, waardoor het in bepaalde gevallen op 16 pipes uit komt.
Ati stapt daarentegen nog maar net over op 130nm. Ze hebben weliswaar ervaring met 130nm, maar het is aannemelijk dat nVidia de eerste zal zijn die 110nm zal gaan gebruiken.
Volgens een ATi-conferencecall van nog niet zo lang geleden heeft ATi al 0.11u chips gesampled en zijn ze nu aan het finetunen (waarschijnlijk de low-end RV351/RV370 of hoe het ook mag heten). Dus ik zou er nog niet zo zeker van zijn dat nVidia de eerste is op 0.11u.
De R9600 serie was ook 0.13µ maar dat was maar een simpel 4 pipline chippie 16 is heel wat anders dus op zig vind ik het erg netjes als ze er dan 12 werkend hebben de rest komt wel. De 9800 se waren vaak ook R350 cores die defecte pipelines hadden. De mensen zijden dan wel dat ze een goede softmod hadden maar tot nu toe bij elke 9800 se heb ik nog wel dingen in het beeld kunnen vinden die niet klopte klein wel eens waar maar toch defect :)
En meer pipelines hoeven helemaal niet betekenen dat iets sneller wordt. Als je meer pipelines neemt wordt de rompslomp er omheen ook veel groter. Je hebt namelijk een veel betere maar vooral ingewikkeldere branchprediction nodig. En daarnaast is natuurlijk ook de lengte van de pipelines van belang.
Nee hoor: branchprediction heeft helemaal niets met het aantal pipelines te maken; hooguit de lengte van die pipelines heeft invloed op de snelheid ivm misprediction. Maar een groter aantal pipelines kan juist bij misprediction een uitkomst bieden, door bijvoorbeeld threads die vaak mispredict worden dubbel uit te laten voeren.
Je kunt wel een discussie gaan voeren over branch prediction, maar dat is absoluut niet van toepassing. Het is leuk dat je gehoord hebt van het fenomeen en het belang hiervan in CPU's maar het gaat hier om GPU's en deze werken grotendeels volgens een (instelbaar) vast patroon. Pas met de komst van de pixel en vertex shaders krijgen we structuren, die enigszins op die van een cpu lijken, te krijgen maar deze zijn nog zeer eenvoudig en hebben nog niet/nauwelijks te maken met branches dus ook geen branch prediction. Wat nog steeds het meest belangrijk en getest is is de ruwe rekenkracht zonder shaders, waar meer pipelines ook meer snelheid betekent mits er voldoende bandbreedte is. Dus zelfs al zou branch prediction voor de shaders wel van belang zijn dan zie je dit alleen terug in geavanceerde shaders met directx 9. Wat nog steeds relatief weinig word toegepast.

[PS] Mac D. leuke theorie van je, maar ook jij hebt niet gelijk. In de huidige CPU's en dan heb ik het niet eens meer over GPU's, is het absoluut niet het geval dat elke thread op een eigen pipeline draait. Een dergelijke structuur is licht aanwezig in de vorm van hyperthreading, maar is niet zo simpel uit te leggen. Zo'n strategie zou een CPU zeer complex maken en zou alleen nuttig zijn als je je aantal pipelines veel overdimensioneert, zonder je datastroom te verbreden.
Dat verhaal met prediction....

Pipelines zijn bedoeld om zoveel mogelijk pixels uit een texture te halen per clock. Als de polygoon waarop de texture gerenderd moet worden groot genoeg is om alle pipelines te vullen dan geeft dat een flinke versnelling. Problemen blijf je dan houden bij randen en hoeken van polygonen. Daar loop je het risico dat je pipelines verspeelt, omdat onvoldoende pixels beschikbaar zijn. Ik weet niet hoe nVidia het opgelost heeft maar het is nog altijd zo geweest dat pixelpipelines in een vaste configuratie werken. Vorig jaar op de Cebit vertelden ze mij dat zij verschillende polygonen tegelijk in een enkele clock kunnen renderen. Nu twijfel ik aan de geloofwaardigheid daarvan. Omdat ik bijna zeker weet dat dat problemen gaat geven met het adresseren. En daarom doet/kan ATI dat niet...
Bijvoorbeeld voor 8 pipes

XXXX
XXXX

Nu is het zo dat heel veel single textures in een game gemapped worden op grote polygonen (lucht en muren) Dat maakt veel pipelines wel heel snel.
/edit vorige stuk vervangen het gaat over hetzelfde maar

verstaanbaar uitgelegd
je kunt maar 8 pixels per clock afwerken maar intern werk je aan meer dan 8 (vooral bij pixel shaders die intern multi passen met een soort f-buffer) + het feit dat de R3xx een verschillende mini-verwerkingseenheden heeft die vooral voor het verwerken van - ps1.4 en minder - , geschikt is.
En dan nog te vergeten te noemen dat drivers een zeer belangrijke rol spelen. Men zegt de hardware is 50% en de drivers zijn de andere 50%.

Dus lijkt me meer dan logisch om ook goed aandacht te besteden aan de drivers.
Ongelooflijk dat die mythe blijft bestaan, ondanks alle gebeurtenissen in de afgelopen twee jaar....

Bij een goed ontworpen GPU spelen de drivers geen doorslaggevende rol voor de snelheid.
Is zo langzamerhand wel duidelijk geworden dat de steeds hogere prestaties bij nieuwe drivers voor het grootste gedeelte alleen door verminderen van beeldkwaliteit of regelrechte cheating werd bereikt.
Als je deze factoren weghaalt, blijft de prestatie gelijk. Logisch, want de driver fungeert alleen als doorgeef station, en doet zelf heel weinig.
Die logische volgorde is het PR verhaaltje dat NVidia ophangt. Slechts in zeeeeer beperkte situaties helpt dat flink (zie alle benchmarks). Maar als overall resultaat komt daar nog steeds maar een 5% uit. De rest kwam wederom aantoonbaar uit cheats.

En die winst vanwege veranderen van de volgorde geldt dus alleen voor deze zeer onhandig ontworpen GPU die gevoelig is voor volgorde. Voor alle overige GPU's, (inclusief voorgaande NVidia's) doet die volgorde verschrikkelijk weinig.

Uiteraard kunnen er wel grote prestatie verschillen komen als er bugs worden opgelost. Maar dat is dus niet regulier.
En verder worden er verschrikkelijk veel bugs in spellen opgelost met workarounds in de drivers. Dat is natuurlijk de omgekeerde wereld, maar wel de realiteit. Dat levert natuurlijk ook een groot effect, maar wederom, dat heeft met de prestatie van de kaart+driver alszodanig weinig te maken.

Drivers zijn verschrikkelijk belangrijk, maar niet voor de prestaties van het systeem. (bugs buitengesloten)
Ga maar eens zeer goed naar de prestaties van drivers van het afgelopen jaar kijken waarbij alle cheats en beeldkwaliteit verminderingen worden verdisconteert. Dan zie je slechts enkele procenten winst. Ongeacht of je bij NVidia, ATI of een ander kijkt.
Volgens mij is de grootste optimalisatie die drivers bereikt wordt, het omzetten van DirectX of OpenGL instructies in een logische volgorde voor de HW.
En daar is wel degelijk snelheidswinst mee te behalen. (Gok dit toch zeker wel 30%).
Een nadeel van deze nuttige optimilisatie, is dat GPU fabrikanten in het verleden, ook dingen zijn gaan weglaten om beter uit te bus te komen bij een benchmark. Dit valt ook niet onder optimilisatie, dat is idd cheaten.
Dus goede drivers zijn net zo belangrijk als goede HW.
Ongelooflijk dat die mythe blijft bestaan, ondanks alle gebeurtenissen in de afgelopen twee jaar....

Bij een goed ontworpen GPU spelen de drivers geen doorslaggevende rol voor de snelheid.
Volgens mij heb jij geen idee waarover je praat... |:(
Ik heb zelf een ATi 9600XT kaartje en draai als OS Linux
Zonder driver haal je een verschrikkelijke performance: ongeveer 3 tot 5% van wat de kaart in zich heeft(!!!).
Met driver haal je nog steeds geen 100% maar toch wel 60 a 70%... en ja ATi Linux drivers zijn amateuristisch slecht |:(
offtopic:
[quote]
Je kan ook een formule1 motor met 900pk in een cinquecento hijsen... Maar dan istie nog niet net zo snel als die formule 1 auto...
[/quote]
De aërodynamische weerstand van een Formule 1 is vele malen groter dan die van een Cinquecento. Die Cinquecento zou dus wel eens sneller kunnen zijn ;)
Got to Have One of Those :P
Ik ben er al freakin' lang op aan het wachten, maar nu staat het toch eindelijk voor de deur.

Ik wacht met smart op de eerste benches en reviews van een aantal R420's ... vergeleken met NV40's ... want tja ... laten we eerlijk zijn ... ik wil wel graag Ati (for a change) maar NVidia kan ook in eens erg hard uit de bocht komen in deze (zover we kunnen zien) nek aan nek race in the Battle of the GPU's

edit:
ik lees in eens ... "it will use GDDR 3 memory" ... dat lijkt me toch ook een stevig voordeel voor Ati als NVidia deze niet direct zal gebruiken. Minder hitte, lagere latency dan DDR2 en draait even eenvoudig als DDR2 op hoge frequenties.
Zowel NV40 als R420 zullen GDDR3 gebruiken.
ik lees in eens ... "it will use GDDR 3 memory" ... dat lijkt me toch ook een stevig voordeel voor Ati als NVidia deze niet direct zal gebruiken. Minder hitte, lagere latency dan DDR2 en draait even eenvoudig als DDR2 op hoge frequenties
Dan zijn allemaal voordelen, ben ik met je eens, maar wanneer het te duur is, of niet op tijd klaar of noem maar op andere genoeg redenen, dan kan me voorstellen dat men wacht. Pentium en RDRAM dat zeijn we toch niet vergeten ;)
Ach ja, voor mij blijft ATi nog steeds beter, ook al zullen ze misschien minder pipelines gaan hebben dan de nieuwe nVidia chip. ATi is gewoon een ster in AA en FSAA. Daar kan nVidia nog steeds niet tegen op. Mijn gok is dan ook dat ATi wederom beter uit de bus zal komen. Ook is ATi beter in drivers vind ik, want ze brengen sowieso maandelijks nieuwe drivers met fixes uit (ook fixes voor oudere games). nVidia is helaas minder daarin, zij zouden tot op heden nooit durven toegeven dat er iets niet helemaal klopte aan hun drivers waardoor een game niet soepel zou lopen. ATi is gelukkig veel sterker daarin, want zij werken letterlijk samen met de maatschappij die de game ontwikkeld heeft om tot een oplossing te komen.

Ik zeg hiermee overigens niet dat ik niet geloof dat nVidia goede chips zal uitbrengen, maar mijn gok blijft dat de chip van ATi (zeker wat AA en FSAA betreft) sterker en sneller zal zijn.

Voorlopig ben ik in ieder geval heel tevreden met mijn Sapphire RadeOn 9800 Pro. Die trekt nog altijd heel veel en doet zijn werk prima.
Ik hoor toch minder probs over nvidia driver hoor. Zal wel aan mij liggen anders :7
Je hebt dus echt geen idee waar je het over hebt he. Ja ATI is beter dan Nvidia whaaah. Heb je wel eens een Nvidia kaart in handen gehad. Heb je wel eens de driver gedownload van Nvidia. Nee, kijk hier dan eens, http://download.nvidia.com/Windows/56.64/ForceWare_Release_55_Graphics _Drivers_Release_Notes_v56.64.pdf , zijn de releasenotes van de drivers. Worden bekende problemen aangegeven en problemen opgelost. Ga dus niet zomaar een kaartje ophemelen omdat deze een paar keer boven aan de ranglijsten heeft gestaan, dat heeft die andere kaart namelijk ook een paar keer gedaan.
Zelf heb ik ook een kaartje van ATI en die doet gewoon zijn werk, als ik erachter kom dat de volgende generatie Nvidia beter is, dan gaat ATI gewoon de deur uit, nadat deze is afgeschreven natuurlijk, +- 18 maanden nog :(
Leuk al die zogenaamde feiten van de inquirer...
Meestal pure roddels. En als het al eens een keer 'klopt' in de zin dat het daadwerkelijk van de fabrikant komt, dan moet je je alsnog achter de oren krabben of het wel klopt. We zijn toch niet de claims van NVidia vergeten over het aantal pipelines van de NV3x? Bleek ook marketing praat te zijn die niet met de werkelijkheid overeen kwam.

Laten we nou maar gewoon wachten totdat ze daadwerkelijk uit zijn. Voorlopig laten NVidia en ATI allebei niet het achterste van hun tong zien.
In dit geval geef ik de inq wat meer crediet want het nvidia 16 pijpes gerucht blijkt ook te kloppen, een dat gerucht werd door de Inq in gang gezet. Fudo mag beginnen lekken want het doet er nu niet meer toe.
Volgens mij gaan ze straks een verhaal opdissen over een Sis chip met 64 pipelines.
The Inquirer zegt dat niet genoeg....
Maar nu we toch mee aan het speculeren gaan : nVidia staat bekend om zijn driver devisie. Wat niet wegneemt dat ATI iets aan het toeval zal overlaten. nVidia heeft 16 pipelines, deze komt misschien met maar 12 van de 16 voorziene,....
Kortom : reden te meer om de kat uit de boom te kijken. Als we dan toch bezig zijn kunnen we misschien ook eens denken met welke gadgets andere spelers komen. Matrox heeft beloofd de langverwachte opvolger van Parhelia (eigenlijk voorzien voor Q3 03) toch nog op de markt te brengen voor ze met een PCI-express chip komen. SIS of Via komen misschien ook nog met iets fenomenaal. Misschien heeft the Inquirer wel roadmaps tem het jaar 5000 klaar liggen.
]volgens The Inquirer bevat het ontwerp er zestien waarvan er in eerste instantie twaalf ook werkelijk gebruikt zullen worden
misschien kunnen ze er een 12x1,33 ontwerp van maken om het niet nodeloos ingewikkeld te maken :+
De r420 is toch juist een heel ander ontwerp dan de 360? volgens mij zijn ze daar bij the inquiery weer eens wat aan het zeggen wat totaal niet waar is.
Ik denk dat dit erg goed is voor ons tweakers dan. Voor deze core zal namelijk een hele reeks kaarten uitkomen waar van bij sommige de pipelines zijn uitgeschakeld (een paar). Dan krijg je hopenlijk dezelfde situatie als bij de 9800se die modbaar is naar een 9800np via de pipelines open zetten.

Ik kan niet wachten tot ze de markt op geschopt worden.
Dit gerucht is echt Koel! (cool) 8-)

Nu de chips zelf nog... :+

Hetgeen suggereerd dat ik benieuwd ben naar de temps en de koel oplossingen van beide chips producenten.
Meer opp. betekend vaak ook meer hitte en dat betekend weer grote koellichamen.
Zal je zien dat Nvidia weer net zo snel is maar een mega cooler heeft in tegenstelling tot Ati!
das waar maar die Nvidia koelers zijn wel van lekkere kwaliteit en de koeler die op de 9800 zit nie.
blijkt maar uit het feit dat de meeste mensen hem eraf halen.

vind de nvidias ook niet zo lawaaierig als veel mensen zeggen.
behalve de 5800 dan.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True