Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: The Inquirer, submitter: XWB

ATi logo (kleiner)The Inquirer heeft op geheel eigen wijze weer de hand weten te leggen op informatie over ATi's R520, codenaam Fudo. De grafische chip zal beschikken over 16 pipelines, lager dan het aantal van 24 pipelines dat eerder door medewerkers van ATi was vrijgegeven. Sommige chips uit de R520-serie zullen hun werk doen op een snelheid van 700MHz en mogelijk zelfs op 800MHz; een vereiste voor deze laatste snelheid is dat de yields goed genoeg zijn, iets wat vooralsnog niet het geval is. Overclockers zullen hier echter gebruik van kunnen maken, doordat een hogere snelheid dan 700MHz in veel gevallen dus mogelijk zal zijn. De lancering van de kaart zal begin oktober plaatsvinden, zo is de verwachting. De performance van Fudo zal vergelijkbaar zijn met nVidia's GeForce 7800GTX, maar precieze vergelijkingsdata hierover is nog niet beschikbaar.

Moderatie-faq Wijzig weergave

Reacties (43)

dit is dus anders dan verwacht, waarom stappen ze niet ook over op 24 pipes? heel veel mensen zullen nu denken dat ze niet in staat zijn om nvidia te volgen...
ben wel eens erg benieuwd naar de prestaties. én naar de warmteproductie, die zal er vast ook niet om liegen...
misschien is dit ook zo

toen nVidia de chip voor de xbox maakte was hun volgende generatie chips (Geforce5) rommel, waarschijnlijk door een gebrek aan tijd

nu is Ati bezig voor de Xbox2 EN de N Revolution, dus de kans is groot dat ze wat vertraging hebben gehad hierdoor en features hebben geschrapt
De nVidia chip in de XBox is een opgefokte GeForce3-achtige. De generatie hierop volgende was toch de GeForce4, en dit vond ik echt wel een vette chip... Een 4600 Ti draait de meeste games nog steeds als een idioot.

Maar goed, misschien is ATI misschien een beetje te druk met al die chips. Maar laten we eerst maar eens wachten op een release, want al die geruchten zeggen me niks meer.
- off topic -

De xbox GPU is gebaseerd op de NV20 famile en kreeg de code naam NV2A.

http://www.activewin.com/faq/x-box.shtml
http://www.dealtime.co.uk/xPR-Microsoft_Xbox~RD-21513080452
demoisec heeft het bij het juiste eind, het is een GeForce drie-en-een-half genaamd NV2A, tussen de GeForce 3(nv20) en 4(nv25) zit kwa features weinig verschil, van SM1.1 naar 1.3, maar geen extensions zijn toegevoegd, het was gewoon een hele snelle chip.

In chronologische volgorde, GeForce 3 - Xbox chip - GeForce 4.
Nonsens de xbox chip is een NV 30 (dus na de NV 25 chip die voor de G4serie is gebruikt). Die NV 30 chip is de blueprint geweest voor de telleurstellende FX serie (telleurstellend door al zn delays natuurlijk).
De Xbox Chip was zéker geen NV30 (FX) hoor :) Dit was zoals pink667 aangaf, een Geforce2/3, volgens mij een GeForce2 qua architectuur, en had hij wel enkele van de directx8 instructies van de GeForce3 bij zich. Maar iig zeker geen NV30!
Je reageert nu net als de normale consument een paar jaar geleden bij een AMD op 1.6GHz en een Intel op 2.0GHz:

"Die van Intel heeft meer MHz en is dus sneller"

ATi heeft deze generatie juist geprobeerd in plaats van méér pipelines, de pipelines effectiever te maken. Uit benchmarks zal snel genoeg blijken of dat wel of niet gelukt is, en mochten ze in benchmarks dezelfde prestaties als NVidia neerzetten, dan zal denk ik niemand denken dat ze NVidia níet kunnen bijbenen.

Daarbij komt ook nog eens dat het van de Inquirer komt, dus ik zou er niet al te veel aandacht aan schenken ;) De verwachting is nog steeds dat ze met 24 pipelines komen.
Wel gaat deze kaart een pak later uitkomen dan de 7800GTX, dus ook al evenaren de prestaties van de R520 de prestaties van de 7800GTX, dan nog hebben ze NVidia nog niet bijgebeend vanwege de vertraging. Om te kunnen concureren met NVidia, zal de R520 al beter moeten presteren...
De kaart zal wel sneller zijn dan de GTX anders heeft het geen nut van ze uit te brengen. Of ze sneller zal zijn dan de 7800 ultra betwijfel ik.
De pipes van de R520 zullen niet veel sneller zijn dan de die van de GTX. De lager geklokte 6800u kon ook goed mee met de X800XT PE ondanks gelijke pipes en lagere kloksnelheden. De reden is dat de nvidia pipes effectiever waren. Dit draai je niet zomaar om zeker omdat de GTX nog eens geavanceerdere pipes gekregen heeft.
Het gaat hier over kloksnelheid. De kloksnelheid van de ATi chip is zo hoog dat het best zonder die extra 8 pipes kan. Negative kanten zijn natuurlijk de voorspelde slechte yields en de warmteontwikkeling.
Het komt wel vaker voor dat de geruchten van The Inquirer niet kloppen en dat idee heb ik hierbij ook weer.
Maarja, als dit waar zou zijn zou ik het erg zonde vinden aangezien de X800 ook al 16 pipeline's had.
Zoals ik op de reactie onder jou al zeg, het gaat niet om hoeveel pipelines, maar om hoe effectief die zijn. Op allerhande techfora kun je lezen dat ATi probeert meer instructies door een pipeline te proppen, wat dus bij een gelijk aantal pipelines tot betere prestaties zal leiden.

Vergelijk het met Intel en AMD (dan heb ik het wel over de oude P4's van Intel): Op gelijke kloksnelheid presteerde een Athlon veel beter dan de P4.
Het gaat hier niet hoe effectief de pipes zijn, maar hoe hoog de kloksnelheden liggen. Dat is het voordeel van de R520.

Ik wil hier nog effe aan toe voegen dat de G70 24 pipes heeft maar ook slechts 16 ROPS. Dit betekent dat de kaart maximum 16 operaties per klokcycle kan doen.
De R520 heeft ook 16 ROPS en kan dus net evenveel doen per clockcycle, het verschil is dat kloksnelheid hoger ligt, en er dus meer operaties pers seconde door de ROPS kunnen afgewerkt worden in vergelijking met de G70.
jah idd de Inquirer altijd te zwetsen, maar ik denk dat ze gewoon ook 24 pipelines er in pleuren en die allemaal optimaliseeren. maar ATI was toch ook met een nieuwe technologie bezig iets met vertex shaders en de pipelines?
Ja, dat is de Unified Shader Architecture. In plaats van dat ze 16 pipelines hebben die allemaal verschillende taken doen, hebben ze nu 16 pipelines die allemaal dezelfde taken kunnen doen. Dat betekent dat meer pipelines tegelijk kunnen werken en dus betere prestaties. Daarom houden ze waarschijnlijk 16 pipelines, want ze presteren per stuk toch veel beter.
Hij 16 pipelines worden in dat geval voor zowel vertex als pixel shaders gebruikt, als je op die manier gaat tellen hebben NV40 en R420 22 pipelines........en die presteren door hun optimalisatie clock/clock ook nog beter ook, onder ideale omstandigheden.
jah idd de Inquirer altijd te zwetsen, maar ik denk dat ze gewoon ook 24 pipelines er in pleuren en die allemaal optimaliseeren. maar ATI was toch ook met een nieuwe technologie bezig iets met vertex shaders en de pipelines?
@ potjeb

Ik geloof dat ze iets hadden dat die dingen zowel als vertex of pixel dinge gebruikt konden worden (ben ff naam kwijt van hoe ze die techniek noemde ff googelen)
Je doelt waarschijnlijk op een unified architecture.

Om het heel simpel uit te leggen:
De pixel shaders bepalen de kleuren van de pixels, en de vertex shaders de vormen (coordinaten) van de objecten.

Maar soms is het voor de kleur van een pixel wel handig om ook de vorm te weten, of andersom. In zulke situaties wil je eigenlijk de berekeningen van pixel en vertex shaders combineren. Dus de functies samenvoegen in 1 shader. Vandaar de naam "unified architecture" voor een ontwerp waarbij er in een pipeline zowel vertex als pixel functies in dezelfde shader uitgevoerd kunnen worden.

Maar de meeste geruchten gaan er vanuit dat de R520 dat nog niet zal hebben, en dat die unified architecture voor de desktop er met de R6xx serie gaat komen. (Tegelijkertijd met WGF2 dat ook uitgaat van unified shaders)
Een unified architecture heeft niet meteen invloed op de functionaliteit. De vertex en pixel shaders zijn nog steeds apart en hebben dezelfde beperkingen (voor DirectX 9).

De elementaire bewerkingen die een vertex of pixel pijplijn kan uitvoeren zijn echter zeer overlappend (vectorbewerkingen). Dus kan het nuttig zijn om in plaats van afzonderlijke units te hebben voor vertex en pixel shaders, deze te unificeren. Afhankelijk van de shadercode kan elke unit dus vertices of pixels verwerken, in plaats van slechts één van de twee.

Op deze manier verhoog je de efficientie omdat bij een gedeelde architectuur -altijd- ofwel de vertex pijplijnen ofwel de pixel pijplijnen niet volledig gevuld zijn. Met een unified architectuur kan elke unit vertex of pixel shaders uitvoeren en dus altijd nuttig bezig zijn.

Het blijft dus zowiezo twee shaders (software), één voor vertices en één voor pixels, het is de hardware die geunificeerd wordt.
Als je oude DX9 code uitvoert die aparte vertex en pixel shaders heeft, dan worden die uiteraard ook apart uitgevoerd in een stuk hardware met unified architecture. Het voordeel is dan efficientie van de hardware.

Vandaar dat iedereen ook verwacht dat dat een unified architecture tegelijkertijd met WGF2 komt. Die API gaat uit van een UA, en daardoor heb je dan wel extra functionaliteit.

Het is dus zeker niet zo dat alleen de hardware geunificeerd wordt.
Ik durf er toch veel geld op zetten dat dit waar is. We zijn vlakbij de launch van de kaart dus zo'n dingen kun je niet verborgen houden.
ik heb het gerucht over 16 pipelines en een hogere kloksnelheid al verschillende malen horen waaien, dus ik vermoed dat er wel iets van weer is.

Ook, iedere pipeline zou meer berekeningen aankunnen dan tot nu toe mogelijk was.

Hoe dan ook, ik twijfel er geen moment aan dat de kaart flink zal presteren, en ik zie in de toekomst no wel een kaart die op 1Ghz draait
Ze hebben als het goed is iets uitgehaald met die ALU's, nVidia gebruik al een tijdje 2 ALU's per shader unit, misschien dat ATi hierin nog verder zal gaan, om in ieder geval shader performance hoog genoeg te gaan houden.
Je kan wel extra ALUs toevoegen maar of dit op een efficiente wijze de performantie verhoogt is niet zeker. Per klokcyclus kan je wel meerdere instructies uitvoeren, maar die moeten dan onafhankelijk zijn. Dus instructies die afhangen van resultaten van vorige instructies kunnen niet in parallel lopen.

Als we even kijken naar CPUs dan zie je dat het parallelisme bijna nooit hoger ligt dan twee instructies per klockcyclus (en dat met geavanceerde out-of-order uitvoering). Voor een GPU ligt dit waarschijnlijk niet veel anders.

Vermoedelijk is het dus efficienter om extra pijplijnen toe te voegen (pijplijnen onderling hebben geen afhankelijkheden) dan om meer instructies door dezelfde pijplijn te proberen jagen (creëert ook een hele boel extra complexiteit in verband met toevoer van data).

Ik gok dan ook dat ze ten hoogste het parallelisme van de G70 zullen evenaren en de rest van de performantiewinst uit de hoge kloksnelheid moeten halen.
nVidia's ontwerp maakt hier al een beetje gebruik van, hij kan gewoon 2 keer zo nsel shaders uitvoeren, zonder de hele pipeline eromheen te bouwen, ik zie hier tot op zekere hoogte toch nog wel wat snelheid in schuilen.
Vind het maar een vaag gerucht.

Als het zo is dan maakt ATI toch gewoon een denkfout?

Mooi dat je kaart even snel is met een 16pipeline ipv 24, maar zou toch dan zo wie zo gaan voor 24 en de 7800GTX dik verslaan zodat je ook een kans maakt tegen de Ultra.

Mocht dit waar zijn dan moeten ze alles in het werk gaan stellen om te zorgen dat ze de 800mhz gaan halen....

Nog steeds te vroeg om te oordelen dus....
Men vertelt wel eens dat nvidia de R520 heel hard vreesde. Ze wisten waarschijnlijk wel dat de R520 maar 16 pipes zou hebben. Daarom dat ze de opvolger van de NV40, de NV50 (16 pipes) gecancelled hebben. Ze zijn dan een een 24 pipe GTX begonnen om zeker te zijn. Hiervan is ATI natuurlijk geschrokken zodat ze heel hoge kloks op de R520 moesten halen, met de bekende respins tot gevolg.
Dit alles is maar een verhaal natuurlijk (ergens op b3d gelezen) maar kan net zo goed kloppen als wat de inq schrijft.
De G70 is een NV47, waarom ze de NV50 gecanned hebben heeft volgens mij weinig met performance te maken, maar ik dacht toch echt dat die nog wat sneller zou moeten zijn.
NV47 was ook 'gecanceld': http://www.theinquirer.net/?article=20250 Uiteindelijk was dat een spelletje van The Inquirer omdat het gewoon hernoemd was naar G70.

Vermoedelijk is NV50 dus ook gewoon G80 geworden. Of met al de extra tijd die ze nu gehad hebben wordt de G80 een opvolger (maar toch directe afstammeling) van de NV50. Een hele generatie overslaan zie ik niet gebeuren.

What's in a name? Uiteindelijk weten we toch niks...
Vergeet niet dat er sterke geruchten zijn dat nVidia het antwoord op de R520 al op de plank heeft liggen: een 7800 die zowel hoger geklokt is als een hogere snelheid zal krijgen; tusen de 600 en 800mhz en 32 pipeline: De ULTRA. Daar kan een 16 pipeline product niet tegenop. Punt. nVidia loopt nu gewoon voor op ATI: ze waren de eerste met SLI, eerste met een lancering met voledige beschikbaarheid van de 6xxx serie en zullen straks na introductie van de R520 weer de performance lead op zich nemen met de 7800 ULTRA. Zelfs de R580 zal moeite hebben die bij te benen en daarna kan nVidia overschakkelen naar het 90nm proces waardoor ze haar GPU processors weer wat hogen kan klokken.
Vergeet ook niet dat er sterke geruchten zijn dat ATI het antwoord op die Ultra al klaar heeft. De R580 met extra pipelines.

Dit soort gespeculeer is allemaal zo zinloos. De geruchten zijn nog nooit zo onbetrouwbaar geweest. Wacht nou maar gewoon af wat er daadwerkelijk in de winkel komt te liggen, want dat is toch het enige dat echt belangrijk is.

Overigens moet je eens van het idee af dat pipelines bepalen hoe snel een product is. Net zoals frequentie bij een cpu is dat maar een klein gedeelte, en kun je daar niets uit afleiden.
De CEO van Nvidia heeft al bevstigd dat ze aan twee 90nm parts bezig zijn. Vermoedelijk zijn dit de 7800ultra en de RSX.
Ik twijfel aan de info van Inquirer.
De R520 is gemaakt op 90nm waardoor het mogelijk is meer transistoren op een kleiner oppervlak te bakken. Waarom zou ATI een kaart van 16 pipes maken terwijl de de 90nm een kaart van zeker 24 pipes toelaat?
Als het werkelijk zo is dat deze maar 16 pipes heeft dan zal deze denk ik niet sneller zijn dan de 7800GTX.
Het enige voordeel van 16 pipes is dat ze met de prijs kunnen concurreren, de chip is dan klein dus deze zal een stuk goedkoper kunnen worden dan de 7800GTX.

Het zou natuurlijk ook kunnen dat het een 16x2 configuratie is, dan kan de R520 een zeer snelle chip worden.(dit in combinatie met hoge klok)
Het blijven toch allemaal speculaties
Toen nVidia overstapte naar 130nm, destijds ook bij TSMC, met hun NV30, had dat ding slechts 4 pipelines, terweil de concurerende kaarten op oudere fabs er 8 hadden.....

16x2 in normale termology zou beteken dat die extra texture lookup units krijgt, dit lijkt mij sterk aangezien nieuwere spellen vooral druk zullen zetten op shaders, mocht je dat bedoelen heb je in princiepe gelijkt, maar zullen ze nog verder moeten gaan, omdat ook nVidia al 2 ALU's per shader unit gebruikt.
Waarom zou een 16 piped kaart slechter moeten zijn? Een 7800GTX haalt tussen de 7500 en 8500 marks in 3D Mark 05 standaard... En Macci haalde met een X850XT PE (dus 16 pipes) 9500 marks op 904MHz. En een X850XT PE op 700MHz core en 666MHZ mem haalt rond de 8200 Marks... Dus als de R520 efficientere pipes heeft en op 700 of 800MHz loopt dan kan die zeker de 7800GTX bijhouden. Ik vermoed dat een 24 piped ATi kaart de R580 gaat worden (alla X850XT verhaal) die het zal moeten gaan opnemen tegen de 7800Ulta, als er zo eentje komt...
Die gasten clocken hun hele pc over, en dat is dus niet verglijkbaar.

Wat wel verglijkbaar is is dat een 7800GTX met 16 pipelines op een 3/2 clock van de normale precies weer net zo snel is.
Komen er nu wel veel transitoren in de chip te zitten of niet? ATI houdt zijn mond nogal stijfjes dicht...
Hoop dat ATI strax duidelijk gaat zijn over de Crossfire combinaties want ik zit eraan te denken om een goed overklokbare mainstream R5xx als mastercard te nemen en daarna een All-In-Wonder (of zoiets) met dezelfde aantal pipelines als slavecard...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True