Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: The Inquirer

Er zijn nieuwe geruchten verschenen over het antwoord van ATi op de nVidia G80-core. De begin 2007 verwachte kaart heeft - uiteraard - ook volledige ondersteuning voor DirectX 10, maar gebruikt een andere ontwerpfilosofie.

ATi logo (kleiner)Het eerste punt waarop de chips verschillen is het aantal pixels dat per kloktik afgeleverd wordt. De R600 doet er maximaal 16, terwijl de G80 tot 24 stuks komt. ATi maakt dit echter goed met een hogere kloksnelheid: het bedrijf mikt ergens tussen de 700MHz en 800MHz, waardoor de rauwe fillrate netto toch niet veel onder zal doen voor die van de op 575MHz geklokte GeForce 8800 GTX. De fillrate is echter maar tot op beperkte hoogte interessant: spellen gaan steeds zwaarder op shaders leunen en zeker voor DirectX 10 zal dat erg belangrijk zijn.

R600 heeft volgens het verhaal 64 shaders aan boord, de helft van wat G80 in huis heeft. Er is echter een belangrijk verschil: de shaders van de Radeon kunnen op een vector van vier getallen tegelijk werken, terwijl die van de GeForce maar één getal per keer berekenen. Hierdoor zou gesteld kunnen worden dat de 64 shaders van ATi grofweg te vergelijken zijn met 256 shaders van nVidia. Dáár staat dan echter weer tegenover dat de G80 zijn shaders op 1,35GHz klokt, meer dan dubbel zo snel als de rest van de core. Uiteindelijk komen de theoretische specificaties van de twee architecturen weer vrij dicht bij elkaar uit, maar dit keer in het voordeel van ATi. Welke van de twee ontwerpen in de praktijk het beste zal uitpakken moet nog blijken. Ontwikkelaars verwachten dat de GeForce 8800 GTX het snelste zal blijken voor (relatief) simpel werk, terwijl de nieuwe Radeon de leiding zal pakken voor complexere DX10-shaders.

Microsoft Flight Simulator X met DirectX 10
Microsoft denkt dit soort effecten te kunnen bereiken met DirectX 10

Waar ATi wel duidelijk wint is de geheugencontroller: in plaats van de vreemde 384-bit bus van de G80 springt de Radeon rechtstreeks naar 512-bit, wat een sterk bandbreedtevoordeel oplevert. Er van uitgaande dat men dezelfde GDDR3-chips gebruikt als nVidia komen we uit op 115GB/s, terwijl het gebruik van 2,2GHz GDDR4 een indrukwekkende 140GB/s oplevert. De 86GB/s van de GeForce 8800 GTX lijkt ineens te verbleken in het licht van deze cijfers. Door de 'ronde' busbreedte zal de chip ook normale hoeveelheden geheugen ondersteunen: gesproken wordt over 1GB en mogelijk een 2GB-variant voor professioneel gebruik, hoewel een goedkopere 512MB-versie ook waarschijnlijk lijkt.

De kaart zelf schijnt ook behoorlijk indrukwekkend te zijn: de printplaat is twaalf lagen dik en ontzettend dicht bevolkt om de lengte te beperken. De koeler wordt omschreven als zijnde een 'monsterlijk' koperen gevaarte, groter dan de printplaat zelf, met vier heatpipes. Hij zou ontworpen zijn om 250W af te voeren, maar in de praktijk zou de chip niet meer dan 200 tot 220W moeten gebruiken. Net als de X1950 Pro zal de nieuwe Radeon overigens een interne aansluiting gebruiken voor Crossfire.

Moderatie-faq Wijzig weergave

Reacties (75)

[qoute]De koeler wordt omschreven als zijnde een 'monsterlijk' koperen gevaarte, groter dan de printplaat zelf, met vier heatpipes.[/qoute]
Heeerlijk om te lezen :) Ik hou wel van flinke koeling, met veel koper en heatpipes. alleen vraag ik me af of de warmte afvoer ook goed gaat bij SLi waar twee kaarten dicht op elkaar plakken...
Overclocken gaat me moeilijk lijken, aangezien de frequentie al best hoog is, en de warmte dan wel erg extreem gaat worden.

Weet iemand of het mogelijk is om samen met je GPU frequentie ook de frequentie van de Shaders te clocken? Lijkt me dat daar nog wel wat op gewonnen kan worden. Maar ik heb er niet zoveel verstand van, dus sla me niet dood als dat allang kan of geen winst oplevert :P

Btw, gerucht gaat dat ATI bij elke kaart de koeling en een voeding appart gaat meeleveren: plaatje koeling
plaatje supply
Dat is wel een hoop informatie voor een "gerucht".
Welkom @ The Inquirer :*)
Als de cijfers hier kloppen, dan denk ik dat ATi nog steeds niet tegen het geweld van Nvidia kan opboxen...Want alleen een zeer hoge clocksnelheid zal blijkbaar de 8800 GTX bij kunnen houden, maar iedereen weet dat dit ten koste gaat van een hoger stroomverbruik, lagere yields (en dus duurdere kaarten) en een kortere levensduur van de kaart...
PS: complexere shaders hebben toch gewoon meer geheugenbandbreedte nodig? maar als games niet altijd deze complexere shaders benutten...dan is er dus een hogere clocksnelheid nodig om toch een goede performance te leveren.
Cry-tec en ATI werken samen, dus ATI zal Cry-tec wel verteld hebben, dit kan onze nieuwe core en Cry-tec zal daar wel gebruik van maken.
Dus de kans is groot dat Crysis veel complexe DX10 shaders zal gebruiken en dat ATI daarmee dus in dat spel al een voordeel zal hebben tenopzichte van nVidia.

Wat ik ook wil weten is of ATI de shaders ook op een aparte klok laat draaien.
Ik heb de volgende berekening gemaakt om het aantal getalletjes dat beide cores zouden moeten kunnen verwerken per sec.
nVidia, 128 shaders x 1 per kloktik x 1350 tikken per sec = 172800 getallen per sec

ATI, 64 shaders x 4 per kloktik x 700 tikken per sec = 179200 getallen per sec
ATI, 64 shaders x 4 per kloktik x 800 tikken per sec = 204800 getallen per sec

Wat ik hier bereken is dat ATI met 700 MHz nVidea niet veel mist, maar alles wat ze daar boven zitten maakt een best positief verschil, belangrijkste voorwaarde is natuurlijk dat de ATI core dan wel ook echt 4 getallen per tik voorgeschoteld moet krijgen, en ik neem aan dat elke shader toch maar met 1 instructie set tegelijk bezig kan zijn.

Zo als gewoonlijk zullen de benchmarks echt uitsluitsel geven.

edit: wat ik no ook bedenk is dat als je die ATI core overgeklokt krijgt ( hij zal al best snel draaien ) je met een kleinere overklok meer prestatie winst zult hebben, tenopzichte van wat je met nVidia zou hebben.
Bij ATi draaien ze 1:1 bij Nvidia lopen ze meer dan 2x zo snel.

Maar wie zegt dat er 64 in zitten :) Misschien zijn het er toch 96 ;)
Ik had idd ook al het vermoeden dat ATI gewoon 1:1 zou draaien, ik heb dus ook de kloks die in de post staan gebruikt.
ehh, het is 700MHz dus 700 miljoen tikken per seconde, dus doe je antwoord ook nog maar eens plus 6 nulletjes :P
Die koeler klinkt als een benadering van wat userfriendly.org op het moment bekritiseerd :P

En met die vectors, kun je echt zo gemakkelijk met die getalletjes gooien? Hoeveel getallen gebruikt de gemiddelde DX10 shader dan?
Feitelijk is een scherm al in een matrix vorm georderd. Rekenen met vectoren van pixels lijkt dan ook vrij logisch.
Pixels zijn RGB. Dus een vector van 3 componenten. Zet er een alfa component (transparantie) bij, en je hebt de klassieke 4 component vector die alle grafische kaarten gebruiken. 1 shader voor 1 RGB+alfa pixel.

De G80 echter, zal 3 shaders moeten inzetten voor 1 RGB pixel, en 4 shaders voor een RGB+alfa pixel.


Betekent trouwens niet dat de klassieke shaders niet met minder dan 4 component pixels om kunnen gaan. Ook daar zitten weer allerlei truuks in die er voor zorgen dat je bijvoorbeeld 4 x 1 component in één shader kan zetten, etc etc...
@AHDdV:
Mensen, is this amateur hour or what?

Nogmaals herhalen: een G80 is shader is een scalar processor: die 1 MADD per cycle kan uitvoeren.

Zoals ik daarvoor al zei: afzonderlijke scalar processors kunnen geen informatie met elkaar uitwisselen, dus jouw imaginaire verhaaltje van 3 of 4 parallele shaders is nonsense.

Als je geen 3 or 4 MADD's per cycle kan uitvoeren, hoe, oh, hoe kan je dat dan wel doen? Misschien door ze na elkaar uit te voeren? Is dat geen briljant idee?

Dat maakt de G80 dus een stuk efficienter: als je op een R600 slechts 1 scalar MUL moet doen, dan laat je de 2 of 3 andere multipliers onbenut. Op een G80 is dat 100% efficient. Als je op een R600 een vector MUL moet doen, dan kan dat in 1 cycle, terwijl een G80 er 3 of 4 cycles of doet en dus gewoon trager is.

Maar nu shaders alsmaar complexer worden, bevatten ze ook meer en meer scalar berekeningen, waardoor het relatieve voordeel van een R600 processor vermindert.
Net hetzelfde verhaaltje voor fillrate vroeger met de 9800 en de FX series.
De 9800 heeft 8 pipes en 1 pipe en kan 1 pixel tegelijk verwerken, de fx serie heeft 4 pipes maar 1 pipe kan 2 pixels tegelijk verwerken.
Netto is dit hetzelfde als er overal gebruik gemaakt wordt van multitexturing.
Echter is dit lang niet altijd het geval en dus heeft de 9800 serie een efficiëntie voordeel.

Hier hebben we nu net hetzelfde maar voor de shaders en dan met een omgekeerde strategie voor beide fabrikanten. :)

Een individuele shader sneller maken door parallelisatie is natuurlijk eenvoudiger dan extra shaders toevoegen.
Echter zal ATI ruimschoots winnen als ze echt dergelijk associaal hoge bandbreedtes halen op de geheugenverbinding.
Daar heeft het helemaal niets mee te maken.

Het gaat hier om berekeningen per vertex of per pixel.
Een pixel shader kan geen state delen met naburige pixels: het is best mogelijk dat die berekeningen ergens totaal anders op de chip gebeuren.
aangezien er nog geen DX10 games uit zijn valt er nog niks te zeggen over een gemiddelde.
dat zal helemaal liggen aan welke riching de developers op gaan met hun games.
en verschillende games zullen waarschijnlijk ook verschillende kanten op gaan.
Irrelevant.

In deze discussie gaat het over de bewerkingen in pixel en vertex shaders (en evt. geometry). DX10 of niet heeft daar helemaal niets mee te maken: een fog shader in DX9 is identiek al eens fog shader in DX10. Een sub surface light scattering shader vraagt evenveel berekeningen in beide omgevingen.

Enz.
Wat betreft die vectors. Dat is de manier die ALLE videokaarten tot nu toe hebben gebruikt voor hun shaders.

Die scalaire shaders van de G80 zijn juist de wonderlijke contructies. Voor vergelijking met andere (ook oudere) kaarten, moet je het aantal shaders van de G80 door 4 delen.

Het gaat zelfs veel verder... Vrijwel alle kaarten hebben hun shaders in zogenaamde quads gegroepeert. Dus 4 vector shaders bij elkaar. Dat is om de caching algorithmes efficienter te maken.
Twee wegen na rome..allebei verschillende specs en kloksnelheden..wel genieg dat ze verwachten dat het nek aan nek wordt wat betreft presaties ^_^


Hoe dan ook, vroeg of laat zal men meer de breedte in moeten gaan bij ATi, silicium kan nu eenmaal niet oneindig snelschakelen...plus het worden nogal prescott achtige oplossingen....monsterlijke vermogens :P

Tis al erg genoeg dat er GTX8'en zijn met peltier koeling...als een beeldkaart strax met phasechange geleverd wordt, ga ik toch wel een keertje echte nadenken....
Over die monsterlijke vermogens, deze brand nog harder dan de 8800. De 8800 zuipt zo'n 170 Watt, en deze alweer 200 of meer.... Ik hoop dat hij per watt dan ook betere prestaties neerzet..
De geruchten bij de 8800 spraken ook van 300 watt, het is 170 onder full load geworden. Waarom zou hier die 200+ watt dan wel kloppen?
Huh?
Volgens deze vermeende specs daaien de ALU's van de ATI kaart trager dan die van een G80, precies omdat zij al 'meer in de breedte' zijn gegaan. De G80 heeft snelle scalar processoren aan 1.35GHz. Een R600 zou dus trager draaien, maar dan 4 in parallel.
Tsjonge; nog even en ik moet m'n computer uitzetten als ik een was wil draaien :P

Die afmetingen zijn ook niet normaal meer. Is zowat net zo groot als een compleet moederbord.
The R600 board is FAT. The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTX
Een kortere PCB dan de 8800 dus...
Moet je ze maar op aparte groepen zetten! :o
Er staat juist dat hij kleiner is dan een 8800?
Ik zeg ook niet dat ik de 8800 niet groot vind. Beide zijn enorm.
Wat ik niet snap is dat er geen water gekoelde versie uitkomt van dit soort kaarten.

Heb omdat mijn PC in de woon kamer staat er water koeling ingebouwd heb hier een waterchill setje inzitten, die een Opteron 170 @ 2.4 en 2 6600GT's en een raptor fluister stil koelen.

Nu zit ik er aan te denken om over een paar maanden een nieuwe kaart te kopen.
Maar het is wel zonde om zo een dure koeler waar je toch echt extra voor betaalt er af te slopen.

Waar om niet een fabrikant komt met een setje waar meteen de GPU en mem netjes gekoeld word snap ik echt niet.
daar zou toch wel een markt voor moeten zijn, waarschijnlijk niet groot maar toch.
Ehm, ter informatie.. BFG heeft een watergekoelde versie van de 8800GTX..
Ehm, ter uwe informatie die komt met met zijn eigen watercooler.
Ik bedoel dat niet een fabrikant in zee gaat met een bedrijf als astek (waterchill) of een ander waterkoeling bedrijf, zo dat je hem rechtstreeks in je waterkoeling setup kan zetten.
Eind januari zeiden ze. :) Een maand of wat later komt nVidia met een refresh, en zo blijven we wel weer even bezig. Het wordt een interessant voorjaar zo komend jaar.

Maar, 200+ watt voor enkel één VGA? Da's bizar.

hoewel een goedkopere 512MB-versie ook waarschijnlijk lijkt.
Daar kom ik iig 2007 wel mee door. :9
Inderdaad een beetje veel informatie voor een 'gerucht'.

T zal mij benieuwen hoe dicht The Inq erbij zit.of hoe ver er vanaf natuurlijk) Zo te lezen is het een geweldig kaart maar de benches moeten maar laten zien hoe hij presteert. Over de latere DX10 functies is nu helaas nog maar weinig te zeggen.
Opgenomen vermogen vind ik niet belangrijk tijdens het gamen aangezien ik dan ook de lol ervan heb. Idle is veel belangrijker aabgezien hij dan in theorie niets hoeft te doen en het lekker is als je een flink game station gewoon dagen kan aan laten staan voor bijv downloaden van grote bestanden zonder veel warmte en energie verbruik. (en herrie)
Heb een pentium 233mmx staan ook en die zit op 55 watt totaal ex monitor. Nu zit ik op idle 350 watt incl monitor. (gx2,4hd's,4400+,24inch crt)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True