Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: X-bit labs

Onlangs zijn de eerste foto's van ATi's nieuwste generatie gpu's op het web verschenen. Er zijn geen verdere details uit de doeken gedaan, maar de foto's laten wel een opmerkelijke plaatsing van de core zien.

De mogelijke specificaties die de ronde doen zijn sinds eerder deze maand niet veel veranderd. DirectX 10-ondersteuning, 64 shaders, 16 texture-eenheden, kloksnelheden van 700MHz of hoger en ondersteuning voor high-speed gddr4-chips op de R600 zijn allemaal waarschijnlijk, maar nog niet officieel bevestigd. Hetzelfde geldt voor de 512bit-geheugencontroller - een van de weinige punten waarbij de R600 op papier een voorsprong heeft op de G80 van nVidia.

R600-core foto's

Het eerste wat opvalt bij het bekijken van de foto's is de plaatsing van de core onder een hoek van 45 graden. Wat hier het voordeel van is, zal nog moeten blijken. De chips worden met een 80nm-procédé gebakken en zijn in de 32e week van 2006 (begin augustus) van de band gerold. AMD/ATi zal de eerste R600-gpu's op 20 januari 2007 lanceren, mogelijk komen dan ook de eerste grafische kaarten met deze core op de markt.

Moderatie-faq Wijzig weergave

Reacties (47)

Twee dingen wat enorm verschilt bij de R600 en G80. De R600 architectuur (en alle ATi kaarten) hebben veelal meer profijt van een hogere bandbreedte van geheugen en de G80 (en alle nVidia kaarten) hebben meer profijt van een betere (snellere) core en shaders. Wat zie je bij de specs van deze twee kaarten?:

R600:
GDDR4 512-bits 2200Mhz(toch?) 2048MB (!!!)
R600 core op ~750MHz 80nm 64 Unified Shaders (stock speed) en 16 ROP's
Bandwidth: 140.8GB/s
Fillrate: Beduidend lager dan de 8800GTX

G80:
GDDR3 384-bits 1800MHz 768MB
G80 core op 575MHz 90nm 128 Unified Shaders (1,35GHz) en 24 ROP's
Bandwidth: 86.4GB/s
Fillrate: 36.8GT/s

Dus waar nVidia hoge ogen gooit is de Fillrate en ATi bij de geheugen bandbreedte. Maar..
De fillrate is echter maar tot op beperkte hoogte interessant: spellen gaan steeds zwaarder op shaders leunen en zeker voor DirectX 10 zal dat erg belangrijk zijn.
En Geheugen bandbreedte is belangrijk bij enorm veel eyecandy aan. Conclusie. Op papier is de R600 beter en voorbereid voor een lange toekomst, maar de G80 heeft nu meer de brute kracht in shaders die door de R600 moet worden gecompenseerd door de 4× zo hoge MADD's die de R600 per klokcyclus kan berekenen waar de G80 het maar per 1 kan.

Dit blijven vooralsnog geruchten, benchmarks zullen het uiteindelijk uitwijzen. Maar vooralsnog denk ik dat ATi deze slag zal winnen. (Waar de G81 weer op geďntroduceerd wordt).

Edit: BB-foutje
Hoe kan Ati deze slag winnen? De G80 bestaat al en de R600 nog lang niet. ATi is nu alles behalve aan het winnen. Bovendien is 2GB geheugen echt wel een fabeltje dus je verhaal klopt niet.
Misschien winnen ze deze slag maar de oorlog sleept nog wel een aantal jaren voort... (Gelukkig)

Bovendien, hoe kun je nou zeggen dat ATI alles behalve aan het winnen is. Directx10 is alles behalve af en zo lang die nog niet uit is geeft het ATI juist de tijd om de R600 verder te verfijnen.
de 64 shaders van de nieuwe ati kaarten kunnen 4 verwerkingen per keer doen, en de shaders van nvidia kunnen per keer maar 1 verwerking doen snappie?


ik ben ook veel te laat zien ik :9
Ehm... nee.

Vectors zijn componenten van vier elementen (bijvoorbeeld vier integers of floats), die veel worden gebruikt in 3d berekeningen, samen met matrices, die bestaan uit 4x4 elementen. Wat de processor van ATI kan is in een keer een vectorbewerking uit te voeren. De nVidia is geen vector maar een scalar processor, en kan dus maar een bewerking op een element uitvoeren.

Wat betekent dit nu:
De ATI kaart kan 64 vectoroperaties tegelijk uitvoeren, de nVidia kaart maar 32 (128/4) operaties tegelijk. Als er echter een gewone (scalar) operatie uitgevoerd moet worden is de nVidia kaart de duidelijke winnaar, omdat er 128 operaties uitgevoerd kunnen worden (tegenover nog steeds 64 operaties op de ATI kaart).

Als er in een specifieke shader veel vectoroperaties worden uitgevoerd zal de ATI kaart dus theoretisch de winnaar zijn, als er meer scalar operaties worden uitgevoerd is de nVidia de winnaar. Let echter wel, dit is puur theoretisch, want in de praktijk komen er nog weer totaal andere zaken om de hoek kijken, zoals bijvoorbeeld de bandbreedte naar het geheugen.
misschien moet je ook het reply knopje gebruiken ipv een zwevende post te plaatsen
is wel zo overzichtelijk
maar 64 unified shaders?
de Nvidia 8800 heeft er 128 en dan maakt de 512bit geheuge bus ook niet veel verschil.
Dat zijn, zoals er bij staat, nog allemaal geruchten en alleen de hoeveelheid shaders of bits in de geheugenbus zelf zegt weinig over de prestaties van zo'n chip. Denk dat je beter kan afwachten tot dat ding echt uit is en er uitgebreide reviews van zijn verschenen.
R600 heeft volgens het verhaal 64 shaders aan boord, de helft van wat G80 in huis heeft. Er is echter een belangrijk verschil: de shaders van de Radeon kunnen op een vector van vier getallen tegelijk werken, terwijl die van de GeForce maar één getal per keer berekenen. Hierdoor zou gesteld kunnen worden dat de 64 shaders van ATi grofweg te vergelijken zijn met 256 shaders van nVidia. Dáár staat dan echter weer tegenover dat de G80 zijn shaders op 1,35GHz klokt, meer dan dubbel zo snel als de rest van de core. Uiteindelijk komen de theoretische specificaties van de twee architecturen weer vrij dicht bij elkaar uit
nieuws: Geruchten over specificaties ATi R600-core

edit: Sorry 8-)
"R600 heeft volgens het verhaal 64 shaders aan boord, de helft van wat G80 in huis heeft. Er is echter een belangrijk verschil: de shaders van de Radeon kunnen op een vector van vier getallen tegelijk werken, terwijl die van de GeForce maar één getal per keer berekenen. Hierdoor zou gesteld kunnen worden dat de 64 shaders van ATi grofweg te vergelijken zijn met 256 shaders van nVidia."

Als gezegd in een eerder tweakers.net artikel over de r600

Damn you Reinman!! :P
'n ATI shader is 4 maal zo krachtig IPC gewijs. Maar nV grof dubbel zo snel en ATI de helft minder in aantallen. Komt uit op gelijkspel bij gelijke basis Core klok.
In Theorie dus.
Hoe het in de praktijk gaat uitpakken? nV heeft iig de 65nm vs 80nm voordeel aagezien nV dan de G81 ongeveer dan uit heeft als de R600 uitkomt.
"de 512bit-geheugencontroller"

De bandbreedte i.c.m. Gddr4 wordt echt ziek, iets van ~140Gb/s t.o.v. 86Gb/s voor de Nvidia G80. De R600 gaat kont schoppen op ultra hoge eye-candy settings.
De bandbreedte i.c.m. Gddr4 wordt echt ziek, iets van ~140Gb/s t.o.v. 86Gb/s voor de Nvidia G80
die bandbreedte zal alleen gehaald worden áls er ddr4 wordt gebruikt, én een 512bit geheugenbus...

vervolgens is het nog de vraag of de gpu die bandbreedte wel kan benutten...

in de post staat al dat er nog niks ''officieel'' bevestigd is
Natuurlijk is nog niks officieel bevestigd, de geruchten doen alleen al een tijd de ronde, en is ook gevonden dat onder deze chipjes 2200 pinnetjes te vinden zijn. Een stuk meer dan de G80 (die zat zo rond de 1500), die een 384-bit bus heeft. Het lijkt er dus ook dat die 512bit bus dus toch waar is.
Op zich is het niet 'opvallend' of 'opmerkelijk' dat de core 45 graden gedraait is. Dit is namelijk eerder voorgekomen. nVidia heeft het namelijk ook gedaan in het verleden en wel op de NV35 en NV38 core, oftewel op de FX5900 en FX5950Ultra.

Zie ook dit plaatje van de NV38 core:

http://www.techreport.com...orcefx-5950ultra/nv38.jpg
Laten we dan maar hopen dat de introductie beter gaat dan de NV30 series want die serie was echt dramatisch!
Inzichtvol ??? wat een gelul zeg. Die reactie heeft geen kont te maken met de diskussie. Alsof de release van de R600 van Ati wat te maken heeft met de release destijds van de NV30 omdat ie toevallig ook onder 45 graden was gemonteerd op de fpga.
Dat is een serieus stukkie silicium. Zelfs op 80nm is die een enorme hoeveelheid 'real-estate' die 1 core inneemt op een productie wafer. Hopelijk kunnen ze later overstappen op een kleiner procédé, want dit zal niet goed zijn voor de prijs en de yield.
Het eerste wat opvalt bij het bekijken van de foto's is de plaatsing van de core onder een hoek van 45 graden. Wat hier het voordeel van is, zal nog moeten blijken.
Laten we hopen dat dit zorgt voor een lager stroomverbruik. :)
Denk betere cooling, zelfde als bij de BTX borden, staat de CPU ook onder een hoek van 45 graden vanwege het grotere coolingsoppervlak.
Dus als je de core 45 graden draait, vergroot het koelingsoppervlak? |:(
Ik volg je niet helemaal
Als je je core 45 graden draait daalt het stroomverbruik?
Ik denk eerder dat het is om meer verbindingetjes te kunnen leggen met het PCB :)
doordat de core nu 45° gedraaid is, heb je alleen maar meer PCB nodig om dezelfde chip te herbergen. dus uiteindelijk maak je de kaart onnodig groter.
Dit is enkel zo als het vierkant, waarvan de diagonalen van de chip dat vierkant doormidden snijden, niet gebruikt zal worden om banen op te trekken. Het zal natuurlijk moeilijker worden om banen te trekken op een xy-rooster met als grens een rechte onder 45°. Afin, dat denk toch.
Denk eens aan de lijntjes naar het geheugen en dus ring-architectuur die de R600 waarschijnlijk gaat hebben...

Ik denk dat het juist makkelijker is om het PCB te maken en ze even veel ruimte nodig hebben.
Misschien dat ze op deze manier een grote core kunnen plaatsen op een relatief kleine voet, terwijl er toch genoeg ruimte is voor de plaatsing van allerlei weerstandjes en zo rond de core, zonder het maken van ingewikkelde traces?
ik denk eerder dat de core zo is gedraaid zodat de cooler meer warmte af kan nemen, ik heb nog geen idee hoe de cooler eruit zal zien, en welke socket deze processor voor is.
de CPU zelf ziet er in ieder geval wel netjes uit ik wil wel weten wat de exacte specs zijn van dit dingetje :9
Que? Het gaat hier om een GPU niet CPU ;)
het is een GPU die hebben geen socket ende cooler zal wel ong. hetzelfde zijn als de G80 cooler
Kunnen we topics niet ook een score toekennen ipv alleen de comments. Wat een ongelofelijk non-bericht is dit! "Er zijn foto's gepubliceerd van ...". Je had ook kunnen schrijven "Er zijn foto's vrijgegeven van ...", klinkt helemaal indrukwekkend. Hoe kun je dit nog overtreffen? Een topic over de nieuwe hond van de vrouw van de directeur van een chipfabrikant?
Hangt van de kloksnelheid van die hond af.. en hoeveel shaders hij in z'n pels heeft.. :P
Dit bericht is natuurlijk door ATI PR gehyped om de mensen zoet te houden en ze te beletten van een G80 te kopen. ATI weet heel goed dat Nvidia vlotjes kaarten verkoopt en zullen dus alles doen om dit te beletten.
Intel deed dat vroeger ook met gelekte benchmarks van Conroe, ATI met foto's.
Vrijwel ieder bedrijf dat nog met zijn product moet komen, terwijl de concurrent het al in de schappen heeft liggen, doet dit. Zo hypete Nvidia NV30 (FX5800) toen Ati's 9700pro een groot succes was.
Uiteraard moeten we ons oordeel uitstellen tot er onafhankelijke benchmarks beschikbaar zijn. Maar speculeren hoort nu eenmaal bij de voorpret.
ben ik het nu, of is die core gewoon heel erg groot ? ik heb radeon 9800 core's en 6600 cores gezien en de deze lijkt meer dan dubbel zo groot ...

ik hoop dat de energieconsumptie van dat ding een beetje binnen de perken is , zeker van de mid-range afgeleiden.

de high-end die-hard gamers kijken toch niet op 100 watt meer of minder :P
Waaraan kan je zien dat deze heel erg groot is?
Ik kan het iig niet vertellen wat voor muntje het is, waarom is deze niet heel klein?

De G80, die is pas groot
Ik gok een US Quarter, das de standaard referentiemunt.

En dan is deze core verrekte groot.
Chinese tekens op een US Quarter? Ik dacht het niet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True