Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties
Bron: Level 505, submitter: Martijn13

De website Level 505 - die op dit moment alweer platligt - heeft een aantal gelekte benchmarks en specificaties van AMD's in ontwikkeling zijnde ATi R600-videocore gepubliceerd.

Deze gpu wordt deze maand verwacht en een revisie zou in maart 2007 het levenslicht zien. Als de berichten kloppen, dan zal de R600 over 64 unified shaders beschikken die in staat zijn 128 shaderberekeningen per klokcyclus uit te voeren. De 512bit-geheugencontroller is voorzien van een 32bits-communicatiepad met de geheugenchips en kan overweg met zowel gddr3- als gddr4-geheugen, waarbij de beschikbare bandbreedte respectievelijk 115GBps en 140GBps bedraagt. De kaarten die met deze videocore uitgerust worden zullen bovendien DirectX 10-compatibel zijn en in een clusterconfiguratie gebruikt kunnen worden. Dit betekent concreet dat Crossfire-configuraties niet beperkt zullen zijn tot twee of vier kaarten.

R600-core foto's

De benchmarkresultaten zijn overigens opvallend positief en screenshots van de tests konden niet gepubliceerd worden omdat het daardoor volgens de reviewers mogelijk zou zijn de kaart waarmee de benchmarks uitgevoerd werden te achterhalen. Een en ander mag dus met een forse korrel zout genomen worden, maar dat de R600 een krachtpatser zal zijn, staat wel vast. Volgens de reviewers wist het testexemplaar nVidia's GeForce 8800 GTX in de meeste benchmarks te verslaan en dat met een prestatiewinst van 8 tot 42 procent. Saillant detail is overigens dat twee van de crewleden van de site 'directly affiliated' zijn met AMD's business development-divisie.

Benchmarkresultaten Half-Life 2
ATi R600 96,4
GeForce 8800 GTX 87,1
Radeon X1950 XTX CrossFire 87
GeForce 7950 GX2 64
Moderatie-faq Wijzig weergave

Reacties (87)

Van dezelfde site:

* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant

Doom3:
http://img120.imageshack..../r600doom312801024sj5.jpg

3d 06:
http://img228.imageshack....003dmark0616001200qi7.jpg

FEAR:
http://img228.imageshack....tir600fear16001200qt6.jpg

CoD2:
http://img101.imageshack....tir600cod216001200wq6.jpg

Battlefield2:
http://img402.imageshack....atir600bf216001200hn1.jpg

HL2:
http://img149.imageshack....ir600hl2lc16001200bm7.jpg

Oblivion:
http://img402.imageshack....00oblivion16001200zy3.jpg

Anno 1701:
http://img291.imageshack....00anno170116001200zh8.jpg

Verder werd er vermeld dat de drivers van ATI nogal slecht waren...
Ik wel? :?

Ik upload ze wel even naar imageshack ofzo...
De resultaten uit deze tests zijn om verschillende redenen nog niet zo representatief. Ten eerste is de review al een beetje ATi/AMD getint. Dat kan niet anders, want de auteurs staan in nauw verband met AMD.

En wat in de review ook niet zo uitdrukkelijk naar voren komt is dat alléén de R600 is getest op hun uber test platform (Intel Core 2 Quad X6700 op 3.2GHz). De andere kaarten werden allemaal getest met een AMD FX-60, die veel te traag is om deze grafische kaarten bij te kunnen houden.

De 8800GTX scores uit deze review zijn gebaseerd op een minder snel systeem en draaiden met oudere nVidia drivers. Het gevolg is dat de 8800GTX in deze review veel minder scoort dan wat deze eigenlijk zou kunnen met de prijs van vandaag en de drivers van vandaag.

Nou kan ik dat ergens wel begrijpen, omdat ook de drivers van ATi's R600 nog niet optimaal zijn, maar dat er verschillende testsystemen zijn gebruikt voor de verschillende kaarten neem ik ze wel kwalijk.

Je kunt ook moeilijk de acceleratie van 3 sportwagens in 1 grafiek zetten terwijl er een op een zandweg reed en de ander op een goede asfaltweg en de derde op een grasveld.. :+

Anyways, het blijft een leuke review die je zeker moet gaan volgen. Binnenkort worden er ook resultaten op een resolutie van 2560x1600 gepubliceerd, zodat deze kaarten heelmaal tot hun recht komen. Zo tegen 5/6 januari belooft de auteur van het artikel met de eerste foto's te komen van de videokaart zelf.

En nog even over de authenticiteit van deze review:
De R600 videokaart die level505 heeft gebruikt maakte onderdeel uit van een Vista hardware-test-programma. Het is dus vrijwel zeker dat deze review echt is. In het ATi nieuws en discussietopic werd er ook al een Catalyst 7.1 Beta driver voor Vista gepost.
Ten eerste is de review al een beetje ATi/AMD getint
En de review bij Tom's Hardware is niet Intel getint?

Een serieuze reviewer had Socket AM2 gebruikt en geen 939 en DDR met relatief hoge latencies.

edit: zie nu net dat zo voor het AMD platform beta drivers gebruiken..
Nou weet ik niet waar jij uitgehangen hebt, maar de latency's van DDR zijn beduidend lager dan die van DDR2. Alleen doordat DDR2 op hogere snelheden draait als DDR, wordt dat verschil goedgemaakt. Maar dat gaat pas op vanaf DDR2 modules >800MHz met goede (voor DDR2) lage latency's..

Of heb ik het nu helemaal bij het verkeerde eind
Nu al conclusies verbinden aan een review waarvan de betrouwbaarheid nog niet rechtstreeks is bewezen, is wel heel erg voorbarig.

Over een paar dagen zouden ze een update plaatsen van benchmarks op hogere resolutie en plaatjes posten van de zgn R600 sample die ze in hun bezit hebben. Dan is er misschien meer duidelijk over de echtheid van dit geheel. Ook CrossFire resultaten zouden dan worden toegevoegd aan het artikel.

Mochten de resultaten werkelijk 'echt' zijn, dan is het nog te vroeg om conclusies te trekken over 'wie nou sneller is'. In de huidige generatie games zijn zowel de G80 als R600 snel genoeg om op de meest gebruikte resoluties te draaien (en daar tel ik dus de HD resoluties niet bij). In de toekomstige games die echt gebruik maken van DX10 zal dit pas in de tweede helft van 2007 blijken... en dan zijn G81 en de 'next gen R600' alweer op de markt. De laatste staat gepland voor Q3 - 2007.

Overigens over de opmerking dat ATI altijd achter nVidia aanhobbelt (of de snelheid aanpast aan de concurrentie om zo net iets sneller te zijn), kan ik zeggen dat dit niet altijd op gaat en vaak ook niet eens zo gepland is. Een bedrijf heeft altijd richtdoelen wanneer het aankomt op kloksnelheden. Dit staat al ver van te voren vast. Men kan hier vaak niet eens zo veel van afwijken en als men afwijkt dan is het vaak naar beneden en niet naar boven. Zo veel speelruimte zit er dus niet.

R300 kwam ook een half jaar voor NV30 uit op de - voor die tijd - hele hoge kloksnelheid van 325Mhz. Niemand had verwacht dat dit mogelijk was op het 15nm proces, maar dit stond al ver van te voren vast. Men wist dat NV30 er aan stond te komen dus moest men een gok nemen met de snelheid en hopen dat dit snel genoeg was om de concurrentie van zich af te slaan. En wat bleek, dit klopte en uiteindelijk wist men de snelheid op dit proces zelfs nog op te voeren naar 412Mhz (in de 9800XT).

R420 was een voorbeeld van het missen van de uiteindelijke kloksnelheden. Er werd gegokt op 600Mhz, maar uiteindelijk bleef het bij 525Mhz. Dit bleek voldoende te zijn om de NV40 te lijf te gaan en men kon een hogere yieldrate halen dankzij de lagere snelheid. Als je dit verhaal een andere twist wilt geven, dan zou je kunnen zeggen dat ATI zag dat 525Mhz 'genoeg' was en dat ze vnl om yieldredenen de kloksnelheid omlaag hebben gegooid.

R520 was een voorbeeld van een kaart waarvan al vast stond dat deze tussen de 625-700Mhz zou uit komen. Zelfs de datum stond al vast op Mei 2005... een maand voor de release van de G70. Maar helaas een probleem in een thirdparty IP gooide roet in het eten en de R520 kwam pas in Oktober gelanceerd, waardoor het leek alsof ATI er achteraan hobbelde. Was alles op schema gebleven dan was R520 heel anders ontvangen.

R580 daarentegen lag weer helemaal op schema en kwam een maand of twee voor G71 uit. Zelfs na de release van G71 kon deze core prima z'n mannetje staan. Zoals je ziet kan je niet zeggen dat ATI er maar steeds achteraan hobbelt.

R600 zal een aantal dingen brengen waar AMD/ATI in de toekomst veel profijt van zal hebben. Zo werkten ze in het verleden ook... ze brachten vernieuwingen waarvan ze nog lange tijd de vruchten van konden plukken. Een klein voorbeeldje is de 256-bit memory interface van de R300 in een tijd dat de concurrentie zei dat 128-bit voldoende is geweest en dat 256-bit veel te duur zou zijn. Deze memory interface is de basis geweest van alle high end kaarten tot aan de huidige R580 toe. Toen de ontwikkeling van de R300 in 2000 begon heeft men dus een beslissing genomen die achteraf wel heel erg goed heeft uitgepakt.
Leuk hoor, al die interne ontwikkelingen (het lijkt wel een fanboy verhaal), maar daar heeft de consument geen oren naar...Als de tweaker of geinformeerde consument ziet dat ati een nieuwe kaart uitbrengt die bijna evensnel is als de nvidia-kaart die al maanden op de markt is, terwijl de nvidia kaart beter verkrijgbaar is, koeler blijft en minder stroom vreet...dan is de consument niet zo enthousiast over de ati kaart...Hoge kosten voor de kaart en voor stroomverbruik is voor de gamer alleen acceptable wanneer er ook een stevige performancewinst tegenover staat...Daarbij laat een zuinigere kaart over het algemeen ook meer overclockruimte over...en die redenen zijn precies waarom ati afgelopen jaar veel marktaandeel verloren heeft aan Nvidia...
Hadden ze niet gelijk het stroomverbruik mee kunnen meten? Als ze toch aan het benchmarken waren :)

Edit: zie net in de bovenstaande post dat er een tdp van 230W aangegeven wordt.
Staat vast op de kerstkaart die je van Essent krijgt met zo'n systeem :Y)
Is dat niet t max van zon slot IPV de kaart zelf.
Het ziet er allemaal veel belovend uit :)
Alleen het is waarschijnlijk een beetje een PR stunt van ATI/AMD om zo vast in de schijnwerpers te komen.. ;)
Maar laten we hopen dat deze chip echt deze resultaten neerzet.. :)
Ik vind de resultaten juist tegenvallen...Zelf had ik gehoopt dat ati van het afgelopen jaar wel geleerd zou hebben...en een kaart zou uitbrengen die gehakt zou maken van de concurrentie...blijkbaar niet...Tuurlijk, ze brengen mogelijk dus een sterk presterende kaart uit, maar het verschil met de 8800 GTX is niet zo daverend veel...en dus is het niet echt veel nieuws, zoals bij de introductie van de 8800 GTX dit wel was. Daardoor loop je al publiciteit mis...
Daarbij betaal je bij ati tegenwoordig veel voor deze prestaties (nl. voor de (moeilijk verkrijgbare) kaart en stroomkosten), wat de pret ook enigszins drukt...
En hierbij blijf ik het gevoel hebben dat ati een beetje achter de feiten aanhobbelt en liever later een kaart uitbrengt om de snelheid op te voren om zo net ietsjes sneller te zijn dan Nvidia's beste kaart... |:(
Ik vind de resultaten meevallen. Als dit waar is hebben ze nVidia "in de pan gehakt". Vrijwel alle benchmarks verslaan ze nVidia, terwijl de drivers waarschijnlijk nog in beta (al dan niet alpha) -fase zijn.

Stel dat ATi eerder was geweest. Dan hadden ze dus "fame" gehad en dan was nVidia vervolgens met een tragere videokaart op de propper gekomen die vrijwel niemand zou willen.. :P

In ieder geval ben ik persoonlijk erg blij met deze benchmarks, ik denk dat ik deze kaart wel ga halen. Zit nu met een X1900XTX maar wil toch op het gebied van videokaarten wel het neusje van de zalm ;)
Same story, ik wacht ook al sinds april op de R600.
Dit is mijn post uit het tweakersforum..
Bewijzen erbij , dat de 8800GTX scores niet kloppen.
A.d.v 3dmark05 & 06.
Btw, Level505 heeft de 8800GTX en de X1900CF niet zelf gebenched lees ik net, maar de resultaten van Computerbase.de gebruikt. En zij gebruikten op hun beurt FW97.03 ipv 97.44. Dat zou het verschil kunnen verklaren.

http://www.computerbase.d...a_geforce_8800_gtx_sli/3/
Weet je wat het verschil is , @ computerbase is alles getest op een FX60 @ 2.6Ghz.
Dus de 8800GTX scores zijn daarom veel lager. Enkel al door de Q6700@3.2Ghz vs. X6800 stock. is een onbegonnen strijd , dus al ik het zo opnieuw bekijk.. is die R600 helemaal niet zo bijzonder
en helemaal praktisch 0,0% zelf beter , de R600 zou slechter zijn als je een 8800GTX @ Intel Q6700@3.2Ghz zou zetten. Daarom dat dit minima's ook zo verschillende zijn die worden grotendeels door de cpu bepaald :)
Momenteel is 97.44 inderdaad een betere driver.

De 8800GTX word gebottlenecked terwijl de R600 dat niet meer is.
Daardoor heeft de 8800GTX hier ook lagere scores.



3Dmark06 1600*1200 4xAA 16xAF


De eerste link is van de site , de 2de link is van mij.
http://level505.com/wp-co...600-3dmark06-16001200.jpg
http://i114.photobucket.c...241/X-z0re/untitled-4.jpg



3Dmark05 1600*1200 4xAA 16xAF


De eerste link is van de site , de 2de link is van mij.
http://level505.com/wp-co...600-3dmark05-16001200.jpg
http://i114.photobucket.c...241/X-z0re/untitled-3.jpg

Hier is vooral mijn cpu de bottleneck , aangezien als ik OC dat mijn score lager is als ik de cpu niet verder OC.

Edit : Verder heb ik de review @ computerbase gelezen en ik vraag me echt af hoe het komt dat bij
die jongen het verschil tussen een X6800 en FX60 beiden stock maar 500 Punten verschil heeft in 3Dmark05 en 200 punten verschil in 3Dmark06. Terwijl als ik vergelijk met mijn vriend Wizkristof.
die een X2 @ 2.7Ghz heeft het verschil tussen 1000-1500 is in 3Dmark06 en soms wel tot 2000-3000 is in 3Dmark05

Mijn besluit is : Als dit de R600 is , is de 8800GTX beter of gelijk eraan. Bovendien word ook op de reviewsite vermeld dat de AA & AF van de R600 & G80 bijna gelijk zijn en dat de G80 toch nog 'iets' betere IQ heeft.
In HL2 heeft de G80 een betere distance AA en de R600 heeft een betere Short Distance AA.

Nog iets ; Ik heb maar een E6600@2.7Ghz.
Als ik die OC naar 3.00Ghz wat nog belange niet evengoed is als een Q6700@3.2Ghz waarop de R600 getest is dan haal ik rond de 14.000 Punten in 3Dmark05 en 3Dmark06 is dan rond de 8200 Punten. Dus zie je ? CPU bottleneck , met een Q6700@3.2Ghz heb je dat niet meer.
Is al op diverse forums voorbijgekomen, ook Beyond3D en Rage3D. De benches van Level505 gebruiken een speciale AA modus, ik geloof TSAA of iets dergelijks
Gebruik je ook deze speciale settings ?

Zonee, bewijzen jouw tests helemaal niets!
Als je het nog niet wist ? Dit is enkel in Oblivion zo gebeurd.
De andere screenshots zijn op gewone AA en AF getest.
Leer lezen.
Pure propaganda man! Intel heeft je zeker wat geld voorgehouden :+
8200 punten met en E6600@2,7Ghz i.c.m. een 8800GTX?

ik haal met een AMD X2 5000+ op 2,9Ghz en een GF7950GX2 al 9022 punten.
Lol.. verander je instellingen misschien eens naar :

1600*1200 4xAA 16xA
i.p.v op 1280*960 0xAA 0xAF te testen.
Je moet hiervoor de 'betalen' versie hebben.
Eind januari weten we meer.
Maar om van DX10 games te kunnen genieten hebben we nog meer nodig: Vista en DX10 spellen.
Beide zijn er niet en bovendien verlangt Vista 2 Gig. om fatsoenlijk te kunnen gamen.
En komt er binnenkort een spel uit wat werkelijk DX10 voordelen zal laten zien...ja toch...eentje maar en dat is Crysis.
Wil je echt het neusje van de zalm zien op graphics gebied koop dan een Xbox360 en Gears of War...

Ik denk dat een DX10 kaart pas echt nuttig wordt als er generieke berekeningen op gedaan kunnen worden zoals het omzetten van video's naar een ander formaat.
Voor FSX zal ook net na de launch van vista een patch voor DX10 verschijnen :Y)
Is dat Fright Simulator X?

TheInquirer kraakt dat spel volledig af omdat het totaal niet geoptimaliseerd is en noemen het daarom Fright Simulator X.

ATI-AMD of DAAMIT zal DX10.1 ondersteunen ben wel benieuwd wat dat in zal gaan houden...zoiets als PS2.0b of PS2.1 toendertijd?
Maar om van DX10 games te kunnen genieten hebben we nog meer nodig: Vista en DX10 spellen.
ja...en dx10 zelf natuurlijk :)

volgens mij denken veel mensen dat vista gelijk staat aan dx10
:?
Naar mijn weten was DX10 standaard in Vista ingebakken en was DX10 niet XP compatible.. Zit er in Vista dan alleen nog DX9 ??
Ik hoop toch nog wel dat er nog een keer een AGP versie van een of andere DX10 kaart verschijnt. :9
Jammer, maar AGP is niet meer interessant. Hoewel de AGP link voldoende bandbreedte kan leveren voor een aardige performance wordt het AGP platform niet meer ontwikkeld. Bij AGP denk je toch aan S939 en S478, waarvan de processoren hopeloos traag zijn voor een videokaart als de R600.

En natuurlijk kun je wel een ASRock Core 2 Duo moederbord met AGP kopen, maar dan zit je behoorlijk aachterstevoren te werken. PCI-E is de toekomst voor de high-end videokaarten en met de komst van een PCI-E 2.0 standaard welke op dubbele kloksnelheid loopt (= dubbele bandbreedte) en veel meer stroom kan leveren over het slot is AGP helemaal uit het zicht verdwenen.

Maar wat ik me nog wel kan voorstellen is dat er een low of midrange directX10 GPU wordt uitgebracht, zodat je toch nog de DX10 effecten kunt proeven op een AGP systeem.
Waarschijnlijk komt die ook wel als vista er is straks. Maar het zal wel geen top-model worden.
De scores van de Geforce 8800 GTX zijn te laag op die site, zoals verschillende benches al uitgewezen hebben op het tweakersforum. Met de benches van het tweakersforum is de R600 nauwelijks sneller of beter.
ach nee dat kan niet, ATI referentie materiaal of eerste benchmarks presteren nooit meer dan de uiteindelijke produucten :Y)
Is al op diverse forums voorbijgekomen, ook Beyond3D en Rage3D. De benches van Level505 gebruiken een speciale AA modus, ik geloof TSAA of iets dergelijks. Ik zit nu op mijn werk dus kan het niet uitgebreid opzoeken. In ieder geval, als je dat aanzet krijg je redelijk vergelijkbare resultaten, ik geloof dat computerbase.de (of zoiets, werk, etc...) een keer getest heeft met dezelfde settings en soortgelijke resultaten. Anderen speculeerden daarop dan weer dat ze gewoon een kapotte core hebben gefotografeerd die fysiek wel overeenkomt met de R600 maar dus niet werkt en die benchies verzonnen hebben in combinatie met wat gejat spul van computerbase... time will tell ;-)
Kan ik hieruit ook half concluderen dat Ati de drivers voor een kaart die in maart uitkomt beter op orde heeft dan nVidia's drivers voor een kaart die al een tijdje uit is?

Het is natuurlijk moeilijk te zeggen, dat weet ik, maar het is wel opvallend dat óf de kaart inderdaad een stuk sneller zou zijn, en/óf de drivers gewoon meer geoptimaliseerd zijn dan de nVidia drivers.
Of lees het eens beter, dat het gewoon een PR-stunt is van AMD waarbij natuurlijk de benchmarks van de 8800 niet zo denderend zijn.. Het is pas werkelijke te zeggen als er ook door onafhankelijke sites resultaten worden getoond...

Maaruh, ik begrijp niet wat je bedoelt met drivers niet op orde.. de huidige nvidia drivers zijn gewoon goed..
Ik ga deze site niet betrouwbaar noemen, maar om de site gelijk af te doen als een reclamestunt van ATI is weer te veel van het goede. Want net zoals er geen bewijs is van het feit dat het allemaal klopt is er ook geen bewijs dat ATI onzin in het rond aan het strooien is.

Maar dat laatste lijkt mij erg onwaarschijnlijk. Als ATI bewust onjuiste resultaten gaat publiseren om in het nieuws te komen en tzt komt de kaart uit en de resultaten zijn minder zullen die resultaten altijd tegenvallen. ATI kan dus, ongeacht of de cijfers in werkelijkheid slechter of beter zijn dan hier gepresenteerd, beter haar kruid droog houden. Enkel als de cijfers kloppen kan het voor ATI zin hebben. Misschien stellen sommige potentiele 8800GTX klanten hun beslissing op basis van deze cijfers uit. Maar het risico is erg groot.

Het is dus niet waarschijnlijk dat deze cijfers van ATI zelf afkomen maar ofwel voortijdig uitgelekte testresultaten zijn, ofwel door derden bij elkaar zijn verzonnen. En dat zullen we vanzelf zien.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True