Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: TweakTown

Naast enkele nieuwe foto's zijn ook de eerste benchmarks van de Radeon X2900 XTX opgedoken. Op deze kaart zal AMD in mei zijn nieuwe R600-gpu laten debuteren, maar de cijfers wijzen erop dat er voor die tijd nog heel wat werk verzet moet worden.

Logo's AMD en ATiHet nieuwe vlaggenschip van AMD zal, zoals al enige tijd bekend is, over een 720 miljoen transistors tellende gpu en 1GB ddr4-geheugen beschikken. Over de kloksnelheid is nog altijd niets met zekerheid te zeggen - de core zal vermoedelijk rond de 700MHz uitkomen en het geheugen wordt vrijwel zeker ruim boven de 2GHz geklokt - maar de benchmarkcijfers die nu zijn bekendgemaakt, zijn allesbehalve wereldschokkend: bij een 3dMark06-test op 1600x1200 produceert de R600-XTX amper 200 puntjes meer dan nVidia's 8800GTX, die op ruim 9500 punten uitkomt. Dat is een prestatieverbetering van grofweg twee procent, en daar zal AMD de highend gpu-markt niet mee terugwinnen. Daar staat tegenover dat de drivers voor de R600 nog in het alpha-stadium verkeren; in april wordt een eerste bèta verwacht en de definitieve drivers zullen niet voor halverwege mei verschijnen, waarmee meteen de verwachte releasedatum van de kaart wordt bevestigd. Normaal gesproken zullen driveroptimalisaties in elk geval enkele tientallen procenten extra rekenkracht ontsluiten, maar over de definitieve prestaties van de de X2900 XTX in vergelijking met zijn nVidia-concurrent valt nog niet veel te zeggen.

Over het uiterlijk van de oem-versie, die een lompe 32 centimeter lang wordt, was al veel te doen, en inmiddels zijn ook foto's van de retailversie gemaakt. Deze zogeheten 'Dragonshead 2' is wat kleiner dan de oem-kaart, al zal hij nog altijd een dikke 24 centimeter meten. Volgens het Taiwanese TweakTown liet een niet met name genoemde fabrikant de plaatjes uitlekken na ruzie met de chipbakker, en om te zorgen dat het lek niet boven komt werden de afbeeldingen van de X2900 XTX flink onscherp gemaakt - alsof AMD niet weet met wie ze ruzie hebben. Veel meer dan twee dvi-aansluitingen en een CrossFire-connector is er helaas niet te zien; de jacht op de eerste scherpe retailplaat blijft dan ook volop doorgaan.

Uitgelekte en geblurde X2900 XTX-kaart
Moderatie-faq Wijzig weergave

Reacties (55)

Op VR-Zone zijn ook foto's gepost van de R600XTX. Deze zijn niet blurred, maar niet alles is zichtbaar, oa de vendor :)

Edit: En er was ook een OEM kaart op Ebay: link met zeer duidelijke foto's van de OEM kaart ;) En blijkbaar heeft AMD/ATi de verkoop doen stoppen
Post van de week! Ik ben nu al een kleine 3 minuten bezig met het laden van die foto. Die bandwith van die server is al 100× over zn max met al die gierige tweakers die hem streamen :D.

Edit: Dat is toch een Gainward?
Op deze kaart zal AMD in mei zijn nieuwe R600-gpu laten debuteren, maar de cijfers wijzen erop dat er voor die tijd nog heel wat werk verzet moet worden.
................

Ik dacht dat AMD een roadmap bevestigde waarin stond dat de kaart eind maart in de winkel moest liggen.......of begrijp ik nu iets geheel verkeerd.

nieuws: AMD bevestigt roadmap en details R600
t producé gaat nog 65nm worden =
-minder stroomverbuik
-snellere clocks

afwachten dus
En toch zou ik een Ati kaart nemen de volgende keer.
Ik had eerst een ati 9600se en nu een nvidia 7800gs.

In games lekker snel maar in de bureaublad omgeving vaak traag. Websites kijken niet echt lekker. Photoshop af en toe wat minder, en 2 achtergronden per beeldscherm (heb 2 beeldschermen) werken ook vaak niet goed. Als je een spel opstart met een andere resolutie als windows en je kom terug in het bureaublad zitten vaak de achtergronden door elkaar heen. Erg jammer.

De prijs daarintegen is wel goed. Vaak is nVidia net wat goedkoper waardoor je toch sneller voor nvidia kiest.

nVidia maakt ook veel meer reclame in spellen en op hoesjes. Daardoor maken ze veel reclame bij mensen die wat minder bekend zijn in de hardware-gebeuren.

Als er staat: Plays best with nVidia, rennen ze bij wijze van spreke al naar de winkel om een nVidia te halen :9
Slechte zet tweakers.net.
Dit is een onbetrouwbaar nieuwsbericht en slecht opgezet.
Jongens jongens zelfs de inquirer is hierin veel beter.
Daarnaast ruikt het beetje naar nVidia lovers wat ik al eerder vermoedde.

Just my 2 cents.
Tomshardware bericht hier in de kern hetzelfde over, namelijk dat ie pas in mei komt. Er zal dus wel een kern van waarheid in zitten.
dat ie in mei komt is allang geen nieuws meer. benchmarks met alpha drivers vind ik ook geen nieuws en een plaatje met een spelfout maakt het helemaal af.
Het schijnt dat AMD is overgestapt naar 65nm voor deze kaarten en aangezien er al "geruchten" waren dat deze kaarten bij de fabrikanten op 80nm (geloof ik) al veel sneller als de Nvidia waren, hecht Ik geen waarde aan dit artikel
Omdat het nieuwsbericht niet in je ATi kraam past komt het van NVIDIA lovers? Het bericht is bevestigd door VR zone, ook een NVIDIA lovers site zeker?
Daar staat tegenover dat de drivers voor de R600 nog in het alpha-stadium verkeren;
Kortom, de vergelijking met nVidia is compleet nutteloos.
Zo i zo is het nutteloos want we hebben geen DX 10. DX 9 doen die kaarten toch wel goed. Maar het gaat er om welke sneller zal zijn in DX 10.

En het is altijd zo geweest dat de Drivers veel beter kunnen. Dat zal bij de G80 en de R600 zijn. Ik denk dat we straks ook regelmatig boosts krijgen door nieuwe DX 10 drivers van beide bedrijven. Want daar moet zo i zo nog veel voor geoptimaliseerd worden.
Hoezo gaat het erom welke sneller is in dx10 en niet om dx9, als ik die kaart nu koop wil ik dat ie het snelst is in d9x, en natuurlijk het lieft ook in dx10 maar dat duurt toch nog een tijd voordat je daar echt wat aan hebt. De scores in dx9 tellen dus wel degelijk mee
Inderdaad, er is geen dx10 dus is dx9 performance al wat telt.
DX9 draai je met deze kaarten op hoogste res. met alle toeters en bellen op toch boven de 80 frames lijkt me.
met alle toeters en bellen op toch boven de 80 frames lijkt me.
maw, het is compleet nutteloos.
Mwa... als je het menig 8800 bezitter vraagt zijn de drivers van nVidia ook verre van 'af'.

En hoezo doen driver-optimalisaties tientallen procenten er bij? Dan heb je het niet meer over "optimaliseren" maar over "voltooien" als je het mij vraagt. En derhalve heb je dus meteen niks meer aan de getallen die hier op gebaseerd zijn.

Maar goed, nvidia was dus ook nog niet 'klaar'... :P
op de foto staat www.tweakown.com
moet dit niet www.tweakTown.com zijn :)

maar ben blij dat ATI dit niet speelt als dat ze toen met de x1800 hebben gedaan.
maanden lang leaked benchmarks en promo zooi en de eigenlijke kaart steeds verder vertragen.

Nu AMD de touwtjes in handen heeft is er tenminste geen PR onzin meer.
Alsof AMD zo een goeie PR heeft :?

De kaart is gewoon te laat en heeft weinig op de CeBit kunnen laten zien, een gemiste kans. De vraag is alleen, in hoeverre de kwaliteit van de kaart is. Ik maak me tegenwoordig meer druk om de PCB, afwerking en de componenten erop dan de benchmarks.

Conform de vele fora's op het internet viel het me op dat veel 9800Pro kaarten na 2 jaar al overleden, en vaak ging het om stock snelheden, niet OC'ed. Ik mag hopen dat ATi dat heeft meegenomen in het assemblage proces want om kaarten van rond 400-600 euro te kopen die maar een levensduur van 2 jaar gemiddeld hebben word ik niet vrolijk van.
De kaart is allesbehalve te laat, het gaat om DX10.
Voor een DX9 spel volstaat een vorige generatie DX9 kaart prima, maar misschien net niet op ultra hoge settings (geen enkel DX9 spel vind ik de moeite waard om op zulke hoge settings te spelen).
Niet mee eens. Een highend gebruiker (waar deze kaart voor bedoeld is!) is alleen geinteresseerd in een dx10 kaart. Ati heeft een lange tijd op zich laten wachten, dus kopen de gebruikers voorlopig de 8800GTX. Een belangrijke reden om deze kaart niet te kopen, maar voor ATI te gaan, zal de meerwaarden zijn van de ATI kaart. Als dit maar 200 punten scheelt is dat geen toegevoegde waarde, dus is de kaart te laat. Laten we hopen dat een driverupdate de scores nog wat zullen opvoeren.
@sbronsge
Daarentegen ben ik het niet eens met jouw mening. Dat een highend gebruiker zo snel mogelijk een high-end kaart wil kopen duidt wat mij betreft op ongeduldigheid en kortzichtigheid.
Er is al jaren strijd tussen nVidia en ATI en nVidia probeert zijn concurrentie aan te pakken door de eerste de beste te zijn. Zo zit de wereld echter niet in elkaar.
ATI heeft natuurlijk wel nadeel als de producten echt lang op zich gaan wachten.

Meerwaarde in een videokaart zit eigenlijk in andere attributen zoals aantal aansluitingen, features van uitgangen (ingebouwde HDMI), videomogelijkheden, schaalbaarheid qua performance, outputkwaliteit etc.
En voor deze generatie is DX10 het allerbelangrijkste, men wil toch immers vooruit??

DE markt is de mainstream markt. En als ik schaalbaarheid qua performance mag aanhalen: de performance van 8600GT(X) zakt als een pudding in elkaar als er zwaardere instellingen worden gekozen. Voor mij een keiharde reden om die kaart niet aan te schaffen.

En reken er maar op dat die 2900XTX beduidend sneller zal worden als genoemde benchmarks.
@Dingie

Wat wauwel jij nou? Natuurlijk is de 2900 te laat! DX10 of niet, de 8800 is gewoon zwaar sneller. Het 'vlaggeschip' van ATI/AMD presteert (presteerde) ongeveer een half jaar lang op z'n best iets meer dan half zo goed als die van NV. Dat is een pijnlijke achterstand en die dan vervolgens een half jaar laten duren.... mja.. valt bij mij onder de categorie "te laat". Te meer omdat nvidia's nieuwe jongens alweer voor de deur staan (zeker in mei).

Kijk, ik ben ook ATi fan (;)), dus leuk vind ik het ook niet. Maar je moet wel beetje realistisch zijn. Ik heb dus ook (helaas) een 8800. Als ATi niet te laat zou zijn was dat anders geweest.
@dingie, het is inderdaad zo dat "zo snel mogelijk" een dx10 kaart kopen niet van toepassing is bij high end gebruikers. Juist omdat het een stap voor de toekomst is gezien de nieuwste spellen amper dx10 ondersteunen, mn post was trouwens al aangepast voordat je reageerde ;)
@ DingieM
dan overweeg ik wel een mainstream ATI DX10 aan te schaffen. Die zijn/worden gewoon beter dan nVidia.
En waar baseer jij dit op? De huidige generatie mainstraim kaarten van ATi zijn inderdaad bijzonder goed ... Een ATi X1650XT of een GeForce 7600GT. Dan weet ik het wel hoor. En ook bij de voirge generatie was dat zo, de X1600XT was ook niet beter dan een GeForce 6600GT. En nu kom jij plots aandraven dat de DX10 mainstream van ATi superieur is aan die van nVidia, wil je dan ook even laten weten waarop jij dit baseerd? :)
Denk jij dan dat die Performance drops niet aanwezig zullen zijn bij de midrange van ATi? Die drop komt gewoon door het gebruik van een 128 bits geheugenbus. En die gaat die ATi kaart heel waarschijnlijk ook hebben, anders wordt die gewoon te duur, en dus zal die ook die drops hebben.

Dan, The Inq, daar noem nog zoiets, die zijn even betrouwbaar als het nieuws van je oma die wat had gehoord toen ze bij de kapper aan het wachten was...

En image quality... hangt puur af van je driver instellingen. Ik heb tot dusverre 2 ATi's gehad en 2 nvidia's. Die ATi zijn beide overleden (9700Pro en 9800Pro), daar waar ik mijn eerste nVidia (6800GT) heb kunnen doorverkopen en het nu nog steeds doet en die 2e is mijn huidige. (7900GS)
DingieM: zelden zo'n onzin gehoord als al jouw berichten hier. Zelfs AMD bevestigt dat de R600 te laat is. Wat voor zin heeft het om dit te ontkennen?
Voor een DX9 spel volstaat een vorige generatie DX9 kaart prima
Klinklare onzin. Kijk naar benchmarks van recente games en je zal zien dat zelfs een single 8800GTX moeite heeft in de hogere IQ modes. Een 19000XTX kan al helemaal niet meer mee.
geen enkel DX9 spel vind ik de moeite waard om op zulke hoge settings te spelen
Wat ongelooflijke domme uitspraak is dat nu? Je koopt net zo'n kaart om met full eye candy en de hoogste IQ te spelen. Waarom zouden DX10 games dan wel de moeite waard zijn?
De kaart is allesbehalve te laat
en erna:
ATI heeft natuurlijk wel nadeel als de producten echt lang op zich gaan wachten.
Je spreekt jezelf tegen
En voor deze generatie is DX10 het allerbelangrijkste, men wil toch immers vooruit??
Voor deze generatie zal dat nog steeds DX9 zijn. Tijdens deze generatie zullen hoogstens 1-2 DX10 games uitkomen. Dus een G80 kopen is niet vooruit willen?
En als ik schaalbaarheid qua performance mag aanhalen: de performance van 8600GT(X) zakt als een pudding in elkaar als er zwaardere instellingen worden gekozen. Voor mij een keiharde reden om die kaart niet aan te schaffen.
Laat die benchmarks dan maar eens zien. En is het niet logisch dat een midrange kaart geen zwaardere instellingen aankan? Dat is voor jou de keiharde reden. Ik dacht dat je net niet op hoogste settings wou spelen?
Ik heb de PC qua gaming achter me gelaten en de MS console aangeschaft
Wat zit je hier dan nog op de reageren?
1. Keuzes van ATI bij het ontwerpen c.q. "downscalen van high-end kaarten" van midrange kaarten m.b.t. schaalbaarheid hardware en software performance.
2. Voorbeeld van de droevige performance drop bij genoemde 8600GT(X) ga maar kijken bij INQ.
3. Image quality. Mijn huidige nVidia G7x is gewoon drama. Echt drama t.o.v. mijn vorige 9800pro. Wat een verschil!
En vast nog meer...waaronder video-output aansluitingen ne video decoders
1. dat downscalen is gebeurd omdat ze anders teveel warmte en stroom verbruikten en om de kloksnelheden omhoog te krijgen. Ze hadden gewoon geen andere keuze, anders was de R600 gewoon niet snel genoeg.
2. De G80 heeft de beste IQ. Elke review bevestigt dit.
Vast nog meer na 2 waardeloze argumenten. Laat maar komen fanATIc.
@avalOne
Man man man wat laat jij je weer kennen zeg. Wat kun jij toch goed happen.
Kun jij werkelijk zo slecht tegen mijn keuzes?
ATI-fan? Ik heb niet eens gezegd dat de 8800 een flutkaart is. Het is zelfs een hele goede kaart maar IK VIND het niet goed genoeg.
Jij noemt mijn redenering dat ik geen enkel DX9 spel de moeite waard vind om op hoge instellingen te spelen een ongelooflijke domme uitspraak, terwijl IK dat gewoon VIND.
Dat jij dat niet kunt hebben is jouw probleem.

"1. dat downscalen is gebeurd omdat ze anders teveel warmte en stroom verbruikten en om de kloksnelheden omhoog te krijgen. Ze hadden gewoon geen andere keuze, anders was de R600 gewoon niet snel genoeg.".
Jij snapt niet wat ik bedoel. Mainstream kaarten zijn gebaseerd op een "downgrade" van de hardware m.a.w. ze laten bijvoorbeeld pipes weg. Het totale ontwerp van zo'n mainstream kaart heeft ATI toch echt beter in de vingers...VIND IK.

Heb jij werkelijk zo'n moeite met een persoon die liever kiest voor ATI producten met goede en begrijpelijke redenen?

Dat jij nVidia wil hebben moet jij weten het is jouw leven.

Succes en no worries
@BramT.
Het is maar wat je laat noemt.
Ik heb de PC qua gaming achter me gelaten en de MS console aangeschaft en word eigenlijker steeds happier dat ik dat besluit heb genomen.

Als LoTR Online teveel gaat vragen van mijn nVidia G7x lowlevel prutkaart in een Dell dan overweeg ik wel een mainstream ATI DX10 aan te schaffen. Die zijn/worden gewoon beter dan nVidia.

Maar de echte kick-ass games zijn al op de Xbox360 of komen er op. Het is echt geweldig om dat op je bank met 5.1 geluid op 1 meter hoge magnat speakers op een LCD TV te spelen.
@Skyline GT-R
Redenen?
1. Keuzes van ATI bij het ontwerpen c.q. "downscalen van high-end kaarten" van midrange kaarten m.b.t. schaalbaarheid hardware en software performance.
2. Voorbeeld van de droevige performance drop bij genoemde 8600GT(X) ga maar kijken bij INQ.
3. Image quality. Mijn huidige nVidia G7x is gewoon drama. Echt drama t.o.v. mijn vorige 9800pro. Wat een verschil!
En vast nog meer...waaronder video-output aansluitingen ne video decoders
De 9800pro's die snel overleden was door onvoldoende corekoeling. Was vooral bij de sapphires en lag aan de fabrikanten, niet ATi. Op dat moment was er trouwens helemaal geen keuze, nVidia had 't verkorven met de FX line-up.
Ik kan me inderdaad herinneren dat er een heel aantal kaarten was waar de shim op de core pcb te hoog was wat als resultaat had dat de koeling de core niet raakte.

Het scheelt te weinig om meteen artifacts te hebben, maar de kaart word toch ontzettend heet.
Dit heb ik overigens ook al een flinke tijd geleden gechecked toen mijn (sapphire) 9800pro nog hot was.. :+ -pun intended- Blijkbaar had niet elke kaart dit euvel. (de mijne niet bijvoorbeeld)

[edit]@eppie, mijn Sapphire 9800pro leeft nog steeds. Tot voor kort nog draaiende met pencilvoltmod en een jaar geleden nog zwaar overgeklokt. Nu loopt de kaart passief met alleen een hp80c. Ja hij heeft hard zijn best moeten doen, maar ik had dan ook een goed gekoelde pc.
Ik heb hier 2 9800aiw's liggen en een 9800pro allen zonder overklokken of wat dan ook overleden. Alle 3 zijn van verschillende merken.
En ik heb hier een 9800pro van sapphire liggen, en die doet het nog steeds goed..
lol, kijk dan goed, dit is gewoon een gesoepte foto van een 8800GTX :P de koeler, de pci-e aansluitingen, er klopt werkelijkwaar geen hout van :o
Er staan meer foto's op de bronsite. Ik heb zelf geen 8800GTX en zou niet kunnen zeggen of deze fake zijn, maar ze lijken me toch wel redelijk origineel. (Buiten de geblurrde delen iig)
Je kan aan de randen van de PCB en koeler zelf een rand zwart zien. Killed heeft gelijk. Dit is gewoon hard en slecht en feautauxf*cked
Dat ben ik niet met je eens. Kijk maar eens naar deze foto, je ziet daar 2 crossfire connectors en de nieuwe pci-e power connectors. En dat lijkt mij zeer moeilijk te photoshoppen.
Tweakers doe dit nu niet. Dit is waarschijnlijk een dikke hoax. Eerst werd nieuws eerst nagetrokken voor het gepost wordt. Tegenwoordig blijkbaar niet meer.

En er zijn ook al genoeg geruchten geweest dat de XTX op 800+ MHz zou draaien en het geheugen 2200.

2000 MHz geheugen zou gelijk zijn aan de snelheid van de X1950 XTX. Alleen dan wel 512 Bit.
Er staat toch ook niet dat het mem op 2ghz draait, er staat ruim boven de 2.

En waarom zouden ze dit niet neer kunnen zetten, het is misschien niet waar misschien wel, maar zijn zoveel dingen die niet zeker zijn.
idd, waarom is die foto ook zo eindeloos gefotosoept?

edit; ze zeggen dat het is om de merknaam van de gelekte kaart te verwijderen...
Ligt het nou aan mij of heeft iemand soms de controle over de spot healing tool in photoshop verloren bij het editen van die foto? :+

Kijk eens naar deze foto, wat moet dat dan echt voorstellen |:(
egt he,..
Maarja hierdoor kan je moeilijker zien dat er onder de kap gebeurt,.. zo is het makkelijker te facen he ;)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True