Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 122 reacties
Bron: Tweaktown

'De R600 zal dubbel zo hoge prestaties neerzetten als de R580', aldus AMD. Het bedrijf heeft vandaag informatie over de nieuwe videocore bevestigd. Op 30 maart moet de eerste high-end videokaart in de winkels liggen.

De Radeon X2900 XTX zal het high-end model zijn en wordt uitgerust met 1GB gddr4-geheugen, maar informatie over de kloksnelheden ontbreekt nog. Een trapje lager staat de X2900 XT, voorzien van 512MB gddr3-geheugen en een vijftien procent tragere gpu en onderaan de ladder staat de kaart met codenaam Ufo. De XTX-variant, die ook bekend staat als Dragons Head, wordt naar verluidt een 'monsterlijke' kaart met een lengte van maar liefst 31,5cm. Tweakers hoeven echter niet te vrezen of dit model wel in hun behuizing zal passen, want de kaart wordt enkel aan systeembouwers aangeboden. Consumenten zullen de 'Dragons Head 2' kunnen aanschaffen die in april op de markt moet verschijnen. Deze videokaart zal volgens AMD maximum 240W gaan verbruiken en geschikt zijn voor Crossfire-opstellingen. De dubbele stroomtoevoer middels een 6-pins-aansluiting en een extra 8-pins-pci-express-connector zal dan ook geen overbodige luxe zijn.

Codenaam Typenummer Gpu Geheugen I/O Form Factor Max energieverbruik Release
Dragons Head R600 XTX 'Snel' 1024MB gddr4 Dual dvi + Vivo 12,4" dual slot 270W Maart
Dragons Head 2 R600 XTX 'Snel' 1024MB gddr4 Dual dvi + Vivo 9,5" dual slot 240W Maart
Catseye R600 XT 10 tot 15 procent trager dan XTX 512MB gddr3 Dual dvi + Vivo 9,5" dual slot 240W April
Ufo R600 XL langzamer 512MB gddr3 Dual dvi + Tvo 9" dual slot 180W April
Moderatie-faq Wijzig weergave

Reacties (122)

1 2 3 ... 7
Dat klinkt interressant maar waarom wordt de Dragons Head alleen aan systeembouwers aangeboden? En zijn er al richtlijnen voor de prijs ?
Omdat de Dragons Head 2 voor consumenten is.
Omdat de Dragons Head 1 30 Watt meer verbuikt dan de Dragons Head 2.
Omdat de Dragons Head 1 7.4cm langer is dan de Dragons Head 2.
Wat ik mij nou afvraag waar dat verschil van 30 watt heengaat, en natuurlijk zijn ze dan nog even snel? En waarom het verschil? is de oem versie goedkoper te maken?
Zie passiewassie's post ;). Dat is zowieso al onmogelijk, want die kaarten zelf zijn exact hetzelfde. Het verschil zit em in de koeler van de OEM versie die de kaart ook bijna 8 cm langer maakt.
Dat is goed mogelijk, OEM versie is goedkoper, maar daardoor gemaakt met grotere onderdelen die meer energie slurpen.
De koeler op de dragonshead is 2.0ampere @ 12v, dat is ruwweg 24 watt :)
waarschijnlijk omdat hij gemaakt is met cores die een iets hogere Vcore nodig hadden dan die op de consumenten versie
Vraagje denken jullie dat de consumenten versie soms geen koeler krijgt? lijkt me nogal sterk... denk dat het verschil toch meer zou zitten in wat Countess suggereerd.
ja. Om even in de termen van dit nieuwbericht is het waarschijnlijk ''duur''
maar dan heb je een videokaart met een coresnelheid van ''snel'' :+
Dat wordt een FireGL kaart voor workstations. Een stuk langer wegens de koeler die achter de kaart bevestigd is, maar verder compleet dezelfde chip als het model voor consumenten, de Radeon X2900 XTX.
@Nille.NET

en dan krijg je toch gewoon de x2950XTX ;-), mogelijkheden genoeg :)
Wat zou de X2900XTX gaan kosten?
Doel je op:

A - Hoe duur de aanschafprijs is?
B - De kosten om het product te gebruiken tot hij is afgeschreven?
C - Antwoord A en B

Aangezien het een nieuwe kaart is en een top model is zal wel erg hoog zijn weer. Er volgen later hopelijk wel versies die minder stroom verbruiken.

Goh je zou dit maar als Nvidia gebruiker hebben in een quadro opstelling:

4x 270 = 1080W voor de videokaarten alleen al. Uiteraard hoort er bij zoveel digitale videokracht ook een leuke processor(s) Om het ze een beetje bij te laten benen denk dat je dan op zijn minst 2 (denk meer) toppers moet hebben. Die dus ook zo ruim 100W verbruiken elk.
Een RAID opstelling hoort hier ook bij want anders zitten we te wachten op de harde schijf... Hiervoor reken ik 50W. Komen we op een klein totaal van: 1330W

Valt nog best mee niet?
mijn eerste stofzuiger was ook 1300 watt.

zou zo'n systeem net zoveel stof zuigen???? :?
allemaal gezeik over dat stroomverbruik.. pff... kan ik echt zooooo slecht tegen. En dat je energie prijs gruwelijk omhoog gaat als je deze kaart koopt.. ook gelul... Je energie rekening zal misschien 20 euro omhoog gaan.. want als je ff op internet zit te surfen haalt hij die 240watt bij lange na niet.. want zoals ook al bij de 580 core aanwezig was.. de core clockt zich terug als je niks aan het doen bent. En zelfs in games zal die 240 nagenoeg nooit gehaalt worden want deze kaart is echt een BEEST en draait alle spelletjes van tegenwoordig met 2 vingers in zijn neus.. en daar komt nog bij JE HOEFT HEM NIET TE KOPEN!! en verziek de vreugde voor de mensen die wel het beste van het beste willen voor 20 euro meer per jaar... zo dat is eruit.. :)
Ik speel even advocaat van de duivel dan.
Je vergeet dat met al dat energy (mis)bruik, je het milieu "verpest". En dat mijn kindertjes die ik in de toekomst wil gaan maken dan in een armzalige wereld wonen, alleen omdat JIJ zonodig een computer spel moet spelen.

Eigenlijk maakt het me niet zo heel erg veel uit. Die energy word toch wel verstookt. Ze(Ati/amd) zouden groene energy alleen nog (meer?) moeten sponsoren!
En dan je voeding nog ;)
Idd, al die mensen die zeuren over die paar extra watts die verstookt worden wanneer je een game speelt die alles uit die kaart kan halen, deze mensen gebruiken waarschijnlijk altijd de standby functies van hun monitor/TV/VCR etc. etc. gebruiken mobieltjes welke opgeladen worden wat naar wat ik gelezen heb in het verleden 3x de hoeveelheid energie kost dan wat het oplevert. Ook met de scooter naar vrienden 2 kilometer verderop, aan papa vraagt hen even naar de voetbal club te rijden omdat het frisjes is etc.

maar dan die 40 extra watt op VOLLE belasting, nee das echt een dooddoener.

Eerlijk gezegd denk ik dat deze Watt-hetze door nVidianatics in het leven is geroepen om lekker te kunnen flamen.
Goezo jongen. Braaf.
'De R600 zal dubbel zo hoge prestaties neerzetten als de R580'
En wat voor soort R580 chip bedoelen ze dan? de X1900 GT is lang niet zo snel als de X1950 XTX...
Dus is het nog maar afwachten of de 8800 GTX van zijn performancetroon gestoten wordt...
aangezien precies HET belangrijkste feit wat het verschil uitmaakt tussen de X1900 GT of de X1950 XTX, namelijk de clocksnelheid van de nieuwe chip...niet opgegeven is...
Maar als we nu eens uitgaan van de al bekende informatie, dan weten we dat de x1950 XTX met GDDR4 ongeveer op 65% van de 8800 GTX presteert...Aangezien het stroomverbruik van de nieuwe R600 heel hoog ligt, zal ook de clocksnelheid erg hoog liggen, net zoals bij de X1950 XTX. Als we die snelheid als uitgangspunt nemen en dat vermenigvuldigen met 2 dan komt de performance van de R600 uit op ongeveer 25% tot 30% beter dan de 8800GTX met alle eyecandy op full... (dat zegt mijn grijze bol van binnen :P )
MAAR, of de performance uitgedrukt in FramesPerWatt ook hoger zal zijn dan bij de 8800GTX is nog maar de vraag...
PS: welke grafische kaart levert eigenlijk de meeste FramesPerWatt?
Ik heb altijd gedacht dat dat stroomverbruik een geintje was, maar nu blijkt het gewoon nog waar te zijn ook. Ik neem aan dat ik er een gratis zonnepaneel bij krijg om te compenseren?
Ik had ook eerst mijn twijvels maar viel daar later op terug.
Ten eerste is 80nm tov 90nm marginaal. Als ze R600 sneller willen laten zijn moet ie wel lekker hoog gekloked worden. Meer performance meer vermogen. Veel respins misschien ook daarvoor. Betere klok schaling.
Als die 240 wat max gepaard gaat met ook meer performance dan is dat normaal. G80 8800GTX zal ook niet het onderste uit de kan halen. Ik denk dan wat gaat 'n 8800Ultra dan trekken. Ook wat meer vermogen.

Daarnaast TDP MAX gemidelde Parktisch gebruik wil ik dan ook eerst weten.


Probleem nu is we weten nog steeds niet hoe de R600 kwa performance gaat verhouden tot g80.
De performance/Vermogen ratio is onbekend van de R600.

Bij gelijke prestaties is deze wattage verkeerd. Niet als ie navenant ook de meer performance geeft en Ultra van g80 zal ook wat meer trekken.

Is dus afwachten wat R600 brengt.
De R600 zal dubbel zo hoge prestaties neerzetten als de R580
Dat is maar magertjes voor een chip die véél te laat is. NVIDIA haalt met de G80 ook dubbel zo hoge prestaties als de G70. Bovendien zou R600 512 baantjes hebben voor het geheugen, en G80 doet het met 384. Ook qua stroomverbruik is de GeForce 8800 GTX met 200 Watt interessanter dan de Radeon X2900 XTX.

Of hebben ze echt een verassing in petto waar ze nog niet over spreken?
...en zo zou de G70 dubbel zo snel geweest zijn als de 6800. Een probleem is alleen dat dubbele prestaties nagenoeg niet mogelijk zijn, al zou het zo zijn... hoe weet je wanneer je van een verdubbeling kunt spreken? wanneer je dubbel de FPS behaald in een spel? Dat is onzin want frames zijn niet het enige wat videokaarten uit moeten rekenen, ook grafische kwaliteit en andere chip-afhankelijke factoren moeten dan in overweging genomen worden.

Het is allemaal verkooppraat en qua prestaties moeten we simpelweg afwachten tot het zover is.
...en zo zou de G70 dubbel zo snel geweest zijn als de 6800.
G70 was technisch gezien een refresh van NV40. Hier gaat het om een volledig nieuwe chip.
...hoe weet je wanneer je van een verdubbeling kunt spreken?
Terechte vraag, maar het feit dat ze zelf spreken van een verdubbeling vind ik dus maar magertjes. Ik vermoed dat ze het over theoretische GFLOPS hebben. Ik hoop voor hen dat dit zich vertaalt in een grote prestatiesprong in werkelijke applicaties.
Kan ik hem al ergens bestellen :P
Zou je dat dan willen zonder enige benches of dergelijke? Misschien is ie slomer dan de 8800 en duurder,... voel jij je dan ff genaaid met je pre-order :P
Duurder is hij per definitie met dat stroomverbruik, hooguit lager in aanschaf, maar dat maakt niets uit als je binnen een week al de halve aanschafprijs aan stroomkosten hebt mogen betalen >.<

Ongelofelijk dat ze dit neerzetten, in de voeten van ATi zou ik me doodschamen voor dat stroomverbruik.
Nou nou wat duur die energieverbruik van 7,5 cent per 4 uur.
Niet helemaal juist. Als je alles doorrekent (dus ook transport- en aansluitkosten) kom je op een ruwe 16 eurocent per kWh.

Als je dat afzet tegen het huidige verbruik van een "normaal geconfigureerde" PC met een 7600GT, verdubbelt je verbruik aan stroom!

Als je 20 uur per week gamed gemiddeld, zit je dus niet op 40 EUR per jaar, maar op 80 EUR per jaar (per PC en per VGA-kaart!). Ga je SLI doen, dan verdriedubbel je al.

Ik vind dat toch heel behoorlijk, ondanks dat het niet veel lijkt.
Nou nou wat duur die energieverbruik van 7,5 cent per 4 uur.
bij volledig gebruik is dit dus ruim 160 euro per jaar
uberhaupt is het al helemaal niet meer te volgen voor de normale consument met al die kleine (relatief dan he ) verschillen tussen al die kaarten en prijzen.

Zelfs als tweaker of in mijn geval, een tweaker fan is het al niet doenlijk om bij te houden. Als je nu een schema gaat maken met een overzicht krijg je denk ik een aardige tabel qua grote ...
nah...

XTX --> XT, PRO, GT, non pro, lager nummer meestal aanduiding dat ie slechter is dan 1 van hoger nummer, al kan een x1900non pro *(bestaat niet), trager zijn dan een evt x1800XTX ;-)

nvidia hou ik me niet zo aan op, maar soort gelijk systeem, waar GTX? snelste is...
nvidia:

TNT2:
Ultra>Pro>[geen tag]>M64

geforce:
DDR>256

geforce 2:
Ultra>Ti>pro>GTS>MX

geforce 3:
Ti>[geen tag]

geforce 4:
Ti>Mx
(die mx4** kaarten hebben veel te lang overleefd.. vervelende krengen)

geforce 5(FX):
Ultra>[geen tag]>XT>LE

Geforce 6***:
Ultra>GT>[geen tag]>XT>LE

Geforce 7***:
GTX>GT>GS

Geforce 8***:
Ultra>GTX>GT>GS>[geen tag]
(gf8 serie is nog niet 100% zeker)

Corrigeer me als ik iets mis of door elkaar gehaald heb :P

(bedankt voor de correcties iedereen, ik laat de nummers terzijde, het gaat me alleen even om de tags (ultra, titanium, pro, mx etc.))
Corriseer me als ik iets mis of door elkaar gehaald heb :P
Corrigeer
6 serie was er ook een XT dat was eigenlijk ook een LE :P
Corriseer me als ik iets mis of door elkaar gehaald heb
Omdat je het zo vriendelijk vraagt :)
maar ze differentieren een beetje per generatie, bij Gf2 series was het:
GTS>256>MX
Een 'GF2 256' heeft nooit bestaan, je verwart met de allereerste Geforce. Die bestond als "Geforce 256" (met SDR geheugen) en "Geforce DDR" (met sneller DDR-geheugen).

Een juistere voorstelling van de GF2 series is:
GF2 Ultra > GF2 Ti > GF2 Pro > GF2 GTS >>>>> GF2 MX (met verschillende varianten).
bij de geforce 3 was er alleen een Ti serie
Neen, toen de GF3 uitkwam had hij geen extra benaming, het was gewoon "Geforce 3". De GF3 Ti200 en Ti500 kwamen later uit.
Bij ati heeft er ook nog een tijdje de SE versies en de VE versies bestaan...
Iedereen maakt zich blijkbaar druk om de kloksnelheid van deze chip en het energieverbruik.

ik zal het overzichtelijk maken voor iedereen

Performance VS Nvidia.
  • ATI gebruik een ander soort unified shader,een complex ipv een simpele,een complexe kan 2 keer zoveel doen dan een simpele op dezelfde kloksnelheid
  • de R600 heeft evenveel shaders als een G80
  • de R600 zijn shaders lopen niet aan hogere snelheid dan de snelheid van de core,in tegenstelling tot de G80
  • 512bit geheuginterface vs 384bit interface
Als je dit zowat bekijkt heeft de R600 een performance voordeel,elke MHz hoger zorgt voor het dubbele aan shaderperformance dan dat 1 MHz bij een nvidia kaart uitmaakt
Stel dat deze kaar op 750 core geklockt is,wil dat 1.5ghz zeggen voor nvidia shaders. Simplistisch gezien e mensen ;)
De geheugeninterface is heel belangrijk,heel veel games gaan hier baat bij halen, bij de veel hogere geheugenbandbreedte

Energieverbruik
  • Dit is het maximale energieverbuik,want doen de meeste graka's in pc's, idlen inderdaad
  • het is maar 40W meer dan een nvidia kaart,40W is niets
  • Wat als ATI/AMD een ander systeem gebruikt om de TDP te berekenen dan Nvidia (zoals bij intel <-> AMD)
Dadelijk ga je nog beweren dat de R600 dubbel zo snel is als de G80?

De R600 240 watt, de G80 200 (als ik die 40 watt verschil van jouw er vanaf trek)

Dan zou de performance van een R600 120% moeten zijn tov de performance van de G80.

En die technieken wat je opsomt is leuk en aardig maar er speelt nog meer hoor ;)

Ik ben beniewd of de R600 daadwerkelijk 20% sneller is dan de G80, puur en alleen al om het extra vermogen te rechtvaardigen. Aanschafprijs en late release heb ik het niet eens over dan.
Waar beweer ik dat??
de shaders van de R600 draaien op de coresnelheid, de shaders van de Nvidia draaien aan 1350mhz ofzo
als je alle specs gewoon bekijkt kan het normaal gezien niet anders dat de R600 toch een pak sneller moet zijn
en waarom klaagt iedereen over 40watt verschil??
de mensen dat deze kaarten kunnen kopen liggen niet wakker van een hoge elektriciteits rekening hoor :)
Wat als ATI/AMD een ander systeem gebruikt om de TDP te berekenen dan Nvidia (zoals bij intel <-> AMD)
Onzin. Bij gpu spreken we niet over TDP's. We spreken over maximaal verbruik tijdens 100% belasting. Dat NVIDIA een ander systeem zou gebruiken is je eigen fantasie.
EU[R]600 schat ik... missch nog wel hoger :'(

En trouwens als Nvidia die andere 128 banen open zet en rest van het geheugen erbij propt dan denk ik dat ze er wel voorbij gaan schieten , qua prijs en prestatie waarschijnlijk }>
Want kom op nou zeg, die 384 banen en 768 MB dat is toch ook gewoon "ja we willen nog wat geld uitmelken terwijl we op de concurrent wachten waar die mee aankomt"-oplossing...

We worden aant lijntje gehouden :(
Ik weet nog dat mijn X1900XTX 609,- euro was (bij een goeie webshop, azerty) toen ik hem kocht. Hij was toen net gelanceerd. Dus ik denk dat deze wel rond de 600 a 650 komt te liggen.. Maar bij winkels als Paradigit etc vast en zeker 699,- :P
Neen, een bredere geheugenbus vereist een complexere core & printplaat en (hiermee) ook meer ontwerpkosten. Dus die banen kunnen niet "opengezet" worden, ze moeten eerst bedacht worden!

Edit: We worden constant aan het lijntje gehouden. Nadeel van een sociaal systeem waarbij alles van boven naar benden gaat en nooit opzij.
1 2 3 ... 7

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True