AMD bevestigt roadmap en details R600

'De R600 zal dubbel zo hoge prestaties neerzetten als de R580', aldus AMD. Het bedrijf heeft vandaag informatie over de nieuwe videocore bevestigd. Op 30 maart moet de eerste high-end videokaart in de winkels liggen.

De Radeon X2900 XTX zal het high-end model zijn en wordt uitgerust met 1GB gddr4-geheugen, maar informatie over de kloksnelheden ontbreekt nog. Een trapje lager staat de X2900 XT, voorzien van 512MB gddr3-geheugen en een vijftien procent tragere gpu en onderaan de ladder staat de kaart met codenaam Ufo. De XTX-variant, die ook bekend staat als Dragons Head, wordt naar verluidt een 'monsterlijke' kaart met een lengte van maar liefst 31,5cm. Tweakers hoeven echter niet te vrezen of dit model wel in hun behuizing zal passen, want de kaart wordt enkel aan systeembouwers aangeboden. Consumenten zullen de 'Dragons Head 2' kunnen aanschaffen die in april op de markt moet verschijnen. Deze videokaart zal volgens AMD maximum 240W gaan verbruiken en geschikt zijn voor Crossfire-opstellingen. De dubbele stroomtoevoer middels een 6-pins-aansluiting en een extra 8-pins-pci-express-connector zal dan ook geen overbodige luxe zijn.

Codenaam Typenummer Gpu Geheugen I/O Form Factor Max energieverbruik Release
Dragons Head R600 XTX 'Snel' 1024MB gddr4 Dual dvi + Vivo 12,4" dual slot 270W Maart
Dragons Head 2 R600 XTX 'Snel' 1024MB gddr4 Dual dvi + Vivo 9,5" dual slot 240W Maart
Catseye R600 XT 10 tot 15 procent trager dan XTX 512MB gddr3 Dual dvi + Vivo 9,5" dual slot 240W April
Ufo R600 XL langzamer 512MB gddr3 Dual dvi + Tvo 9" dual slot 180W April

Door Yoeri Lauwers

Eindredacteur

15-03-2007 • 17:10

122

Bron: Tweaktown

Reacties (122)

122
121
54
12
4
51
Wijzig sortering
Dat klinkt interressant maar waarom wordt de Dragons Head alleen aan systeembouwers aangeboden? En zijn er al richtlijnen voor de prijs ?
Omdat de Dragons Head 2 voor consumenten is.
Omdat de Dragons Head 1 30 Watt meer verbuikt dan de Dragons Head 2.
Omdat de Dragons Head 1 7.4cm langer is dan de Dragons Head 2.
Wat ik mij nou afvraag waar dat verschil van 30 watt heengaat, en natuurlijk zijn ze dan nog even snel? En waarom het verschil? is de oem versie goedkoper te maken?
Zie passiewassie's post ;). Dat is zowieso al onmogelijk, want die kaarten zelf zijn exact hetzelfde. Het verschil zit em in de koeler van de OEM versie die de kaart ook bijna 8 cm langer maakt.
Dat is goed mogelijk, OEM versie is goedkoper, maar daardoor gemaakt met grotere onderdelen die meer energie slurpen.
De koeler op de dragonshead is 2.0ampere @ 12v, dat is ruwweg 24 watt :)
waarschijnlijk omdat hij gemaakt is met cores die een iets hogere Vcore nodig hadden dan die op de consumenten versie
Vraagje denken jullie dat de consumenten versie soms geen koeler krijgt? lijkt me nogal sterk... denk dat het verschil toch meer zou zitten in wat Countess suggereerd.
ja. Om even in de termen van dit nieuwbericht is het waarschijnlijk ''duur''
maar dan heb je een videokaart met een coresnelheid van ''snel'' :+
Dat wordt een FireGL kaart voor workstations. Een stuk langer wegens de koeler die achter de kaart bevestigd is, maar verder compleet dezelfde chip als het model voor consumenten, de Radeon X2900 XTX.
@Nille.NET

en dan krijg je toch gewoon de x2950XTX ;-), mogelijkheden genoeg :)
Wat zou de X2900XTX gaan kosten?
Doel je op:

A - Hoe duur de aanschafprijs is?
B - De kosten om het product te gebruiken tot hij is afgeschreven?
C - Antwoord A en B

Aangezien het een nieuwe kaart is en een top model is zal wel erg hoog zijn weer. Er volgen later hopelijk wel versies die minder stroom verbruiken.

Goh je zou dit maar als Nvidia gebruiker hebben in een quadro opstelling:

4x 270 = 1080W voor de videokaarten alleen al. Uiteraard hoort er bij zoveel digitale videokracht ook een leuke processor(s) Om het ze een beetje bij te laten benen denk dat je dan op zijn minst 2 (denk meer) toppers moet hebben. Die dus ook zo ruim 100W verbruiken elk.
Een RAID opstelling hoort hier ook bij want anders zitten we te wachten op de harde schijf... Hiervoor reken ik 50W. Komen we op een klein totaal van: 1330W

Valt nog best mee niet?
mijn eerste stofzuiger was ook 1300 watt.

zou zo'n systeem net zoveel stof zuigen???? :?
allemaal gezeik over dat stroomverbruik.. pff... kan ik echt zooooo slecht tegen. En dat je energie prijs gruwelijk omhoog gaat als je deze kaart koopt.. ook gelul... Je energie rekening zal misschien 20 euro omhoog gaan.. want als je ff op internet zit te surfen haalt hij die 240watt bij lange na niet.. want zoals ook al bij de 580 core aanwezig was.. de core clockt zich terug als je niks aan het doen bent. En zelfs in games zal die 240 nagenoeg nooit gehaalt worden want deze kaart is echt een BEEST en draait alle spelletjes van tegenwoordig met 2 vingers in zijn neus.. en daar komt nog bij JE HOEFT HEM NIET TE KOPEN!! en verziek de vreugde voor de mensen die wel het beste van het beste willen voor 20 euro meer per jaar... zo dat is eruit.. :)
Ik speel even advocaat van de duivel dan.
Je vergeet dat met al dat energy (mis)bruik, je het milieu "verpest". En dat mijn kindertjes die ik in de toekomst wil gaan maken dan in een armzalige wereld wonen, alleen omdat JIJ zonodig een computer spel moet spelen.

Eigenlijk maakt het me niet zo heel erg veel uit. Die energy word toch wel verstookt. Ze(Ati/amd) zouden groene energy alleen nog (meer?) moeten sponsoren!
En dan je voeding nog ;)
Idd, al die mensen die zeuren over die paar extra watts die verstookt worden wanneer je een game speelt die alles uit die kaart kan halen, deze mensen gebruiken waarschijnlijk altijd de standby functies van hun monitor/TV/VCR etc. etc. gebruiken mobieltjes welke opgeladen worden wat naar wat ik gelezen heb in het verleden 3x de hoeveelheid energie kost dan wat het oplevert. Ook met de scooter naar vrienden 2 kilometer verderop, aan papa vraagt hen even naar de voetbal club te rijden omdat het frisjes is etc.

maar dan die 40 extra watt op VOLLE belasting, nee das echt een dooddoener.

Eerlijk gezegd denk ik dat deze Watt-hetze door nVidianatics in het leven is geroepen om lekker te kunnen flamen.
'De R600 zal dubbel zo hoge prestaties neerzetten als de R580'
En wat voor soort R580 chip bedoelen ze dan? de X1900 GT is lang niet zo snel als de X1950 XTX...
Dus is het nog maar afwachten of de 8800 GTX van zijn performancetroon gestoten wordt...
aangezien precies HET belangrijkste feit wat het verschil uitmaakt tussen de X1900 GT of de X1950 XTX, namelijk de clocksnelheid van de nieuwe chip...niet opgegeven is...
Maar als we nu eens uitgaan van de al bekende informatie, dan weten we dat de x1950 XTX met GDDR4 ongeveer op 65% van de 8800 GTX presteert...Aangezien het stroomverbruik van de nieuwe R600 heel hoog ligt, zal ook de clocksnelheid erg hoog liggen, net zoals bij de X1950 XTX. Als we die snelheid als uitgangspunt nemen en dat vermenigvuldigen met 2 dan komt de performance van de R600 uit op ongeveer 25% tot 30% beter dan de 8800GTX met alle eyecandy op full... (dat zegt mijn grijze bol van binnen :P )
MAAR, of de performance uitgedrukt in FramesPerWatt ook hoger zal zijn dan bij de 8800GTX is nog maar de vraag...
PS: welke grafische kaart levert eigenlijk de meeste FramesPerWatt?
Ik heb altijd gedacht dat dat stroomverbruik een geintje was, maar nu blijkt het gewoon nog waar te zijn ook. Ik neem aan dat ik er een gratis zonnepaneel bij krijg om te compenseren?
Ik had ook eerst mijn twijvels maar viel daar later op terug.
Ten eerste is 80nm tov 90nm marginaal. Als ze R600 sneller willen laten zijn moet ie wel lekker hoog gekloked worden. Meer performance meer vermogen. Veel respins misschien ook daarvoor. Betere klok schaling.
Als die 240 wat max gepaard gaat met ook meer performance dan is dat normaal. G80 8800GTX zal ook niet het onderste uit de kan halen. Ik denk dan wat gaat 'n 8800Ultra dan trekken. Ook wat meer vermogen.

Daarnaast TDP MAX gemidelde Parktisch gebruik wil ik dan ook eerst weten.


Probleem nu is we weten nog steeds niet hoe de R600 kwa performance gaat verhouden tot g80.
De performance/Vermogen ratio is onbekend van de R600.

Bij gelijke prestaties is deze wattage verkeerd. Niet als ie navenant ook de meer performance geeft en Ultra van g80 zal ook wat meer trekken.

Is dus afwachten wat R600 brengt.
De R600 zal dubbel zo hoge prestaties neerzetten als de R580
Dat is maar magertjes voor een chip die véél te laat is. NVIDIA haalt met de G80 ook dubbel zo hoge prestaties als de G70. Bovendien zou R600 512 baantjes hebben voor het geheugen, en G80 doet het met 384. Ook qua stroomverbruik is de GeForce 8800 GTX met 200 Watt interessanter dan de Radeon X2900 XTX.

Of hebben ze echt een verassing in petto waar ze nog niet over spreken?
...en zo zou de G70 dubbel zo snel geweest zijn als de 6800. Een probleem is alleen dat dubbele prestaties nagenoeg niet mogelijk zijn, al zou het zo zijn... hoe weet je wanneer je van een verdubbeling kunt spreken? wanneer je dubbel de FPS behaald in een spel? Dat is onzin want frames zijn niet het enige wat videokaarten uit moeten rekenen, ook grafische kwaliteit en andere chip-afhankelijke factoren moeten dan in overweging genomen worden.

Het is allemaal verkooppraat en qua prestaties moeten we simpelweg afwachten tot het zover is.
...en zo zou de G70 dubbel zo snel geweest zijn als de 6800.
G70 was technisch gezien een refresh van NV40. Hier gaat het om een volledig nieuwe chip.
...hoe weet je wanneer je van een verdubbeling kunt spreken?
Terechte vraag, maar het feit dat ze zelf spreken van een verdubbeling vind ik dus maar magertjes. Ik vermoed dat ze het over theoretische GFLOPS hebben. Ik hoop voor hen dat dit zich vertaalt in een grote prestatiesprong in werkelijke applicaties.
Kan ik hem al ergens bestellen :P
Zou je dat dan willen zonder enige benches of dergelijke? Misschien is ie slomer dan de 8800 en duurder,... voel jij je dan ff genaaid met je pre-order :P
Duurder is hij per definitie met dat stroomverbruik, hooguit lager in aanschaf, maar dat maakt niets uit als je binnen een week al de halve aanschafprijs aan stroomkosten hebt mogen betalen >.<

Ongelofelijk dat ze dit neerzetten, in de voeten van ATi zou ik me doodschamen voor dat stroomverbruik.
Nou nou wat duur die energieverbruik van 7,5 cent per 4 uur.
Nou nou wat duur die energieverbruik van 7,5 cent per 4 uur.
bij volledig gebruik is dit dus ruim 160 euro per jaar
Niet helemaal juist. Als je alles doorrekent (dus ook transport- en aansluitkosten) kom je op een ruwe 16 eurocent per kWh.

Als je dat afzet tegen het huidige verbruik van een "normaal geconfigureerde" PC met een 7600GT, verdubbelt je verbruik aan stroom!

Als je 20 uur per week gamed gemiddeld, zit je dus niet op 40 EUR per jaar, maar op 80 EUR per jaar (per PC en per VGA-kaart!). Ga je SLI doen, dan verdriedubbel je al.

Ik vind dat toch heel behoorlijk, ondanks dat het niet veel lijkt.
uberhaupt is het al helemaal niet meer te volgen voor de normale consument met al die kleine (relatief dan he ) verschillen tussen al die kaarten en prijzen.

Zelfs als tweaker of in mijn geval, een tweaker fan is het al niet doenlijk om bij te houden. Als je nu een schema gaat maken met een overzicht krijg je denk ik een aardige tabel qua grote ...
nah...

XTX --> XT, PRO, GT, non pro, lager nummer meestal aanduiding dat ie slechter is dan 1 van hoger nummer, al kan een x1900non pro *(bestaat niet), trager zijn dan een evt x1800XTX ;-)

nvidia hou ik me niet zo aan op, maar soort gelijk systeem, waar GTX? snelste is...
nvidia:

TNT2:
Ultra>Pro>[geen tag]>M64

geforce:
DDR>256

geforce 2:
Ultra>Ti>pro>GTS>MX

geforce 3:
Ti>[geen tag]

geforce 4:
Ti>Mx
(die mx4** kaarten hebben veel te lang overleefd.. vervelende krengen)

geforce 5(FX):
Ultra>[geen tag]>XT>LE

Geforce 6***:
Ultra>GT>[geen tag]>XT>LE

Geforce 7***:
GTX>GT>GS

Geforce 8***:
Ultra>GTX>GT>GS>[geen tag]
(gf8 serie is nog niet 100% zeker)

Corrigeer me als ik iets mis of door elkaar gehaald heb :P

(bedankt voor de correcties iedereen, ik laat de nummers terzijde, het gaat me alleen even om de tags (ultra, titanium, pro, mx etc.))
Corriseer me als ik iets mis of door elkaar gehaald heb :P
Corrigeer
6 serie was er ook een XT dat was eigenlijk ook een LE :P
Corriseer me als ik iets mis of door elkaar gehaald heb
Omdat je het zo vriendelijk vraagt :)
maar ze differentieren een beetje per generatie, bij Gf2 series was het:
GTS>256>MX
Een 'GF2 256' heeft nooit bestaan, je verwart met de allereerste Geforce. Die bestond als "Geforce 256" (met SDR geheugen) en "Geforce DDR" (met sneller DDR-geheugen).

Een juistere voorstelling van de GF2 series is:
GF2 Ultra > GF2 Ti > GF2 Pro > GF2 GTS >>>>> GF2 MX (met verschillende varianten).
bij de geforce 3 was er alleen een Ti serie
Neen, toen de GF3 uitkwam had hij geen extra benaming, het was gewoon "Geforce 3". De GF3 Ti200 en Ti500 kwamen later uit.
Bij ati heeft er ook nog een tijdje de SE versies en de VE versies bestaan...
X2950 probleem opgelost
En dan klagen dat de productnamen zo verwarrend zijn. Jaha :Z
Toch eigenaardig dat in tijden waar de klimaatsveranderingen centraal staan (onafhankelijk of deze nu correct zijn of niet), er met watts gesmeten wordt. Ook de energieprijzen worden steeds duurder.

Terwijl we bij auto's steeds meer op emissienormen en verbruik letten, kan het in de pc-wereld niet op. Als je vb een X2 3800+ (65w) met 1Gb DDR2 hebt, en een 7600gs (34w), als maximumverbruiken, en je dag en nacht met je pc werkt (avg 90w), scheelt dit op jaarbasis toch al snel een 300,00 € aan electriciteit, tegenover een top-pc met 4 Cores, top videocard, etc... (+- 300w avg)
Joh, die paar tientallen watts gaan ook echt uitmaken. Bedenk ff dat een auto tientallen pk's heb en dat een pk iets van 750W is. Tel daarbij op dat heel de wereld een auto heb (zo hard lopen losse videokaarten niet in de winkelcentra) en dan heb je eigenlijk weinig te zeuren. Wil je op deze schaal stroom besparen, dan haal je beter rond december die achterlijke lichtslangen van je huis. Je wilt niet weten wat DIE dingen zuipen. Dan valt die paar watt van een videokaart echt wel mee, het ding staat het grootste deel van de tijd toch idle...

Op dit item kan niet meer gereageerd worden.