'Radeon R600 introductie nu in mei'

Volgens nieuwe geruchten zal de uitgestelde topchip van ATi in mei worden geïntroduceerd. Problemen met de prestaties en gddr4-geheugen worden als boosdoener aangewezen voor het meest recente uitstel. Oorspronkelijk zou de chip al in november verschijnen.

Problemen met het gddr4-geheugen (of de levering daarvan) zouden er voor gezorgd hebben dat het geplande topmodel - de Radeon X2900 XTX met 1GB van het spul - niet geleverd kan worden. In plaats daarvan zal een versie met 512MB gddr3 in eerste instantie de leiding op zich moeten nemen. Het plan zou nu zijn om op 22 maart samples uit te leveren, in april de productie te starten en begin mei een introductie met directe beschikbaarheid uit te voeren. De snellere gddr4-versie zou later alsnog komen, maar op zijn minst een paar weken na de introductie.

Een andere reden die wordt genoemd voor het uitstel is dat de oorspronkelijk geplande versies van R600 niet indrukwekkend genoeg waren tegenover de GeForce 8800. Dit was eenvoudig op te lossen door de kloksnelheid te verhogen, maar daardoor wordt de productie wel weer een stap moeilijker. Probleem voor ATi daarbij is wel dat de topmodellen van nVidia tegen de tijd dat R600 wordt gelanceerd een half jaar oud zullen zijn, rijp voor een upgrade dus. De geruchtenmolen is nog verdeeld tussen een 80nm G81 als 'bescheiden' zet of een echte klapper als een 65nm G90, maar hoe dan ook zal nVidia snel terugslaan.

ati R600XTX

Door Wouter Tinus

05-03-2007 • 18:48

88

Bron: Fudzilla

Reacties (88)

Sorteer op:

Weergave:

Ach, wat nou te laat? Wie speelt er hier al Crisis dan? of Alan wake? of 1 van de andere nextgen dx10 titels?
Of wie kan zon benchen op al zijn functies?

niemand? dan is er dus geen enkele dx10 kaart te laat.....

En wees blij dat het in dit tempo gaat. 3D-kaarten schrijven qua waarde al snel genoeg af tegenwoordig.

Ben zelf voornamelijk benieuwd naar de eerste dx10 benchmarks (kom futuremark, help ook eens mee hierin) van beide merken. Pas dan kunnen we zien wie de snelste/beste is. Fear,Oblivion,Quake4,splintercell DA, Rainbow Six LV etc. draaien op de dx9 highend kaarten ook perfekt, dus daar hoeven we geen nieuwe kaarten voor. :Z
Door te kaart nu al te hebben
kan het leed van het wachten
op het spel doen verzachten.
draaien op de dx9 highend kaarten ook perfekt, dus daar hoeven we geen nieuwe kaarten voor.

En wat als je high-end dx9 kaart inmiddels helemáál niet meer zo high-end is. Waardoor je zit te springen om een update..

Beetje kortzichtig imho. :>

[edit]
@ SG
Komt er weer een met dx10, resoluties en 300 fps op dx9.

Onzin! Totaal bezijden m'n punt.

Als je 'n -7800GT hebt, X8x0, of wat dan ook, kan het tijd zijn voor een upgrade, omdat je kaart je games niet meer trekt op acceptabele settings. In dat geval is de r6x0 serie rijkelijk laat vergeleken met de G8x serie. Een oude serie kopen is weggegooid geld omdat het te weinig preformance verbetering biedt.

Je hoge resoluties en fps verhaaltje is ook behoorlijke quatsch. Op lagere resoluties kun je er meer AA en AF tegenaan gooien, waardoor ook een r600 of G80 nog gewoon aan het werk moet. Zie alle tot nog toe gepubliceerde benchmarks op verschillende sites. (Links zoek je zelf maar.)
Nou nee tenzij je geen 30" monitor hebt praat je bij veel games over FPS ver voorbij de 90fps.

Het maakt niet uit of je 150 of 300 fps draaied.
Sommigen hebben de luxe maar niet de noodzaak om hoge resoos in te stellen. Maar dat is geen moetje meer een luxe wens.

Dx10 games zullen met de huidige hardware sowieso op een lagere dX9 setting uitkomen. Devs zullen de Dx10 mode een stuk zwaarder maken. Dan komt de Fps tussen de 30 á 60 bij normale resoluties. Dit gaat ook enogzins geleidelijk totdat DX10 hardware mainstream wordt.
Je vergeet 1 ding. Naast een DX10 kaart is de G80 ook een supersnelle DX9 kaart die dikwijls sneller is dan elke crossfire combinatie. Dus ja, de R600 is te laat. Ati heeft nu geen high end DX9 kaart.
Je vergeet één ding Dx10 performance verhouding tussen nV en aTI Dx10 generatie is onbekent.
Maar er is voor nV gebruikers verontrusten news de R600 verslaat met beta drivers G80 als in GS performance.
Geometrie shaders. Volgens een MSFSX dev blog.

Dx10 titles die intensief GS gebruiken lopen dus harder op R600. in wat voor mate is onbekend.

Maar doet me denken aan de R3X0 serie vs nV3X Sm2.0 problemen
nV3X deed het ook heel goed in Dx8.
.
Uiteindelijk is DX10 performance juist meer relevant 'n GTSje voldoet ook al ruim voor Dx9 meuk.
Je vergeet één ding Dx10 performance verhouding tussen nV en aTI Dx10 generatie is onbekent.
Onbekend zul je bedoelen. Waar staat dat ik het tegendeel beweer? Natuurlijk is dit onbekend: de R600 is er nog lang niet dus daar kan je niet mee vergelijken. Er zijn ook geen dx10 benchmarks dus je kan het zelfs niet testen.
Maar er is voor nV gebruikers verontrusten news de R600 verslaat met beta drivers G80 als in GS performance.
En is dat belangrijk? Ik herinner me dat de R520/R580 kaarten ook veel beter dynamic branching had dan de NV40/G70. Is dit uiteindelijk belangrjik gebleken? Nee, omdat games niet zuiver op GS of dynamic branching teren.
Goed de R600 heeft snellere GS. Hoe snel? 1% 100? 1% is ook al sneller maar zal uiteindelijk niks uitmaken.
GTSje voldoet ook al ruim voor Dx9 meuk.
Vanwaar haal je die kromme redeneringen? Een GTS kan lang niet elke game aan met full IQ.
Dat maakt R600 juist aantrekkelijk als je X1800/1900 hardware als HavokFX versneller wil gebruiken.
Die 7serie van nV zuigt daarin zo dat Folding home die oversloeg.

Heb 'n X1800XL die kan ik dus gebruiken als Physics versneller naast 'n R600.

Wordt 'n interrssant jaar betreft Physics.

Wat noem je full IQ.
16x FSAA of nog zwaarde AA op zijn 30" 2560x1600 doet?

1800x1440 is al 'n mooie Full HD resolutie. Meer is Luxe die je niet nodig hebt tenzij je geld te veel hebt.
1600x1200 neemt de massa met voldoende budged ook al genoegen mee. 'n beetje fSAA om het helemaal af te maken.
1280x1024 is toch wel de meeste rgonomische en praktische keuze met wat FSAA.

Dat trekken de meeste SM3.0 High-end kaarten met de gross van de huidige Dx9 games wel.
Doet me een beetje denken aan de lijn die de PS3 heeft gevolgd. Het is natuurlijk fantastisch om state of the art technologie te gebruiken, laat dat duidelijk zijn.

Het wordt echter ook pijnlijk duidelijk dat state of the art technologie zich niet makkelijk laat produceren en dat daardoor er vertragingen ontstaan die ervoor kunnen zorgen dat de concurrentie de spreekwoordelijke kaas van hun brood eet.
Kromme vergelijking, maar het is niet echt heel raar dat als je een half jaar later met je "nieuwe" release bent je een snellere kaart neer kan zetten.Dat is inherent aan deze sector.
Ik kan ook roepen bij de release van een nieuwe superkaart dat ik een snellere heb/ga maken, maar dan moet je hem imo wel gelijk op de markt zetten. Kan gaan knagen aan je geloofwaardigheid. En hij is er nog steeds niet.......
LOL.

Hoe kunnen mensen nu al zeggen hoe snel de R600 is? :z

Niemand weet nu nog hoe snel hij is; er is nog geen benchmark vrijgegeven. Hij zal heus wel goed zijn, maar hoe goed? Dat moeten we allemaal nog even afwachten.
ff stukje gejat uit originele artikel..:

ATi X2900 DE (Delayed Edition) :*)

Maar zonder gein, in mei is het vaak al wat warmer en heb je toch helemaal geen verwarming van 250+ Watt in je PC meer nodig?
Je moet wel een ruime kast hebben voor dat monster :P
Dat is dus de reden dat de koperprijs stijgt, vanwege dat koelblok wordt er nu dus overal koper gejat waar je bij staat :+ .
Ik denk dat dit de OEM-versie is, de retail-versie zal korter zijn.
korter als een 8800gtx zelfs.
Ik kan me herinneren dat we vroeger altijd lachten om die extreem lange ISA kaarten waar van alles aan hing, waren wij even hip met onze AGP grafische kaartjes die nooit langer waren dan ongeveer 15 cm.. en nu zijn we weer terug bij starters. 't ziet er allemaal wat wanhopig uit, als we de technologie niet kleiner meer kunnen krijgen, dan maar gewoon meer ruimte en energie? Is geen kunst meer aan zo.
Niemand verplicht je van zo'n kaart te kopen. Is ie te lang? Koop dan een kortere. WIl je geen dual slot? Koop dan een single slot. Verbruikt ie teveel stroom? Koop dan een zuinigere.
NVIDIA en ATI hebben voor elks wat wils in het assortiment dus niet klagen.
past ie niet in je kast,..weg kast,....
Niemand verplicht je van zo'n kaart te kopen. Is ie te lang? Koop dan een kortere. WIl je geen dual slot? Koop dan een single slot. Verbruikt ie teveel stroom? Koop dan een zuinigere.
Daar gaat het net om. Sommige mensen willen topprestaties, zonder dat ze zich blauw moeten betalen aan elektriciteitskosten.

De nieuwe Intels verstoken minder energie dan de vorige generatie, en het zou leuk zijn om dat ook eens van de videokaarten te zien.
Sommige mensen willen topprestaties, zonder dat ze zich blauw moeten betalen aan elektriciteitskosten.
Dat is onmogelijk. Prestaties en zuinigheid gaan gewoon niet samen. Ken je een sportwagen die zuinig is?
De nieuwe Intels verstoken minder energie dan de vorige generatie, en het zou leuk zijn om dat ook eens van de videokaarten te zien.
De klassieke denkfout. Dit is dus niet waar. De nieuwe quadcore intels verstoken meer dan de vroegere prescott cpu's. Inderdaad, het zijn 4 cores tov 1 core, maar ook bij gpus stijgt het aantal transistoren sterker dan het stroomverbruik.
Dat is onmogelijk. Prestaties en zuinigheid gaan gewoon niet samen.
Ik zeg niet dat de kaarten echt zuinig moeten zijn, maar ik verwacht wel dat ze iet of wat hun best doen om het in te perken.
De klassieke denkfout. Dit is dus niet waar. De nieuwe quadcore intels verstoken meer dan de vroegere prescott cpu's.
De quadcores zijn nicheproducten. Denk deze even weg, dan hou je de dualcores over, deze verpletteren nog altijd de Prescotts met het grootste gemak en verbruiken heel wat minder.

Natuurlijk verbruikt een quadcore dan meer. Er zitten vier cores in, weet je wel. Een Prescott met vier cores zou een pak meer verbruiken dan een Core 2 Quad. Niks "klassieke denkfout" dus, de huidige Intel-architectuur is zuiniger dan de vorige terwijl de prestaties serieus omhooggingen.
Ik zie dat dat ding bijna een eigen ATX-stekker nodig heeft. Dadelijk hoef je alleen maar een cpu in je gpu board te prikken en je sata kabeltje aan te sluiten...

Mag wel weer effe wat normaler. Die NVidia is zelfs nog groter.
dit wordt echt de nieuwe 5800 ultra. en de 8800gtx is de nieuwe 9700pro. Rollen zijn dit keer omgedraait.

5800 was het antwoord op de 9700. net iets sneller maar veel te groot (koeler) werdt veel te heet en was veel minder zuinig.

nu is de x2900 het antwoord op de 8800, net iets sneller maar veel te groot en zuipt energie als een malloot.
Rare vergelijking.. De 5800ultra was op DX9 gebied hopeloos langzaam t.o.v. de 9700pro. Bij sommige spellen kon die nauwelijk op 30% van de 9700pro prestaties komen. Bij andere situaties moest NVidia de volledige trukendoos open gooien om in ieder geval qua fps (maar niet in IQ) nog de 9700 bij te benen...

Zie je hier iets dergelijks??? Ikke niet in ieder geval.


Enne... grootte en energie verbruik waren in die tijd totaal niet relevant.
De productie van de videokaarten gaat veel te snel. Met een 8800GTS/X gebruik je pas alle power als je een resolutie van 1600X1200+ neemt. Moet je nagaan hoe onzinnig het is als je straks met je X2900 XTX om een reso van 1280X1024 zit te gamen..

Ik heb een "kleine LCD" met een reso van 1400X1050 en een 8800GTS Golden Sample en merk dat ik een grotere LCD met een hogere reso moet gaan halen om de kaart pas echt aan het werk te zetten :z
Niet klagen, wordt ie tenminste ook niet zo warm. Heb je toch de laatste generatie Graka terwijl je nog het verbruik hebt van de vorige generatie. Alleen maar gunstig. ;)
Daarom moet je ook altijd wachten met upgraden :P
De games die WEL vol gebruik maken van deze kaart zijn nog in ontwikkeling (Crysis next gen, games die gebruik maken van de unreal 3 engine en alle toekomstige meuk dat gebruik maakt van hdr, normal mapping etc).

Leuk dat mensen graag early adopters willen zijn...dan kan ik vrolijk kijken hoe ze klagen over drivers en andere zaken...totdat alle problemen zijn opgelost, of ze de kaarten goedkoop weg doen omdat ze het zat zijn of er een marginaal snellere versie te krijgen is ;)
Produktie van videokaarten gaat helemaal niet te snel. Ik ben nu een gelukkige 2560x1600 gamer en wacht met angst en beven af of er een kaart is/komt die Crysis op deze resolutie met alle toeters en bellen in DX10 gaat trekken
Of je wacht een half jaar tot een jaar en je kaart word wel echt aan het werk gezet zonder de resolutie te verhogen.
Je kan het geld dus imho beter opzij zetten voor de volgende generatie videokaart en je huidige scherm houden.

Bovendien heeft een 1920x1440 native scherm als nadeel dat je altijd in een hoge resolutie moet draaien wil je geen last hebben van interpolatie. Je videokaart verouderd dus minder snel als je steeds maximale kwaliteit op 1400x1050 wil halen inplaats van op 1920.
En wat dacht je dan van 333 fps jumpen in CoD2? Dat kan echt niet op 2560×1600 16×AA :D
De fx 5 serie van nVidia was alleen wel helemaal geflopt vind de vergelijking dus niet zo top. vind dat je het meer met de vorige generatie kan vergelijken (7800GTX --> 1800XT(iets sneller), en dan over een tijdje 7900GTX-->1900XT (8900XT-->2950XT))

@Smithers.83:
Wat heeft dat er nou weer mee te maken :P
Dat is net zoiets als zeggen: "Mijn opa houdt van slagroomtaart"
hey! mijn opa ook! :Y)
Vorige generatie is anders gewonnen door ATI. X1900XTX/X1950XTX zijn toch echt sneller dan de 7900GTX...
7950GX2 zijn we vergeten?
aval0ne: Twee chips tegen één?
nu is de x2900 het antwoord op de 8800, net iets sneller maar veel te groot en zuipt energie als een malloot.
Net iets sneller? Deze kaart wordt waarschijnlijk zo'n stuk sneller dan nVidia geen g81 meer gaat uitbrengen maar gelijk doorgaat naar de g90 :o

Ik denk dat je toch zeker wel op minstens 20% extra performance mag rekenen...
Ik denk dat jij er erg naast zit. Juist omdat deze kaart niet de 8800 Killer was als was gehoopt wordt ie vertraagd omdat de kloksnelheid moet worden verhoogd wat weer een moeilijker productieproces met zich meebrengt.
Uiteindelijk zal hij dus heus niet 20 % sneller zijn dan de 8800.

Dat nVidia eventueel al de 9800 uit gaat brengen is niet zo gek gezien het feit dat de release hiervan dan niet eens zoveel vroeger zou zijn dan normaal gesproken. Scheelt maar een maand of 3 a 4.

Dit is extra gunstig voor nVidia aangezien zij dan tegelijkertijd met Ati een kaart uitbrengen maar dat zij altijd een generatie verder tegelijkertijd uitbrengen met de "oude" generatie van ATi (t.o.v. de generatie van nV).
Het is in ieder geval wel zeker dat hij een stuk sneller wordt dan de 8800gtx
Onzin. Bron? Benchmarks?
imo is het ook wel duidelijk dat nVidia er niet veel tegen kan gaan doen met een iets snellere versie (8900 oid), beter beginnen ze gewoon met de g90.
Bron? Ah nee, ik zie imo. Je hebt dat even snel uit je duim gezogen?
Niet zo snel als was gehoopt... Mischien, maar hoe weet jij of dat werkelijk de reden van de vertraging was? Mischien was de kaart standaard al 20% sneller en is deze alleen maar nog sneller geworden. Het is in ieder geval wel zeker dat hij een stuk sneller wordt dan de 8800gtx, hoeveel % weet ik natuurlijk ook niet. De reden van uitstel zou gewoon een ontwerpfout kunnen zijn.

Imo is het ook wel duidelijk dat nVidia er niet veel tegen kan gaan doen met een iets snellere versie (8900 oid), beter beginnen ze gewoon met de g90.
Jezus, aval0n, heb jij net je hele fortuin in nvidia gestoken? Das nu al de derde ATi-afbreek-post.

Het mag worden aangenomen dat de R600 beter zal presteren, ongeacht de bronnen. Hij is nieuwer, meer pipelines, meer en rapper geheugen, meer shaders,...
nieuwer en meer zegt nog niks,.. Was Intel sneller met zijn 3 Ghz proc ivm een AMD van 2 Ghz? (oke zijn cpu's is andere markt maar ff voorbeeld).

Ik denk echter wel dat ie sneller zal zijn (een langzamere kaart uitbrengen terwijl de concurrent binnenkort al een revisie kan hebbe die sneller is, dat is nou niet erg goed voor een bedrijf), Alleen de vraag is hoever ze het dan al gepushed moeten hebben voor die presentatie.... laat misschien erg weinig over voor de oc'ers enzo of nieuwere versies.
Inderdaad. Mijn 9800pro doet nog altijd, na vele jaren, prima dienst.
Ik snap het nog steeds niet, de 8800 gtx in sli is overkill voor de intel's X6800. Om hoeveel performance winst hebben we het nou?
in dx9 games ja, in dx10 games waarschijnlijk niet.
Tegen dat de eerste DX10 games er zijn, zitten we alweer aan een nieuwe generatie.
Feit blijft wel dat de R600 nu een halfjaar later nog eens komt met een DX10 kaart,terwijl Nvidia alweer bezig is met een nieuw model(en misschien al bijna klaar heeft)
Wat de R600 gaat presteren blijft voor iedereen toch gissen aangezien ze het origineel hebben "uitgesteld" omwille tegenstand te kunnen bieden tegen Nvidia.
Zal me niets verbazen als Nvidia een paar maanden later hun nieuwe core introduceerd,of misschien doen ze dat al in mei,dat zal een koude douche zijn voor Ati als ze hun nieuwe kaart op de markt brengen.
Toch blijf ik wel benieuwd naar de prestaties van het GDDR4 model,als die nou ook eens leuk geprijsd is kunnen ze wat tegenstand bieden tegen de huidige nmodellen van Nvidia.
Verwijderd @Fern5 maart 2007 19:24
Pardon? Welk orgineel was er gecancelled???
Je hebt helemaal gelijk,ik bedoelde "uitgesteld".
@SleepOrz
En zoals ik al zei;Het blijft gissen wat de R600 gaat presteren,natuurlijk zou hij theoretisch goed(lees,beter dan Nvidia)moeten presteren,maar dat mag ook wel na een halfjaar sinds de introductie van de 8800 serie.

Je laatste opmerking vindt ik wel interessant aangezien ik nog geen DX10 software ken,misschien ben ik niet zo goed op de hoogte wat er te koop is,feit blijt wel dat het een DX10 kaart is ;)
Verwijderd @Fern5 maart 2007 19:31
Inderdaad, er is nergens een origineel gecancelled. Ook is het al bijna zeker dat de R600 flink wat meer power in huis gaat hebben dan de G80.

Nog iets wat je vergeet, de G80 is zolang de drivers zo bagger blijven geen DX10 kaart. In hardware wel, maar die's tot dusver vanwege de software, niet bruikbaar.
Wie zegt dat de drivers van ATI bij het uitbrengen wel goed werken?

(Zou eigenlijk wel moeten he, die programeurs hebbe alle tijd gehad dankzij al dat uitstel :Y) )
Zo lang de gamesindustrie DX10 niet echt nodig vindt zullen ze er geen gebruik van maken en kan jij het dus ook wel vergeten. Wat maakt het dan uit of die drivers wel of niet af zijn.
Voor dat beetje eyecandy van Vista hoef je het ook niet te doen gezien het feit dat je met Vista al niet eens de controle over je eigen gemaakte DVD's (nee niet gecopieerde zooi maar echt eigen werk) hebt.
Wat is dan nog het nut van DX10 voorlopig? Word? Excel?

Ik denk dat de DX10 functies bij de volgende generatie Graka's het wel goed zal doen, en dan tel ik ook ATi mee want misschien dat zij deze kaart wel hebben uitgesteld omdat ook hun drivers brak waren. Na alle commentaar die nVidida over zich heen heeft gehad naar aanleiding daarvan wil je als concurrent echt niet in het zelfde straatje gaan pissen.
Hoe weet je dat de G80 niet bruikbaar is in DX10? Er bestaat geen DX10 software dus hoe wil je dat dan testen?
Ik ben het dus helemaal eens met KGB007 ,
ik ben zelf helemaal geen nvidia fanboy maar vind wel dat ati flink lang opzich laat wachten , en dat deze kaart een 8800GTX killer word is denk ik al wel een feit .
Omdat ati zo lang wacht met de release van deze kaart dat ze genoeg tijd hebben om details te verbeteren en alles net iets sneller dan een 8800 maken dit is niet verwonderlijk na een halfjaar van de realease van de 8800

Tevens zou ik het heelvreemd vinden dat amd-ati toch zijne model met gdd3 en 512mb ram zou introduceren op een net wat hogere clock dan de 8800.
Het is dan ook meeste logisch dat de kaart meer peformance heeft dan de 8800 dit is mijn mening. (geld natuurlijk niet voor alles)

Ik denk dat de meeste mensen niet zitten te wachten op deze realease , als ik het geld en een 8800 gehad had zou ik alleen voor de gddr4 versie gaan want een 8800 is natuurlijk ook te oc'en , en zo kan er door gespeculeerd worden!!!

Ik hoop dat waneer eindelijk de r600 (2900xtx) gereleased word nvidia er een week later een dikke 8900GTX tegenaan gooit die net weer wat sneller blijkt te zijn dan de nieuwe r600

Zelf sta ik te watertanden over de eerste vrijgegeven benchmarks van de r600

:9~

Op dit item kan niet meer gereageerd worden.