Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: Fudzilla

Volgens nieuwe geruchten zal de uitgestelde topchip van ATi in mei worden geïntroduceerd. Problemen met de prestaties en gddr4-geheugen worden als boosdoener aangewezen voor het meest recente uitstel. Oorspronkelijk zou de chip al in november verschijnen.

Problemen met het gddr4-geheugen (of de levering daarvan) zouden er voor gezorgd hebben dat het geplande topmodel - de Radeon X2900 XTX met 1GB van het spul - niet geleverd kan worden. In plaats daarvan zal een versie met 512MB gddr3 in eerste instantie de leiding op zich moeten nemen. Het plan zou nu zijn om op 22 maart samples uit te leveren, in april de productie te starten en begin mei een introductie met directe beschikbaarheid uit te voeren. De snellere gddr4-versie zou later alsnog komen, maar op zijn minst een paar weken na de introductie.

Een andere reden die wordt genoemd voor het uitstel is dat de oorspronkelijk geplande versies van R600 niet indrukwekkend genoeg waren tegenover de GeForce 8800. Dit was eenvoudig op te lossen door de kloksnelheid te verhogen, maar daardoor wordt de productie wel weer een stap moeilijker. Probleem voor ATi daarbij is wel dat de topmodellen van nVidia tegen de tijd dat R600 wordt gelanceerd een half jaar oud zullen zijn, rijp voor een upgrade dus. De geruchtenmolen is nog verdeeld tussen een 80nm G81 als 'bescheiden' zet of een echte klapper als een 65nm G90, maar hoe dan ook zal nVidia snel terugslaan.

ati R600XTX
Moderatie-faq Wijzig weergave

Reacties (88)

Ach, wat nou te laat? Wie speelt er hier al Crisis dan? of Alan wake? of 1 van de andere nextgen dx10 titels?
Of wie kan zon benchen op al zijn functies?

niemand? dan is er dus geen enkele dx10 kaart te laat.....

En wees blij dat het in dit tempo gaat. 3D-kaarten schrijven qua waarde al snel genoeg af tegenwoordig.

Ben zelf voornamelijk benieuwd naar de eerste dx10 benchmarks (kom futuremark, help ook eens mee hierin) van beide merken. Pas dan kunnen we zien wie de snelste/beste is. Fear,Oblivion,Quake4,splintercell DA, Rainbow Six LV etc. draaien op de dx9 highend kaarten ook perfekt, dus daar hoeven we geen nieuwe kaarten voor. :Z
Door te kaart nu al te hebben
kan het leed van het wachten
op het spel doen verzachten.
draaien op de dx9 highend kaarten ook perfekt, dus daar hoeven we geen nieuwe kaarten voor.

En wat als je high-end dx9 kaart inmiddels helemáál niet meer zo high-end is. Waardoor je zit te springen om een update..

Beetje kortzichtig imho. :>

[edit]
@ SG
Komt er weer een met dx10, resoluties en 300 fps op dx9.

Onzin! Totaal bezijden m'n punt.

Als je 'n -7800GT hebt, X8x0, of wat dan ook, kan het tijd zijn voor een upgrade, omdat je kaart je games niet meer trekt op acceptabele settings. In dat geval is de r6x0 serie rijkelijk laat vergeleken met de G8x serie. Een oude serie kopen is weggegooid geld omdat het te weinig preformance verbetering biedt.

Je hoge resoluties en fps verhaaltje is ook behoorlijke quatsch. Op lagere resoluties kun je er meer AA en AF tegenaan gooien, waardoor ook een r600 of G80 nog gewoon aan het werk moet. Zie alle tot nog toe gepubliceerde benchmarks op verschillende sites. (Links zoek je zelf maar.)
Nou nee tenzij je geen 30" monitor hebt praat je bij veel games over FPS ver voorbij de 90fps.

Het maakt niet uit of je 150 of 300 fps draaied.
Sommigen hebben de luxe maar niet de noodzaak om hoge resoos in te stellen. Maar dat is geen moetje meer een luxe wens.

Dx10 games zullen met de huidige hardware sowieso op een lagere dX9 setting uitkomen. Devs zullen de Dx10 mode een stuk zwaarder maken. Dan komt de Fps tussen de 30 á 60 bij normale resoluties. Dit gaat ook enogzins geleidelijk totdat DX10 hardware mainstream wordt.
Je vergeet 1 ding. Naast een DX10 kaart is de G80 ook een supersnelle DX9 kaart die dikwijls sneller is dan elke crossfire combinatie. Dus ja, de R600 is te laat. Ati heeft nu geen high end DX9 kaart.
Je vergeet één ding Dx10 performance verhouding tussen nV en aTI Dx10 generatie is onbekent.
Maar er is voor nV gebruikers verontrusten news de R600 verslaat met beta drivers G80 als in GS performance.
Geometrie shaders. Volgens een MSFSX dev blog.

Dx10 titles die intensief GS gebruiken lopen dus harder op R600. in wat voor mate is onbekend.

Maar doet me denken aan de R3X0 serie vs nV3X Sm2.0 problemen
nV3X deed het ook heel goed in Dx8.
.
Uiteindelijk is DX10 performance juist meer relevant 'n GTSje voldoet ook al ruim voor Dx9 meuk.
Je vergeet één ding Dx10 performance verhouding tussen nV en aTI Dx10 generatie is onbekent.
Onbekend zul je bedoelen. Waar staat dat ik het tegendeel beweer? Natuurlijk is dit onbekend: de R600 is er nog lang niet dus daar kan je niet mee vergelijken. Er zijn ook geen dx10 benchmarks dus je kan het zelfs niet testen.
Maar er is voor nV gebruikers verontrusten news de R600 verslaat met beta drivers G80 als in GS performance.
En is dat belangrijk? Ik herinner me dat de R520/R580 kaarten ook veel beter dynamic branching had dan de NV40/G70. Is dit uiteindelijk belangrjik gebleken? Nee, omdat games niet zuiver op GS of dynamic branching teren.
Goed de R600 heeft snellere GS. Hoe snel? 1% 100? 1% is ook al sneller maar zal uiteindelijk niks uitmaken.
GTSje voldoet ook al ruim voor Dx9 meuk.
Vanwaar haal je die kromme redeneringen? Een GTS kan lang niet elke game aan met full IQ.
Dat maakt R600 juist aantrekkelijk als je X1800/1900 hardware als HavokFX versneller wil gebruiken.
Die 7serie van nV zuigt daarin zo dat Folding home die oversloeg.

Heb 'n X1800XL die kan ik dus gebruiken als Physics versneller naast 'n R600.

Wordt 'n interrssant jaar betreft Physics.

Wat noem je full IQ.
16x FSAA of nog zwaarde AA op zijn 30" 2560x1600 doet?

1800x1440 is al 'n mooie Full HD resolutie. Meer is Luxe die je niet nodig hebt tenzij je geld te veel hebt.
1600x1200 neemt de massa met voldoende budged ook al genoegen mee. 'n beetje fSAA om het helemaal af te maken.
1280x1024 is toch wel de meeste rgonomische en praktische keuze met wat FSAA.

Dat trekken de meeste SM3.0 High-end kaarten met de gross van de huidige Dx9 games wel.
Doet me een beetje denken aan de lijn die de PS3 heeft gevolgd. Het is natuurlijk fantastisch om state of the art technologie te gebruiken, laat dat duidelijk zijn.

Het wordt echter ook pijnlijk duidelijk dat state of the art technologie zich niet makkelijk laat produceren en dat daardoor er vertragingen ontstaan die ervoor kunnen zorgen dat de concurrentie de spreekwoordelijke kaas van hun brood eet.
Kromme vergelijking, maar het is niet echt heel raar dat als je een half jaar later met je "nieuwe" release bent je een snellere kaart neer kan zetten.Dat is inherent aan deze sector.
Ik kan ook roepen bij de release van een nieuwe superkaart dat ik een snellere heb/ga maken, maar dan moet je hem imo wel gelijk op de markt zetten. Kan gaan knagen aan je geloofwaardigheid. En hij is er nog steeds niet.......
LOL.

Hoe kunnen mensen nu al zeggen hoe snel de R600 is? :z

Niemand weet nu nog hoe snel hij is; er is nog geen benchmark vrijgegeven. Hij zal heus wel goed zijn, maar hoe goed? Dat moeten we allemaal nog even afwachten.
ff stukje gejat uit originele artikel..:

ATi X2900 DE (Delayed Edition) :*)

Maar zonder gein, in mei is het vaak al wat warmer en heb je toch helemaal geen verwarming van 250+ Watt in je PC meer nodig?
Je moet wel een ruime kast hebben voor dat monster :P
Dat is dus de reden dat de koperprijs stijgt, vanwege dat koelblok wordt er nu dus overal koper gejat waar je bij staat :+ .
Ik denk dat dit de OEM-versie is, de retail-versie zal korter zijn.
korter als een 8800gtx zelfs.
Ik kan me herinneren dat we vroeger altijd lachten om die extreem lange ISA kaarten waar van alles aan hing, waren wij even hip met onze AGP grafische kaartjes die nooit langer waren dan ongeveer 15 cm.. en nu zijn we weer terug bij starters. 't ziet er allemaal wat wanhopig uit, als we de technologie niet kleiner meer kunnen krijgen, dan maar gewoon meer ruimte en energie? Is geen kunst meer aan zo.
Niemand verplicht je van zo'n kaart te kopen. Is ie te lang? Koop dan een kortere. WIl je geen dual slot? Koop dan een single slot. Verbruikt ie teveel stroom? Koop dan een zuinigere.
NVIDIA en ATI hebben voor elks wat wils in het assortiment dus niet klagen.
past ie niet in je kast,..weg kast,....
Niemand verplicht je van zo'n kaart te kopen. Is ie te lang? Koop dan een kortere. WIl je geen dual slot? Koop dan een single slot. Verbruikt ie teveel stroom? Koop dan een zuinigere.
Daar gaat het net om. Sommige mensen willen topprestaties, zonder dat ze zich blauw moeten betalen aan elektriciteitskosten.

De nieuwe Intels verstoken minder energie dan de vorige generatie, en het zou leuk zijn om dat ook eens van de videokaarten te zien.
Sommige mensen willen topprestaties, zonder dat ze zich blauw moeten betalen aan elektriciteitskosten.
Dat is onmogelijk. Prestaties en zuinigheid gaan gewoon niet samen. Ken je een sportwagen die zuinig is?
De nieuwe Intels verstoken minder energie dan de vorige generatie, en het zou leuk zijn om dat ook eens van de videokaarten te zien.
De klassieke denkfout. Dit is dus niet waar. De nieuwe quadcore intels verstoken meer dan de vroegere prescott cpu's. Inderdaad, het zijn 4 cores tov 1 core, maar ook bij gpus stijgt het aantal transistoren sterker dan het stroomverbruik.
Dat is onmogelijk. Prestaties en zuinigheid gaan gewoon niet samen.
Ik zeg niet dat de kaarten echt zuinig moeten zijn, maar ik verwacht wel dat ze iet of wat hun best doen om het in te perken.
De klassieke denkfout. Dit is dus niet waar. De nieuwe quadcore intels verstoken meer dan de vroegere prescott cpu's.
De quadcores zijn nicheproducten. Denk deze even weg, dan hou je de dualcores over, deze verpletteren nog altijd de Prescotts met het grootste gemak en verbruiken heel wat minder.

Natuurlijk verbruikt een quadcore dan meer. Er zitten vier cores in, weet je wel. Een Prescott met vier cores zou een pak meer verbruiken dan een Core 2 Quad. Niks "klassieke denkfout" dus, de huidige Intel-architectuur is zuiniger dan de vorige terwijl de prestaties serieus omhooggingen.
Ik zie dat dat ding bijna een eigen ATX-stekker nodig heeft. Dadelijk hoef je alleen maar een cpu in je gpu board te prikken en je sata kabeltje aan te sluiten...

Mag wel weer effe wat normaler. Die NVidia is zelfs nog groter.
dit wordt echt de nieuwe 5800 ultra. en de 8800gtx is de nieuwe 9700pro. Rollen zijn dit keer omgedraait.

5800 was het antwoord op de 9700. net iets sneller maar veel te groot (koeler) werdt veel te heet en was veel minder zuinig.

nu is de x2900 het antwoord op de 8800, net iets sneller maar veel te groot en zuipt energie als een malloot.
Rare vergelijking.. De 5800ultra was op DX9 gebied hopeloos langzaam t.o.v. de 9700pro. Bij sommige spellen kon die nauwelijk op 30% van de 9700pro prestaties komen. Bij andere situaties moest NVidia de volledige trukendoos open gooien om in ieder geval qua fps (maar niet in IQ) nog de 9700 bij te benen...

Zie je hier iets dergelijks??? Ikke niet in ieder geval.


Enne... grootte en energie verbruik waren in die tijd totaal niet relevant.
De productie van de videokaarten gaat veel te snel. Met een 8800GTS/X gebruik je pas alle power als je een resolutie van 1600X1200+ neemt. Moet je nagaan hoe onzinnig het is als je straks met je X2900 XTX om een reso van 1280X1024 zit te gamen..

Ik heb een "kleine LCD" met een reso van 1400X1050 en een 8800GTS Golden Sample en merk dat ik een grotere LCD met een hogere reso moet gaan halen om de kaart pas echt aan het werk te zetten :z
Niet klagen, wordt ie tenminste ook niet zo warm. Heb je toch de laatste generatie Graka terwijl je nog het verbruik hebt van de vorige generatie. Alleen maar gunstig. ;)
Of je wacht een half jaar tot een jaar en je kaart word wel echt aan het werk gezet zonder de resolutie te verhogen.
Je kan het geld dus imho beter opzij zetten voor de volgende generatie videokaart en je huidige scherm houden.

Bovendien heeft een 1920x1440 native scherm als nadeel dat je altijd in een hoge resolutie moet draaien wil je geen last hebben van interpolatie. Je videokaart verouderd dus minder snel als je steeds maximale kwaliteit op 1400x1050 wil halen inplaats van op 1920.
En wat dacht je dan van 333 fps jumpen in CoD2? Dat kan echt niet op 2560×1600 16×AA :D
Daarom moet je ook altijd wachten met upgraden :P
De games die WEL vol gebruik maken van deze kaart zijn nog in ontwikkeling (Crysis next gen, games die gebruik maken van de unreal 3 engine en alle toekomstige meuk dat gebruik maakt van hdr, normal mapping etc).

Leuk dat mensen graag early adopters willen zijn...dan kan ik vrolijk kijken hoe ze klagen over drivers en andere zaken...totdat alle problemen zijn opgelost, of ze de kaarten goedkoop weg doen omdat ze het zat zijn of er een marginaal snellere versie te krijgen is ;)
Produktie van videokaarten gaat helemaal niet te snel. Ik ben nu een gelukkige 2560x1600 gamer en wacht met angst en beven af of er een kaart is/komt die Crysis op deze resolutie met alle toeters en bellen in DX10 gaat trekken
nu is de x2900 het antwoord op de 8800, net iets sneller maar veel te groot en zuipt energie als een malloot.
Net iets sneller? Deze kaart wordt waarschijnlijk zo'n stuk sneller dan nVidia geen g81 meer gaat uitbrengen maar gelijk doorgaat naar de g90 :o

Ik denk dat je toch zeker wel op minstens 20% extra performance mag rekenen...
Ik denk dat jij er erg naast zit. Juist omdat deze kaart niet de 8800 Killer was als was gehoopt wordt ie vertraagd omdat de kloksnelheid moet worden verhoogd wat weer een moeilijker productieproces met zich meebrengt.
Uiteindelijk zal hij dus heus niet 20 % sneller zijn dan de 8800.

Dat nVidia eventueel al de 9800 uit gaat brengen is niet zo gek gezien het feit dat de release hiervan dan niet eens zoveel vroeger zou zijn dan normaal gesproken. Scheelt maar een maand of 3 a 4.

Dit is extra gunstig voor nVidia aangezien zij dan tegelijkertijd met Ati een kaart uitbrengen maar dat zij altijd een generatie verder tegelijkertijd uitbrengen met de "oude" generatie van ATi (t.o.v. de generatie van nV).
Niet zo snel als was gehoopt... Mischien, maar hoe weet jij of dat werkelijk de reden van de vertraging was? Mischien was de kaart standaard al 20% sneller en is deze alleen maar nog sneller geworden. Het is in ieder geval wel zeker dat hij een stuk sneller wordt dan de 8800gtx, hoeveel % weet ik natuurlijk ook niet. De reden van uitstel zou gewoon een ontwerpfout kunnen zijn.

Imo is het ook wel duidelijk dat nVidia er niet veel tegen kan gaan doen met een iets snellere versie (8900 oid), beter beginnen ze gewoon met de g90.
Het is in ieder geval wel zeker dat hij een stuk sneller wordt dan de 8800gtx
Onzin. Bron? Benchmarks?
imo is het ook wel duidelijk dat nVidia er niet veel tegen kan gaan doen met een iets snellere versie (8900 oid), beter beginnen ze gewoon met de g90.
Bron? Ah nee, ik zie imo. Je hebt dat even snel uit je duim gezogen?
nieuwer en meer zegt nog niks,.. Was Intel sneller met zijn 3 Ghz proc ivm een AMD van 2 Ghz? (oke zijn cpu's is andere markt maar ff voorbeeld).

Ik denk echter wel dat ie sneller zal zijn (een langzamere kaart uitbrengen terwijl de concurrent binnenkort al een revisie kan hebbe die sneller is, dat is nou niet erg goed voor een bedrijf), Alleen de vraag is hoever ze het dan al gepushed moeten hebben voor die presentatie.... laat misschien erg weinig over voor de oc'ers enzo of nieuwere versies.
Jezus, aval0n, heb jij net je hele fortuin in nvidia gestoken? Das nu al de derde ATi-afbreek-post.

Het mag worden aangenomen dat de R600 beter zal presteren, ongeacht de bronnen. Hij is nieuwer, meer pipelines, meer en rapper geheugen, meer shaders,...
De fx 5 serie van nVidia was alleen wel helemaal geflopt vind de vergelijking dus niet zo top. vind dat je het meer met de vorige generatie kan vergelijken (7800GTX --> 1800XT(iets sneller), en dan over een tijdje 7900GTX-->1900XT (8900XT-->2950XT))

@Smithers.83:
Wat heeft dat er nou weer mee te maken :P
Dat is net zoiets als zeggen: "Mijn opa houdt van slagroomtaart"
hey! mijn opa ook! :Y)
Vorige generatie is anders gewonnen door ATI. X1900XTX/X1950XTX zijn toch echt sneller dan de 7900GTX...
7950GX2 zijn we vergeten?
aval0ne: Twee chips tegen één?
Inderdaad. Mijn 9800pro doet nog altijd, na vele jaren, prima dienst.
Ik snap het nog steeds niet, de 8800 gtx in sli is overkill voor de intel's X6800. Om hoeveel performance winst hebben we het nou?
in dx9 games ja, in dx10 games waarschijnlijk niet.
Tegen dat de eerste DX10 games er zijn, zitten we alweer aan een nieuwe generatie.
:) Op dit moment is het al helemaal niet verstandig nieuwe kaart te kopen... R600 onderweg, Prijsverlagingen ook. Veel tweakertjes verkopen hun 8800 kaarten straks, en ik zal ze helpen af te nemen :)

Tjah zolang de R600 er nog niet is komt er ook geen prijsverlagingen. Kijk naar de Core 2 Duo... Ze kunnen nog lekker profiteren van hogere prijzen :)

De R600 schijnt een eest te zijn, hij is nóg kleiner dan een G80GTX naar verluid 24 of 22 cm.

Beide kaarten zullen helaas niet zuinig zijn.
* yori1989 gaat zeker centjes sparen tot mei :*)

EDIT:
@ gLn-

De G81 zal een gewone G80 zijn, op een lagere procedure. Waardoor hij nét iets sneller zal zijn.
Ook zal bij de G81 Gddr4 ingebakken zitten, maar vooralsnog is de G81 niet écht een verbetering.

Tevens zal Nvidia een Geforce 8950GX2 uitbrengen. Wellicht is die opgewassen tegen de R600.. maar vergeet niet dat dat 2 kaarten zijn. Áls je de R600 in crossfire zal zetten dan weet ik niet wie er gaat winnen.

Er zal ook een XTX² kaart komen, 2 cores. Hopelijk op 1 pcb.. Maar de specificaties zullen wel wát lager liggen, met name de 265 bit- geheugebus en lagere clocksnelheiden om het stroomverbruik binnen de perken te houden
Op dit moment is het al helemaal niet verstandig nieuwe kaart te kopen... R600 onderweg,
Dat zeggen de ati fans al sinds november. Maar ik zou ook wachten, de G90 komt eraan, en dan de R700 en dan de G100 en dan...
Je kan dus bijven wachten, feit is dat nu de snelste kaart deze van NVIDIA is. Die van ATi is voorlopig nog altijd onbestaande.
Hier ATI fan no 11. :)
Tuurlijk kan je wachten. Er zijn al aardig wat 8800 verkocht maar veel meer dan enkele 'n 2560x1600 monitor hebben en niet iedereen speeld oblivibion.
Dus 'n 8800 heb je helemaal nog niet nodig voor de huidige DX9 games. De 8800 is leuk en toekomst gericht als je toch op het punt stond te upgraden de afgelopen half jaar.

Velen zijn onterecht onder de indruk van 8800 performance. Is zoiets als 'n 8500 met UT te draaien. een oude kaart en nog oudere Game. Dat loop dus heel lekker.

Deze nextgaan gaat gepaart met dubbleperformance. En zal het dus heel goed doen dan nodig is voor vorige gen games.

Maakt niet uit wie strak als alles in plaats is als nr 2 uitkomt. het is dan nog steeds overkill voor DX9. Op enkele zonderlingen na.

DX10 Games zullen geleidelijk de lat hoger leggen kwa rauwe performance en hebben dan zo'n 8800 echt wel nodig. Eind 2007 zullen er genoeg DX10 titles zijn met wat zware er tussen. Dan maakt een 8800U of X2900XTX wel wat uit en heeft ook meer zin.

Ikzelf wacht met de grote upgrade op

Ten eerste DX10 games.
D egames bepalen de hardware die je nodig hebt. 'n Nieuwe game zoals crysis zou mij tot upgaren kunnen brengen. Valve etc.
Dus Quadcore wordt dan ook betaalbaar duikt richting 500.

Dus Mobo+HD voor Vista OEM.
QC
R600
4GB geheugen
+ Voeding.

Daarnaast de R600 trekt meer dan de 8800GTX maar asl ie dan ook mee rperformance heeft want dat zal de 8800 Ultra en 8900 ook doen mee rperformanc emaar ook meer vermogen. dan de 8800GTX

En dan 'n RV630 erbij prikken voor HavokFX naast 'n PPU voor PhysX.

Voor mensen die om het half jaar upgraden naar de max maakt het niet uit. Maar dat is ook maar 'n klein publiek wat natuurlijk oververtegenwordigd is op hardware forums.
Dus 'n 8800 heb je helemaal nog niet nodig voor de huidige DX9 games
Dit is onzin. Elke reden is goed om het uitstel van de R600 te rechtvaardigen? Er zijn genoeg DX9 games die de G80 niet met full eye candy aankan.
Velen zijn onterecht onder de indruk van 8800 performance
Onterecht? Hij fietst er zowat elke crossfire combinatie uit en jij vindt dat niet indrukwekkend. Lees elke review er maar op na, iedereen is onder de indruk. Er zijn maar 1 soort mensen die niet onder indruk willen zijn: FanATIcs.
Lees je wel?
Dx10 games zullen zwaarder zijn en met de GFlops van zo'n GPU in gedachte ontwikkeld wordeb. Hiermee toveren ze dus nog meer leuks op je scherm.
Denk aan crysis.
Je hebt niet meer dan 60fps nodig. IDSOftw kapt af bij 60. Voor benches zetten de frames cap even uit..
Wat voor extra emersie brengt 300fps in Doom3.
Dat is bench geilheid 3Dmark fobie.

Waarbij 'n Crysis en latere games die kracht wel gebruiken om die 1/60 frame ene heel stuk op te leuken bij normale resoluties en highsettings ipv het zelfde steeds 4 (300fps) keer te herhalen. wat je toch niet merk. dat is verspilling van kracht.

Nu vind ik het fijn dat ATI en nV met G80/81 en R600 de lat hoger leggen. Dan worden de Games of GFX gebied ook veel mooier en gedetaileerder.
Om even terug te reageren op je edit yori
Mijn punt was dat het voor ati een stuk makkerlijer geweest is word omdat er gewoon te lang gewacht word met releasen hetzij dan om problemen ed.

van deze ontwikkelingen wat jij net opnoemnde was ik nog niet bewust.
Ik hop echt dat de r600 snel geintroduceerd word omdat nvidia hier weer op kan reageren met hetzij een 8950GX2 , want zolang er geen r600 is zal het een beetje dood blijven met de high end models denk ik.

ik vind het tot nu aan reuze interesant om de ontwikkelingen van amd-ati te volgen.

bedankt overgens voor je hulpzame edit ;)
Feit blijft wel dat de R600 nu een halfjaar later nog eens komt met een DX10 kaart,terwijl Nvidia alweer bezig is met een nieuw model(en misschien al bijna klaar heeft)
Wat de R600 gaat presteren blijft voor iedereen toch gissen aangezien ze het origineel hebben "uitgesteld" omwille tegenstand te kunnen bieden tegen Nvidia.
Zal me niets verbazen als Nvidia een paar maanden later hun nieuwe core introduceerd,of misschien doen ze dat al in mei,dat zal een koude douche zijn voor Ati als ze hun nieuwe kaart op de markt brengen.
Toch blijf ik wel benieuwd naar de prestaties van het GDDR4 model,als die nou ook eens leuk geprijsd is kunnen ze wat tegenstand bieden tegen de huidige nmodellen van Nvidia.
Pardon? Welk orgineel was er gecancelled???
Je hebt helemaal gelijk,ik bedoelde "uitgesteld".
@SleepOrz
En zoals ik al zei;Het blijft gissen wat de R600 gaat presteren,natuurlijk zou hij theoretisch goed(lees,beter dan Nvidia)moeten presteren,maar dat mag ook wel na een halfjaar sinds de introductie van de 8800 serie.

Je laatste opmerking vindt ik wel interessant aangezien ik nog geen DX10 software ken,misschien ben ik niet zo goed op de hoogte wat er te koop is,feit blijt wel dat het een DX10 kaart is ;)
Inderdaad, er is nergens een origineel gecancelled. Ook is het al bijna zeker dat de R600 flink wat meer power in huis gaat hebben dan de G80.

Nog iets wat je vergeet, de G80 is zolang de drivers zo bagger blijven geen DX10 kaart. In hardware wel, maar die's tot dusver vanwege de software, niet bruikbaar.
Hoe weet je dat de G80 niet bruikbaar is in DX10? Er bestaat geen DX10 software dus hoe wil je dat dan testen?
Wie zegt dat de drivers van ATI bij het uitbrengen wel goed werken?

(Zou eigenlijk wel moeten he, die programeurs hebbe alle tijd gehad dankzij al dat uitstel :Y) )
Zo lang de gamesindustrie DX10 niet echt nodig vindt zullen ze er geen gebruik van maken en kan jij het dus ook wel vergeten. Wat maakt het dan uit of die drivers wel of niet af zijn.
Voor dat beetje eyecandy van Vista hoef je het ook niet te doen gezien het feit dat je met Vista al niet eens de controle over je eigen gemaakte DVD's (nee niet gecopieerde zooi maar echt eigen werk) hebt.
Wat is dan nog het nut van DX10 voorlopig? Word? Excel?

Ik denk dat de DX10 functies bij de volgende generatie Graka's het wel goed zal doen, en dan tel ik ook ATi mee want misschien dat zij deze kaart wel hebben uitgesteld omdat ook hun drivers brak waren. Na alle commentaar die nVidida over zich heen heeft gehad naar aanleiding daarvan wil je als concurrent echt niet in het zelfde straatje gaan pissen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True