Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: VR-Zone

ATi logo (kleiner)Op VR-Zone is een roadmap verschenen waarop enkele gpu’s worden genoemd die volgend jaar door ATi uitgebracht zullen worden. In de eerste helft van 2007 zal ATi’s eerste DirectX 10-chip, de R600, het daglicht zien. In dezelfde periode zal ATi ook enkele chips voor de minder kapitaalkrachtige computergebruikers introduceren. De RV630 zal de mainstreammarkt moeten bedienen terwijl de RV610 voor de onderkant van de markt is. Zoals we vaker zien bij gpu’s worden de goedkopere modellen gpu’s met een kleiner en moderner productieprocédé gebakken dan het topmodel: de R600 wordt gebakken op 80nm terwijl de RV630 en RV610 op 65nm gebakken worden. Voor de tweede helft van 2007 heeft ATi weer een verse serie gpu’s op de planning staan. Er zal een opgewaardeerde versie van de R600 geïntroduceerd worden en voor de mainstreammarkt zullen de RV660 en de RV670 geïntroduceerd worden. Details over deze gpu’s zijn nog niet bekend, afgezien van het feit dat ook de RV660 en de RV670 op 65nm gefabriceerd zullen worden.

Moderatie-faq Wijzig weergave

Reacties (49)

Alleen jammer dat die 600 highend serie nog 80 Nm is. Zal denk ik nog wel te gecompliceerd zijn om te maken. Het zou een flinke stroom besparing kunnen opleveren. :9. Ik had eigenlijkook totaal niet verwacht dat de low en midrange al met 65 Nm zou beginnen. Nu gebruiken ze maar een dik half jaar die 80 Nm techniek. Lijkt me wel een beetje duur om met die techniek maar twee kaartjes te produceren :7
dan zou ie nog duurder worden, de RD600 is een grote chip, erg gecompliceerd, en als je het dan ook nog met een lager proces gaat doen, waarin meer fouten kunnen voorkomen, is dat slecht voor de yields en kost het onnodig geld.

daarbij heeft ati zelf geen fabs, alleen AMD en intel hebben dat, en door het tekort aan AMD CPU's lijkt het me sterk dat er voorlopig in AMD's fabs geproduceerd zal worden. op de langere termijn zal dis waarschijnlijk wel gebeuren, want het is wel veel rendabeler.
Eerst de overstap doen met de low & midrange kaarten is veiliger, die chips zijn minder complex en zijn een goede "oefening" om later de grote hi-end chips ook in 65nm proces te doen.

de R9700 (R300) was ook op 150nm terwijl de R9600 (RV350) op 130nm was
Jammer dat de aandacht vooral naar het top model uitgaat (vooral in de reacties :-). Ik ben nl. erg benieuwd of de RV630 en RV610 cores ook DX10 ondersteunen. Zelf heb ik geen plannen om binnenkort MS Vista te gaan gebruiken, maar voor diegenen die dat wel willen zou een niet al te dure DX10 kaart erg interessant zijn.
Wat de topmodellen betreft: ik vraag me wel eens af hoeveel % van de tweakers hier ook daadwerkelijk een 500+ euro GPU in hun compu hebben. Erg veel zullen het er nier zijn denk ik/hoop ik.
@ DavidAxe:

Toen ik mijn X1900XTX aanschafte was ie E634,-...

En @ DLGandalf:
DavidAxe heeft niet helemaal gelijk, Vista werkt ook met DX9 kaarten, maar XP gaat geen DX10 meer ondersteunen, dus je 'DX10' games kunnen het niet volledig gebruiken.
Omdat Vista DX10 wel gaat ondersteunen heeft het meer zin om daar een 'DX10 gfx' in te stoppen.

Daarom staat Vista wel gelijk met DX10.
Kortweg microsoft dwingt iedere gamer die nieuwe spelletjes wilt spelen over te stappen naar Vista (en natuurlijk gelijk de daarbij behorende hardware upgrades :P)
Grappig mijn X1900XT is 240 euro :P

Maar ik heb em dan ook pas , toch ongeloofelijk hoesnel de tijd gaat..
je doet net alsof dx10 gelijk staat aan vista..?!
dx10 zal dan ook enkel verschijnen op vista
Ik denk dat het wel interessante kaatjes worden.

Ben afgelopen week overgestapt van een 6800 gt naar een 7950 gt, met die oude kaart viel goed te gamen dacht ik altijd, maar nou ik zie hoe CoD 2 eruit ziet met alle details op hoog word ik regelmatig afgeknald omdat ik mooie omgevingen zit te kijken, en dat met de dubbele framerate.

Nou zit er tussen die kaarten hoofdzakelijk echt verschil in pure spierballen, zo'n dx10 kaart zal ongetwijfeld daarnaast ook weer de grafische lat een stuk hoger leggen wanneer de eerste dx10 spellen uitkomen. Dus als je wil upgraden lijkt het mij zeker de moeite waard te wachten tot 2007, en als die kaarten toch tegenvallen zullen in ieder geval de "oude" dx9 kaarten in prijs zijn gedaald :Y)

edit:

@ ad:

Ik denk dat die dx10 spellen juist erg snel zullen komen! Microsoft zal er alles aan doen om dx10 te promoten, ongetwijfeld zal er dan ook flink geinvesteerd worden om ontwikkelaars aan de dx10 te helpen (denk aan devolpers kits, cursussen tools etc.)
Hmm hoe ging dat met de eerste dx9 kaart, volgens mij is dat een van de beste ooit gemaakt

Volgens mij was dat de 9700pro en hoelang kon die kaart wel niet mee.
Ik ben het met je eens, ik gebruik die mijne ( de 9700pro )nog steeds, toendertijd DE TOPKAART nu is ie een middenmotor en toch sneller dan die nieuwe generatie budgetkaarten en low end market. Ik denk echter dat net zoals bij de eerste dx9 kaarten de dx10 kaarten juist wel snel zijn in de lagere 'modussen' maar juist langzaam in de dx10 modus. dit was ook het geval met de 9700pro.
Geloof me, die 9700Pro is zeker snel, maar niet sneller dan de nieuwe budgetkaarten (7600GS/GT, aangezien die in prijs dalen), verder zeker een mooie kaart, had er zelf ook eentje.
De 7600GS/GT is niet budget maar mid-end.
Ik zou eerder de 7900GS/GT mid-range noemen en de GTX en GX2 High-end, maar goed dat is nogal wazig terrein. Voor de een is 100 euro voor een videokaart al high-end terwijl de ander zonder blikken of blozen 600 euro neertelt voor de 8800GTXXXX... :)
7900GS/GT zijn high end en GTX en GX2 zijn top end.

Neem voor mid end 150 pleuros, 300 voor high end en meer voor top end.
Ik denk echter dat net zoals bij de eerste dx9 kaarten de dx10 kaarten juist wel snel zijn in de lagere 'modussen' maar juist langzaam in de dx10 modus. dit was ook het geval met de 9700pro
Hoe kom je daar nou bij??????

Volgens mij vergis je je met de 5800FX die wel snel was in DX8, maar baggertraag in DX9.
De 9700Pro was juist in DX9 supersnel!
De eerste DX9 kaart was volgens mij geen 9700 Pro, maar een gewone 9700. Neemt overigens niet weg dat de 9700Pro een geweldige kaart was.
De eerste DX9 kaart was volgens mij geen 9700 Pro, maar een gewone 9700. Neemt overigens niet weg dat de 9700Pro een geweldige kaart was.
Ik meen me te herinneren dat ze tegelijkertijd geintroduceerd waren.
Maakt verder niet uit... Het was in principe dezelfde kaart, alleen de kloksnelheid verschilde.
Qua snelheid doet-ie het prima best, maar dat is ook niet alles. Ik zit niet te wachten op een DX10 kaart die meer dan 200W slurpt. Dan wacht ik liever nog even tot ik dezelfde kwaliteit heb voor veel minder W, en bij voorbaat een lagere prijs. Dat was ook mn standpunt; de eerste generatie is nog niet geoptimaliseerd en optimaliseren hoef je niet persé te zoeken bij 'hoe hard kan-ie gaan?'. :P
Ben ik helemaal met je eens. Dan zijn ze ook een stuk stiller, en hoef je ook geen nieuwe voeding van 100 euro erbij aan te schaffen.
Nou ik heb net een 9700 pro weg gedaan omdat hij neer meer paste in mijn nieuwe pc maar snel was ie, voor de meeste spellen was ie nu nog snel zat voro mij :)
Verschijnen moet verschenen zijn. Ach ja, om twee uur 's ochtends moet een typfout kunnen. :P

Overigens denk ik dat deze generatie kaarten niet al te interessant zal zijn. De eerste serie DX10 kaarten wat ongetwijfeld zal resulteren in een boel kinderziektes en verschijnselen. Denk maar aan het hoge stroomverbruik omdat men zich meer druk maakt om zo snel mogelijk als eerste een DX10 kaart op de markt te gooien. Beetje vergelijkbaar met de eerste generatie spellen voor een nieuwe console: nog niet geoptimaliseerd.

Nee, dan liever nog een goede DX9 kaart en pas overstappen eer DX10 volwassen is. :Y)
de eerste generatie dx9 kaart van ATI (9700pro) was anders een top kaart waar nogsteeds zeer goed mee te gamen valt. de mijne doet nu goed dienst in de PC van mijn broer(tje) iniedergeval.

daarbij is dit de eerste generatie switch met een nieuwe DX waarbij de concurrentie tussen ATI en nvidia pas echt goed op gang is (begonnen met die zelfde 9700pro).
beide partijen doen er echt alles aan om de snelste kaart te hebben op dit moment.
de eerste generatie dx9 kaart van ATI (9700pro)
Maar tussen DX8 en 9 zit toch niet zo'n groot verschil als tussen 9 en 10?
Maar tussen DX8 en 9 zit toch niet zo'n groot verschil als tussen 9 en 10?
Het is eerder andersom, vanuit hardware-oogpunt.
Tussen DX8 en DX9 was er veel verschil, want shaders gingen van fixedpoint naar floatingpoint precisie, dus in feite moest de hele hardware opnieuw ontworpen worden. De API bleef echter vrijwel gelijk.

Tussen DX9 en DX10 zit qua hardware niet zo veel verschil, het bouwt door op dezelfde basis. Het verschil zit hem nu vooral in de API die behoorlijk anders is, en minder overhead zou moeten hebben.
Maar in principe zou een DX10-kaart ook prima in DX9 moeten werken.
Als er enkel nog unified shaders op een kaart zitten, dan zal de performance daarvan een pak slechter zijn als ze onder DX9 als gewone shaders worden aangesproken (als dit al mogelijk is)
Dat is helemaal niet gezegd.
nVidia maakte een dergelijke fout ook al bij de FX-serie... Ze dachten dat shaders voorlopig nog voornamelijk fixedpoint zouden blijven, en gebruikten daarvoor nog steeds speciaal geoptimaliseerde pipelines... De floating point units waren maar bijzaak.
ATi had daarentegen gekozen voor alleen floating-point pipelines, en emulatie van fixedpoint.

In de praktijk bleek dat de FX-kaarten in fixedpoint niet of nauwelijks sneller waren, en dat software al gauw veel gebruik ging maken van floating-point... dus bleek de Radeon 9x00 serie de betere kaart voor DX8/DX9, en was het maandenlang aanmodderen bij nVidia met 'geoptimaliseerde' drivers, totdat ze eindelijk een nieuwe generatie goede DX9-hardware hadden.

Ik beweer dat bij een goede implementatie unified shaders zelfs sneller kunnen zijn dan aparte vertex/pixelshaders, omdat ze dynamisch gealloceerd kunnen worden.

Afgezien daarvan zijn deze kaarten een generatie nieuwer, dus zullen ze sowieso sneller zijn. Ze kunnen het zich dus veroorloven om wat minder efficient te zijn in DX9, om alsnog even snel of sneller te zijn dan de huidige generatie.

Maargoed, ik zei niet meer dan dat het 'prima in DX9 moet werken'. Wat dus inhoudt dat DX9-spellen prima speelbaar moeten zijn... Niet zozeer dat je je high-end DX9-kaart meteen zou moeten vervangen... want het zou kunnen dat in DX9 de oude kaarten ongeveer even snel zijn, of zelfs sneller.

Dat was bij de overgang van DX8 naar DX9 ook het geval. Een top-GeForce4 was in DX8 ongeveer even snel als een Radeon 9700Pro...
Maar daar zette de Radeon 9700Pro dan weer veel snellere en betere antialiasing en anisotropic filtering tegenover, zodat je voor de beeldkwaliteit alsnog beter die 9700Pro kon hebben. Misschien dat er nu ook weer goede redenen zijn om voor een DX10-kaart te gaan, afgezien van performance... Performance is immers maar een klein deel van het geheel.
Volgens de mensen van Wine zit tussen 9 en 10 ook niet veel verschil
niet veel verschil?
nee hoor alleen maar een geheel nieuwe element genaamd shaders die vanaf zijn introductie 25% of meer van de oppervlakte van alle daarna uitkomende chips in beslag zal nemen.
Maar in principe zou een DX10-kaart ook prima in DX9 moeten werken.
dat hangt geheel af van de implementatie.

Als er enkel nog unified shaders op een kaart zitten, dan zal de performance daarvan een pak slechter zijn als ze onder DX9 als gewone shaders worden aangesproken (als dit al mogelijk is)
nee hoor alleen maar een geheel nieuwe element genaamd shaders die vanaf zijn introductie 25% of meer van de oppervlakte van alle daarna uitkomende chips in beslag zal nemen.
Shaders waren al in DX8 geintroduceerd, niet in DX9.
Zo heel revolutionair was het nou ook weer niet, het was eerder een evolutie van de register combiners die we tot dan toe hadden.
Als de lagere modellen op een kleiner procede worden gebakken, betekend dat dan ook dat ze behoorlijk wat minder energie vragen dan de top-modellen. Of gaat die stelling niet per definitie op? Zou wel aantrekkelijk zijn voor veel mensen om een betere kaart te kopen dan ze nu hebben, maar minder energie vraagt.
Niet per definitie, want als je een kaart sneller klokt of meer moeilijke dingen laat doen zal hij ook meer stroom vragen. Echter zijn dat in dit geval juist redenen waarom het verschil nog groter zal zijn.

Immers vraagt de high end kaart meer stroom omdat:
1. Productieproces 80 nm vs 65 nm
2. Hogere kloksnelheden
3. Meer functionaliteit (meer shaders, etc.)

Als je upgrade van een oudere budget/mainstreamkaart, is het de vraag wat de stroomvraag gaat doen, want je moet dan balanceren tussen:
1. Nieuwer productieproces voor nieuwe kaart
2. Hogere kloksnelheden en meer shaders, etc. voor nieuwe kaart.

Volgens mij heeft de stroom-omslag die bij CPU's onlangs plaats vond bij de graphics nog geen doorgang gevonden, dus ik vermoed dat het stroomverbruik voor een nieuwere kaart wel hoger zal zijn.

(Wellicht als je van een oude mainstream naar nieuwe budgetkaart gaat dat het een klein beetje minder wordt, maar je wil waarschijnlijk niet het risico lopen dat prestaties achteruit gaan, om maar niet te spreken van de zinloze kosten voor een nieuwe kaart)

(edit: van een oude high end naar een nieuwe mainstream zal het denk ik wel een beetje helpen, want meestal verbruiken high-end kaarten sowieso extra veel energie om die laatste paar % performance er uit te persen. Maar let wel goed op de performance!)
Ik heb pas geleden toch maar een X1950 besteld.
Tegen de tijd dat er ook een aantal spellen zijn die dat DX10 gebruiken heeft ie al weer aardig wat weken/maanden(/jaren?) gedraaid lijkt me.

Dat Vista zelf DX10 gebruikt vind ik niet zo'n geweldig argument om op zo'n nieuwe kaart te wachten.
Maak daar maar jaren van. ;)

Gameontwikkelaars zullen pas komen met DX10 games totdat de mainstream dubbel en dik is overgestapt op Vista. Immers DX10 = Vista only, terwijl DX9 zowel op Vista als XP werkt.

Als pas een paar ethousiaste Tweakers erop zit, dan kun je hoogstens hier en daar een speciale extra versie verwachten. Net zoals Farcry destijds, met z'n 64-bits game executable. Maar reken er niet op.
Daarom dat bijvoorbeeld Crysis al direct een DX10 titel is zeker ...
Het feit dat iets op een 64-bit CPU en een multi core/cpu systeem draait wil niet zeggen dat het echt een 64-bit programma is dat gebruik maakt van meerdere cores/cpus.

Hoe ver gaat die DX10 ondersteuning?
Werkt het alleen met DX10?
Geeft het een veel mooier/realistischer spel?
Is het verschil iets wat je zonder grondig vergelijken niet ziet?
Of is het puur marketing om DX10 gebruikers te lokken?
Gameontwikkelaars zullen pas komen met DX10 games totdat de mainstream dubbel en dik is overgestapt op Vista. Immers DX10 = Vista only, terwijl DX9 zowel op Vista als XP werkt
DX10 games zullen al vrij snel komen. Het zal alleen nog wel een tijdje duren voordat er DX10 only games komen, daar kun je inderdaad jaren van maken.

Game developers zouden zich wel heel er diep in de vingers snijden als ze geen ondersteuning meer zouden bieden voor DX9. Ik denk dat het zeker nog een jaar duurt voordat 50% van de gamers een DX10 kaart heeft.
Roadmap?

Dat is geen roadmap erstaat b.v over ati (high end) alleen dat
de r600 komt in 2007 en in het 2e gedeelte van 2007
dat er een opvolger komt met r6** want * is onbekend.

Dat is geen roadmap maar info die we al weten.

Ik kan dit geen nieuws/roadmap noemen.
Dan moet er iets verder in de toekomst gekeken worden.
Er is meer dan alleen over de high-end R600 geschreven :) sowieso is de RV670 nieuw voor H2 2007, en er is tot nu toe afaik niks over de RV630 en RV610 die in H1 2007 zullen verschijnen hier op Tweakers.net geschreven.

Overigens staan er de huidige en de geplande toekomstige producten op, meer hoeft een roadmap toch niet te hebben?
In de eerste helft van 2007 zal ATi’s eerste DirectX 10-chip, de R600, het daglicht zien.
Lekker vage release date. Van nVidia's G80 gaan de sterke geruchten van een release date van 15 november. Als je nu, medio september 2006 nog niets eens weet of je top product (R600) dat moet concurreren met de G80 nu in Q1 of Q2 uitkomt? Hoe verwacht je dan dat consumenten medio november een keuze gaan maken: nu een DX9/DX10 G80 kopen of nog tot 6/7 maanden wachten voor ATI's DX10 kaart.
Maar opzich, als je de reacties bekijkt van veel mensen, dan zijn er heel veel die toch van plan zijn te wachten met de aanschaf van een DX10 kaart. Dus is het niet zo heel erg denk ik voor ATI om later met een DX10 kaart te komen.
beter van eerst beetje te oefenen op low end en daarna over te gaan naar high end met 65nm proces. ATI zal ongetwijfeld een betere kaart neerzetten dan nvidia's G80 maar ik vrees dat het mss weer zo een 7800-X1800XT affaire zou kunnen worden. nvidia's G80 zal bekend worden en ATI's R600 zal wss wel beter zijn, en bijna direct erna komt nvidia met een die-shrink van de G80 en raakt ATI terug achterop.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True