ATi's eerste R600-chips geproduceerd; lancering Q1 2007

Logo's AMD en ATiNaar verluidt heeft ATi de eerste werkende kaarten op basis van de R600-core geproduceerd. Deze chip moet de X1000 gaan opvolgen en staat gepland voor het eerste kwartaal van 2007. Oorspronkelijk was ATi van plan om de R600 vijf maanden vroeger te lanceren, maar dat bleek niet haalbaar te zijn. De chips die voor de geproduceerde demokaarten gebruikt worden, zijn bovendien nog lager geklokt dan de snelheid waarop de uiteindelijke retailmodellen moeten werken. Voor het demonstreren van de mogelijkheden en om ontwikkelaars ervaring met het ontwerp op te laten doen, zouden de kaarten echter wel al volstaan. Ook nVidia hanteerde deze strategie van lager geklokte kaarten voor ontwikkelaars, maar die G80-modellen werden in september al naar de gamestudio's gestuurd. Nu de eerste retailmodellen van de G80-kaarten, met name de GeForce 8800-modellen, opduiken, breken er een aantal lastige maanden aan voor ATi.

Door Yoeri Lauwers

Eindredacteur

10-11-2006 • 11:50

90

Submitter: aliberto

Bron: The Inquirer

Reacties (90)

90
88
53
17
2
12
Wijzig sortering
Deze kaarten zijn al een tijdje in omloop ( Samples ) Dit zijn niet nu pas geproduceerd.

Maar ik begin wel nieuwsgierig te worden naar de Specs. Aangezien we die van de G80 al weten. Ik wil toch weten welke van de twee beter is voordat ik er een koop.

Dus ik wacht nog even tot eind Januari voordat ik een DX10 kaart ga kopen.

Geruchten zeggen:

Core: 650+
Memory: 1250 MHz GDDR 4
512 MBit Memory Bus
1024 MB Memory
96 - 5D Shaders ( Tov 128 1D shaders van nVidia ( maar let op de shaders van nVidia lopen op meer dan dubbele snelheid van de core ) )

De vraag is nu wat is er van waar...
klinkt leuk, maar 1GB GDDR4 geheugen kost heel veel geld, waardoor die kaart nog een stuk duurder moet/zal zijn als de 8800GTX (welke 768MB van het goedkopere GDDR3 heeft)

ook zal een 512bit geheugenbus er voor zorgen dat het een heel moeilijk PCB gaat worden, dus ook duurder

ik denk dat nVidia misschien wel een goede keuze heeft gemaakt om de kosten nog wat redelijk te houden
ATi is momenteel de enige afnemer van gddr4 geheugen, en Samsung is al een 8 maand bezig gddr4 in massaproductie te produceren, GDDR4 is juist goedkoper, hogere kloksnelheid, zelfde kosten.

Het probleem van nvidia is waarschijnlijk eerder dat hun pcb of chip niet geschikt is voor hogere geheugensnelheden

@frank, GDDR4 is een beperkte aanpassing van GDDR3, de aansturing (die in de gpu zit) is een stuk compexer en er zijn aanpassingen om het geheugen minder stroom te doen verbruiken. Door die aanpassingen kunnen er hogere kloksnelheden gehaald zijn die met gddr3 niet mogelijk zijn, zonder dat het proces (de litografie) moet worden aangepast, dus hogere kloksnelheid, zelfde kosten ik vindt dat een kostenbesparing. GDDR4 is natuurlijk enkel interessant aan hoge snelheden.
GDDR4 is niet goedkoper. Het is een nieuw product waar nog veel ontwikkelingskosten in zitten. In een nieuwsbericht van een tijdje terug werd ook geschreven dat de yields van GDDR4 nog niet zo goed waren.

En qua productiehoeveelheid: GDDR3 vindt je terug op tientallen verschillende soorten videokaarten, GDDR4 heb ik totnogtoe alleen nog maar gezien op de X1950XTX.

En dat ie sneller is dan GDDR3 maakt hem niet goedkoper. ;)
Zoveel sneller is GDDR4 niet eens.

Met overclocken gaat het GDDR3 van de 8800 GTX naar 1000+ hoogste dat ik gezien heb was 1065 MHz stabiel

http://www.hardware.info/...k_WinFast_PX8800_GTX_TDH/

En ja met GDDR4 kon met overclocken meer gehaald worden maar liefst 19 MHz meer max met GDDR dat ik tot nu toe gezien heb was 1084 MHz (kan er 3 mhz naast zitten).

Natuurlijk de toekomst is voor GDDR4 maar op er nu je kaartkeuze op te baseren is onzin.

Voor de duidelijk de effectieve kloksnelheden hier zijn:

2x1065 = 2130 MHz
2x1084=2168 MHz
Met zoveel geheugen op een kaart mag je bijna wel aan HyperMemory doen, maar dan de andere kant op :Y)
Al is het dan wel zo dat ATI meestal met een snellere kaart komt voor minder geld. Dus ze zijn later, maar zetten ook een betere kaart neer
Oh dan heb ik iets gemist de laatste tijd. De snellere kaart komt waarschijnlijk omdat ze vaak telaat zijn en de kaart toch standaard wel wat te overclocken zijn. Maar dat is meestal niet echt veel.

Als je het mij vraagt is Nvidia sinds de Geforce 7 veel beter bezig dan ATI.

Nee ben geen fanboy. Alleen een mening. Heb al verschillende kaarten van allebei gehad.
De snellere kaart komt waarschijnlijk omdat ze vaak telaat zijn
Sinds wanneer is één keer al "vaak"?
Hier komt een uber noob vraag: wat zijn 5d shaders?
Bewerkingen kunnen ofwel op afzonderlijke getallen gebeuren, ofwel op vectoren. 1D is dus een aanduiding dat elk getal een apparte berekening kan ondergaan. 5D betekent dat alle getallen in pakketjes van 5 verwerkt worden.

Beide hebben hun voor en nadelen. 5D vergt minder transistoren dan 5 x 1D. Maar wanneer de shaders veel op afzonderlijke getallen werken dan wordt bij een 5D verwerkingseenheid 4/5 niet gebruikt.

R600 zal vermoedelijk echter 1+4D verwerkingseenheden hebben, i.e. een 1D en 4D vertwerkingseenheid in parallel. Dit compenseert dus gedeeltelijk de nadelen van vectorverwerking.

De 128 1D shaders van G80 zijn echter ook aangevuld met 128 interpolators en ALUs voor speciale functies. En omdat ze op dubbele kloksnelheid lopen en nooit verwerkingseenheden ongebruikt laten is het moeilijk te zeggen wie aan het langste eind zal trekken...
Core: 650+
Memory: 1250 MHz GDDR 4
512 MBit Memory Bus
1024 MB Memory
Ik neem aan dat dat 512bit moet zijn?
Maar ik begin wel nieuwsgierig te worden naar de Specs. Aangezien we die van de G80 al weten. Ik wil toch weten welke van de twee beter is voordat ik er een koop.
Zo kan je blijven wachten. Wanneer ATI's kaart net verschenen is wed ik er mijn hoofd op dat NVIDIA een 65 nm G81 met GDDR4 aankondigt die weer alle records breekt.
Wachten is juist oke!.
Voor de huidige XP games is het overkill vooral voor de massa met gemiddelde monitoren. 'n 19" TFT 1280x1024.
G81 volgt al veels te snel en dat samen met R600
Veel geld over de klink voor performanc ewat j nog niet zo echt nodig hebt . Op 'n uitzonderingtje na.

Die 700M transistoren op 65nm krijgen 'n mix van zuiniger en hoge klok mogelijk dus meer performance en zuinige dan de
G80.
Dus niet 2 x de performance van 'n X1950XTX maar 2,5 á 3x klinkt nog leuker.
Al dan ben ik meer benieuwed naar de R600.
Alleen 80nm voor de R600 is 'n dompertje.

Dus om nu al zo hard van stapel te lopen.

Zonder Vista en géén DX10 games.

Leuk voor het volk met 'n 21" CRT of zo'n 24" TFT 2560x1600 daar is 'n G80 goed voor.

Niet wachten is ook geen probleem. voor die prijs krijg je ook een sloot performance voor.

ik wacht ook. Op R600 valt ie te veel tegen dan heb je g81 als optie. G80 is dan verleden tijd.
Ondertussen zijn er al wat DX10 titles.
512 MBit Memory Bus
Dat is wel HEEL veel...

en die 650 Hz core vind ik vrij weinig..
Laat iemand zich hier in zijn/haar kaarten kijken ?

Ati wist al lang dat Nvidia eerder met de hun dx10 kaart zou komen. Om na de lancering van nvidia bekend te maken dat ATI ook een dx10 kaart heeft is een zwakte bod.

Als ati serieus een antwoord op nvida zou hebben had men een release datum, fotos en mogelijk indicatie benchmarks bekend gemaakt voor of tijdens de nvidia release.

Nvidia released zijn kaart net voor vista wat een solide indruk geeft. Ati gaf op 22-10-2006 aan begin 2007 een r600 te releases en later een verbeterde versie uit te brengen. Of hiermee het wachten beloond is onduidelijk aangezien ati nog geen informatie naar buiten heeft gebracht over hun r600 core. De r600 zou volgens geruchten gebasseerd zijn op de xbox360 chip, maar gezien de late release zou dit wel eens anders kunnen zijn.

Gezien hun uitspraak op 15 juli 2006 :
"They key point is that ATI wants to spread the message that it will be ready with fully DirectX 10 capable hardware that will support Shader model 4.0 and unified Shaders" kunnen we vermoeden dat er iets in de laatste 4 maanden veranderd moet zijn. Met de release van de x1650pro is wel duidelijk geworden dat we een ander crossfire systeem kunnen verwachten dan de oude kaarten.

Als de ontwikkelaars pas nu met de ATI kaarten aan de slag kunnen en hun software moeten optimaliseren is de uitstel van een aantal dx10 games ook niet zo raar. Mogelijk heeft de samensmelting met AMD maar meer budget vrij gemaakt zodat we dit in de toekomst geen papieren release meer tegenkomen.

Hoe de ati kaarten presteren is momenteel de eerst vraag, het feit dat nu mogelijk het ontwerp kan worden aangepast aan de nvidia prestatie zou voorsprong kunnen geven.

De stijd voor de kerstdagen is al beslist, de 2de ronde verwachten we in 2007
De r600 zou volgens geruchten gebasseerd zijn op de xbox360 chip, maar gezien de late release zou dit wel eens anders kunnen zijn.

Waarschijnlijk is de R600 gewoon gebaseerd op de R400, net zoals de R500 op de R400 gebaseerd is.

Als je ATI mag geloven dan is er uitendelijk nogal wat getweaked aan de Xenos om daar een geïntegreerde console GPU&memory controller van te maken.

Waarschijnlijk is de stap R400 -> R600 gemakkelijker te ontwerpen als de stap R500 -> R600.
Wat ook het overduidelijke verschil in het eindresultaat verklaart.

De R400 was gewoon een erg vooruitstrevend ontwerp voor z'n tijd. :)
Anoniem: 136640 10 november 2006 13:02
Ach, van de ene kant is dat ook wel een slimme zet.

Want ik ga er ff van uit dat dit ook DX10 kaarten zijn en tegen de tijd dat deze kaarten uitkomen is er ook Vista met DX10 en zeer waarschijnlijk ook wel wat games met DX10.

Dus er zullen vast wel veel mensen zijn die liever dan een DX10 kaart kopen omdat:

Ze dan minder duur zijn.
Er dan al breed support voor is. (dx10 games en vista dus)
En omdat er nog altijd mensen zijn die zweren bij ATi natuurlijk!
Als dit zo doorgaat zal op een gegeven moment het geheugen op de videokaart groter worden dan het werkgeheugen van de pc.
Vooral AA vreet geheugen (en dus ook bandbreedte).

Ik vraag me af of die hoeveelheden wel nodig zijn?
Voor AA ja maar anders?

2 jaar geleden zaten we nog met 128MB als midrange, volgend jaar met 512-640 en misschien 1024MB voor de high end terwijl mijn pc maar 1024MB ram heeft.
Een 8800GTX of R600 met 256MB lijkt mij voldoende voor de gamers die geen AA nodig hebben omdat ze gamen op een scherm met hoge pixeldichtheid.
Anoniem: 175233 @peke10 november 2006 18:03
Met DX10 is er eigenlijk minder geheugen nodig.

Het nieuwe geheugen management in DX10 zorgt ervoor dat je je videokaart geheugen als een cache van je systeem geheugen zou kunnen gebruiken. Heel veel geheugen op de videokaart is niet actief in gebruik, omdat bijvoorbeeld altijd alle mipmaps van een texture ingeladen zijn, terwijl wellicht alleen de kleinste gebruikt wordt voor iets in de verte. Dat is dus een reuze verspilling. Met DX10 worden de actief gebruikte delen op de videokaart inladen, en kan de rest in het systeem geheugenen staan. Geen verlies aan prestaties, maar wel veel minder geheugen op de videokaart nodig. (Wel meer systeem geheugen)

Die extreme hoeveelheid geheugen op de videokaart is dus primair een compatibiliteits issue voor DX 9. Zou je volledig op DX10 overstappen, dan zul je waarschijnlijk zien dat er een bepaalde ratio van video en systeem geheugen is dat het best werkt voor de meeste spellen. Ik kan me goed voorstellen dat voor een 2GB systeem, je met 256MB op de videokaart ruim voldoende hebt.

(Vergelijk het met de L2 cache van de CPU t.o.v. de hoeveelheid werkgeheugen in je computer.)
Eigenlijk kan ik er wel goede toepassingen voor bedenken; vooral met die hippe nieuwe C-compiler van nVidia is het juist interessant dat er ook daar nog een berg geheugen op zit :)
Ik denk dat er programmeurs gaan komen die die 128 shaders voor heel creatieve doeleinden gaan inzetten, denk aan koetjes, passwords kraken, en/decryptie, video en/decoden etc etc. Ik zie wel mogelijkheden!

En dat de kaart dan een 'kladblokje' van 768 MB heeft ten opzichte van 1024 MB, en dat de snelheden anders zijn, dat zal uiteindelijk niet zoveel uitmaken. Het gaat erom hoe efficiënt je de hardware kan benutten en hoe snel je met je toepassingen kan komen.

Nvidia heeft goed gezien dat het steunen van de developers de basis is voor een geaccepteerd platform, bijvoorbeeld zoals Microsoft developers steunt met .NET en Creative met EAX.
Ik denk dat er programmeurs gaan komen die die 128 shaders voor heel creatieve doeleinden gaan inzetten, denk aan koetjes, passwords kraken, en/decryptie, video en/decoden etc etc. Ik zie wel mogelijkheden!
G80 is bijna volledig 32-bit floating-point, en heeft beperkte scatter/gather mogelijkheden. De zaken die jij noemt hebben echter nood aan integer bewerkingen en willekeurige toegang tot het geheugen.

Om dat vlot op de GPU te draaien zal nog wel een generatie of twee nodig zijn. En tegen dan is de doorsnee CPU ook al uitgerust met een dozijn cores...
Dat vraag ik mij dus af: wat is het voordeel van AA voor iemand die games speelt op 1600x1200 of hogere resoluties? want wat mij altijd opvalt is dat AA het beeld enigszins 'blurred', waardoor ik minder accuraat kan richten met FPS...
Als je een scherp scherm hebt, dan zie je ook op 1600x1200 nog irritante kartelrandjes.
En pixel crawling zie je zelfs op nog hogere resolutie duidelijk.
Smaken verschillen, ik kan juist beter gamen met AA aan. In CSS en alle andere games staat het altijd op 6x+6xTemporalAA=12xAA effectief, speelt echt wel lekker zonder die irritante kartelrandjes hoor.

Ik speel trouwens op een Dell 24" op 1920x1200 en zie alsnog ernstig vervelende kartelrandjes zonder AA ;)
Is het niet een beetje zonde om nu al een DX10 powered kaart te kopen ? DX10 is er immers nog niet ? (enig idee wanneer die released gaat worden ?)
DirectX10 wordt in 2007 waarschijnlijk al snel in veel games gebruikt. Bovendien zijn DirectX10 kaarten over het algemeen ook sneller in DirectX9 games. Er zijn dus weinig nadelen, het is simpelweg een investering in de toekomst. En die toekomst laat in dit geval niet lang op zich wachten, want de eerste DX10 games komen al in het eerste kwartaal van 2007. Eigenlijk is de prijs de enige reden om geen DX10 kaart te kopen, maar dat zal ook nog wel veranderen.

Enne, laten we nu niet weer gaan doemdenken over stroomverbruik en warmteproductie, aangezien het bij de G80 ook erg mee bleek te vallen. Dus graag niet weer discussies over datzelfde onderwerp :)

Ik ben erg benieuwd of de nieuwe AMD kaarten de 8800GTX zullen gaan verslaan, en hoe duur ze worden. Interessante tijden voor gaming-hardware breken aan :)
Een Nvidia GeForce 7900 GTO 512 MB voor € 240,- of een ATI Radeon X1950 256 MB voor € 180,- i.p.v. een DirectX 10 kaart van +/- € 550,- noem ik niet zonde. Je investeert dan in techniek die nu toch nog niet optimaal wordt benut. De volgende generatie DirectX 10 kaarten hebben zeker meer value voor money. Met de oude generatie kan je zeker nog wel even vooruit. Game studio's releasen toch volgend jaar pas de meeste DirectX 10 games, en die draaien zoals het er nu naar uit ziet, ook nog prima op bovenstaande kaarten.
Regel 1 bij marketing praat is dat het gewoon een hoop gelul is.

De meeste games hebben een productie cycle van 1-2 jaar tegenwoordig en aangezien Microsoft pas sinds kort de specs echt duidelijk heeft gemaakt (als in minder dan een half jaar) wil het dus zeggen dat het feitelijk op zijn vroegst DX10 games kunnen verwachten die rond Q3/Q4 2007 zullen verschijnen. Ze gaan tegenwoordig echt geen 3 maanden vertraging erin gooien om snel DX10 routines in de engine te gaan gooien op de manier zoals het bedoelt is.

De rest is een bij elkaar geraapte patch code om het deels te gebruiken. Nou tegen die tijd hebben we de G90 en de RD700.
Het is niet alsof een DirectX 10 kaart geen DX9 kan hoor

Nu nog investeren in oude technologie, da's pas zonde!
Tegelijkertijd met Vista...
Daarnaast moet je ook nog rekening houden met het feit dat er later vast ook nog andere versies van DX10 komen. Deze eisen aanpassingen op de videokaarten om nog optimaal te kunnen werken. Zit je daar met je grafische kaart van €600.

Meeste mensen wachten tot de High-end kaarten goedkoper worden als ze slim zijn. Die worden na een paar maanden aanzienlijk goedkoper, terwijl de performance van de kaart toch hetzelfde blijft. Dan speel je de nieuwste spellen maar een paar maanden later.

Ik denk niet dat het nadelig voor ATI zal zijn om het later uit te brengen. nVidia had de 8800 iets te gehaast uitgebracht waardoor ze op het laatste moment nog een foutje vonden. Als je gewoon je tijd neemt voorkom je dat soort dingen. nVidia is er deze keer goed mee weggekomen, misschien dat ze de volgende keer niet zoveel geluk zullen hebben. Verder staat ATI altijd nog voor qua CrossFire vs SLI en Physics.
Het wordt inderdaad de vraag hoe goed de 8800 onder DX10 werkt. Als je niet onmiddellijk een kaart nodig hebt, zou ik liever wachten tot dat duidelijker wordt. DX10 is een grote sprong t.o.v. DX9, en de kaart zou daardoor wel eens compleet andere prestatie eigenschappen kunnen hebben

NVidia brengt wel altijd snel nieuwe features uit in kaarten, maar vaak hebben die nog geen volwassen prestaties. De DX9 introductie werd een groot fiasco voor NVidia, omdat hun pixel shader 2.0 in de FX5600 nog niet in de shaduw kon staan met het geweld van ATI's 9700. En in tegenstelling tot NVidia's verwachtingen, werd ps2.0 heel snel volop in games gebruikt.

Met dynamic branching van SM3.0 enigzins hetzelfde verhaal. NVidia was een generatie eerder met de implementatie... alleen was het nauwelijks zinvol te gebruiken. Nu ATI het ook heeft, blijkt ATI's implementatie veel volwassener, en daardoor veeeel sneller te zijn.

De NVidia mentaliteit schijnt te zijn om nieuwe features te introduceren, die dan in de volgende generatie kaarten pas daadwerkelijk ook door spellen volop gebruikt wordt.
De ATI mentaliteit lijkt te zijn om nieuwe features te introduceren die in diezelfde generatie volop gebruikt moeten gaan worden.

Het zou me absoluut niets verbazen als je dit met DX10 ook ziet gebeuren. Dat ATI's DX10 implementatie veel efficienter is, en daardoor onder DX10 ATI het beste is, terwijl onder DX9 NVidia er beter uit komt.
FX5600 nog niet in de shaduw kon staan met het geweld van ATI's 9700
de 9700pro was toen, wat de g80 nú is :z


btw..laatst ergens gelezen dat het nog zeker een jaar duurt voor dx10 ''standaard'' is bij nieuwe games
Vergis je niet in nVidia, hun release nu van hun eerste DX10 kaart kunnen hun ingenieurs tot de ATI 600 release 3 tot 4 maanden terug in hun labaratoriums om het 8800 ontwerp verder te verfijnen. Tegen de tijd dat ATI begin 2007 hun R600 uitbrengt, heeft nVidia al een snellere of betere 8800 klaar staan. Of in de vorm van een snellere versie of in de vorm van een SLI op een kaart versie: een 8800GT2. Time will tell but nVidia is in the lead now.
Yep, de achterstand die ati iedere keer probeert in te halen door een videokaart te maken die sneller is dan de huidige nvidia topkaart, zorgt voordurend voor nadelige gevolgen voor ATI:
1. ATI topkaarten zijn bijna altijd duurder bij launch dan de topkaart van nvidia
2. Het stroomverbruik van de ati topkaarten ligt door hun extreem hoge clocks van gpu en geheugen erg hoog.
3. wanneer de topkaart van ati net uit is, launcht Nvidia de "dual-GPU"-versie van zijn huidige topkaart voor dezelfde prijs als de topkaart van ati, waar ati dan voor een aantal maanden geen antwoord op heeft...
Al deze acties legt Nvidia geen windeieren en momenteel lijkt het goed voor de consument, maar als Ati straks niet meer zal kunnen meekomen, dan zal het afgelopen zijn met ati als high-end videoplankbakker...met de gevolgen voor de consument...
Ik denk dat het nog wel meevalt met het ten ondergaan van Ati wat jij (DeArmeStudent) voorspelt.

Als je bijvoorbeeld naar het verleden kijkt, zie je daar dat NVidia een poos vrijwel alleenheerser is geweest op game-videokaart-gebied. Dit was ten tijde van de ondergang van 3Dfx.

Ati heeft zicht toen perfect kunnen aanpassen en is nu zelfs een geducht concurrent van NVidia.

Verder is Ati nu overgenomen, iets wat in mijn ogen alleen maar positief kan zijn voor Ati (tenzij AMD de game-markt niet intressant vindt en Ati in het vervolg alleen maar office-grade videokaarten laat maken)
Mag ik even vragen waar jij dan meer verstand van hebt dan DeArmeStudent?

Het is uitgesloten dat externe GPU's gaan verdwijnen. Mindere aantallen? Vermoedelijk wel. Maar een externe GPU zal per definitie altijd meer rekenkracht hebben dan een geintegreerde.

Dat is echt niet zo moeilijk om in te zien:
- een grotere die laat meer performance toe.
- meer performance vraagt meer vermogenverbruikt.

Zo simpel is dat. Op dit moment zijn er nog steeds limieten aan de maximale die size EN aan het maximale praktische vermogenverbruik. (Die limieten blijven stijgen met de tijd, maar ze zijn er wel.) De G80 zit al dicht bij de maximum die size. Een CPU is er een stuk onder. Maar een GPU + een CPU zal altijd, per definitie, groter zijn dan de 2 afzonderlijk.

Daarbij komt dat zowel high-end CPU als GPU nog steeds ongelooflijk gulzig zijn wat betreft extern geheugen: de CPU niet zozeer bandbreedte maar wel latency. De GPU niet echt latency maar wel bandbreedte. Een memory controller kan geoptimizeerd worden voor het ene of voor het andere maar niet voor beiden.

En tenslotte dus het vermogen. Het is al niet eenvoudig om 2 afzonderlijke dies deftig te koelen. Als je die twee gaat samenvoegen wordt het ineens nog een heel stuk moeilijker. De fysica geldt voor iedereen.

De fusion CPU/GPU van AMD is een schitterende manier om extreme low cost computers te maken. Maar het zal nooit sneller zijn dan 2 gespecialiseerde oplossingen, zeker niet nu er nog snellere interfaces tussen de twee zitten aan te komen (Torrenza).

Als er hier iemand hierboven zit te blaten...
@Database freak
Een refresh van een kaart vind niet in 3 maanden plaats

Dat duurt bij zowel ATI als Nvidia minimaal 6 maand, en duurt de laatste tijd steeds langer.
Ati loopt dus (alweer) achter Nvidia aan met de launch. Wel jammer, Nvidia kan zo goed winst maken omdat Ati niet met een vergelijkbare kaart kan komen. Ook zullen de 8800 kaarten niet goedkoper worden, omdat er dus geen concurrentie is op dat vlak..
Zo mag je het natuurlijk niet bekijken. Alsof producenten met elkaar de launch af zouden moeten stemmen, dat kost hen geld en belemmert ontwikkeling.

Nu is NVidia de beste, maar misschien kan Ati van die extra maandjes profiteren en zijn ze misschien wel weer 10% sneller dan NVidia of kunnen ze de kaarten 10% goedkoper produceren.

Bij gelijktijdige launch zouden ze elkaar en zichzelf kapot maken. NVidia kan nu nog even echt winst op het spul maken en hoeft niet gelijk de concurrentie aan te gaan. Dat geldt ook voor ATi als zij straks met een betere kaart komt.
het is nog maar de vraag of ati met een betere kaart komt, ik hoop van wel, dan zal nvidia weer meer moeten laten zien

nvidia is al bezig met het verkleinen van het productie proces naar eerst 80nm en later 65nm, ook is de g80 een totaal nieuw modulair ontwerp zodat ze in een veel kortere tijd het ontwerp kunnen aanpassen en verbeteren zonder een geheel nieuwe core te moeten ontwerpen
En omdat die kaarten niet goedkoper worden zullen ze alleen maar het topje van de ijsberg betasten; diepgang komt er niet omdat lang niet iedereen 500+ euro neer wil leggen voor zo'n kaart.
Pas wanneer de ATi kaart er is - overigens bijna tegelijk met Vista en dus dx10 - begint het prijsvechten _en_ de zinnigheid van een dx10 kaart.

Ik denk niet dat ATi iets misloopt w.b. DirectX 10 op de consumentenmarkt.
dus wat jij zegt is dat Ati er beter aan doet nu maar te wachten, zodat alle early adaptors de 8800 kopen, en dan komt Ati met een goedkopere kaart die DX-10 doet, en dan denk jij dat ze de boot niet missen?

Wat denk je dat er dan vanuit nVidia komt?

Juist, de GF 8600, 8200 en wat ze anders nog voor mid-low range DX-10 kaarten op basis van de G80 kunnen verzinnen.

Ati is gewoon te laat, simpel als dat. nVidia heeft deze slag WEER gewonnen.
Nee, ik zeg niet dat ATi er beter aan doet te wachten, ik zeg dat ze niet zo veel missen.

Ik zeg ook nog wel: dat het _nog_ geen _zin_ heeft om die DirectX 10 kaart te hebben, omdat DirectX 10 alleen in Vista beschikbaar is.
G80 heeft meer te bieden dan alleen DX10 functionaliteit, het ding is mongolisch snel...

Oblivion op 2048x1536 16xCSAA 16xAF HDR @ 45fps.....

Er is geen enkele andere combinatie van kaarten die dat kan, en de G80 doet het in zijn eentje.

http://techreport.com/rev...eforce-8800/index.x?pg=14
http://techreport.com/rev...800/oblivion-shot-g80.png
Het gaat om het verhaal ja :P
Op die resolutie heb je geen kont aan 16AA en AF
Jij hebt duidelijk een TFT, waarmee je dit dus niet kunt uitproberen, onze ogen zijn nogal goed in het detecteren van oneffenheden in de vorm van jaggies, ook op dergelijke hoge resoluties hebben onze ogen geen moeite ze hier en daar te zien, en dat kan heel storend zijn.

Bovendien gaat dat eigenlijk aan het punt voorbij, of je er nu direct iets aan hebt of niet, het ding is vreselijk snel.

SM3.0 was ook ovebodig toen nVidia ze op de GF6 zetten, toch is nu iedereen met een GF6 erg blij dat het er toch op zit. DX10 gaat nog een stukje verder, het zorgt gewoon voor dat de kaart een tijdje mee zal kunnen gaan.
Wat een onzin.
Op die resolutie heb je geen kont aan 16AA en AF
LCD TV heb ik }>

Natuurlijk is dat ding snel.
Toch is factor 16 voor AA/AF zeer overbodig, vind ik.
Kan me nog wel herinneren dat ik FarCry "probeerde" op 1600x1200 zonder AA/AF en zag relatief weinig gekartelde randjes (ik ben visueel georienteerd en zeer kritisch op beeldkwaliteit).
4xAA is zeer praktisch en rrrrrrruim voldoende voor resoluties zoals 2k bij nog-wat-k.

Maar iig feliciteer ik Nvidia natuurlijk wel met hun zeer goede kaart. Nu kunnen ze nog lachen.
Anoniem: 196574 10 november 2006 12:29
super goeie zet van nvidia. als je je producten voor de consumenten lanchering van vista in de winkels kunt hebben liggen en dan ook nog voor de kerst is dat natuurlijk super. ati heeft hier echt een misser gemaakt even los van het feit of ze sneller zijn of niet. ik heb zelf een oc 7900gt van xfx maar zou graag over willen naar een 8800gtx oc zodra deze uitkomt van xfx.
Misser?

Dacht het niet.
Alle producten van ATI zijn uitgesteld door de merge met AMD, dat vergt maanden aanpassen.

Reken er maar op dat ATI weer heel sterk terugkomt.
En pas eind januari is Vista/DX10 er dus die R600 zal niet zo laat zijn als men denkt.
Waarom zou je zo'n product uitstellen vanwege die merge met AMD?

Ik denk dat ATI al heel lang geleden heeft besloten de launch van de R600 samen te laten vallen met de launch van Vista voor consumenten.

Dat is nou eenmaal het meest logische moment voor een nieuwe DX10 kaart!
Dat is nou eenmaal het meest logische moment voor een nieuwe DX10 kaart!
het is logischer om 'm vóór de concurrent uit te brengen :Z
Niet als de consument het niet als voordeel ziet.

DX10 is op dit moment geen verkoop argument. Nvidia kan dat dus niet goed in hun marketing gebruiken. ATI released 'm tegelijk met Vista en kan er juist heel erg op hameren.

Stel je voor dat Nvidia er nu op hamert dat het de eerste DX10 kaart is.
Consument: Mooi zeg. Welke spellen maken er gebruik van?
Nvidia PR: Eh... geen. Enneh.... je moet ook nog wachten tot Vista.
Consument: Oh, nou dan wacht ik ook nog wel even met het kopen van die kaart.

Alleen de performance van die kaart is niet voldoende meer als verkoop argument. ALLE spellen spelen nog fantastisch op de vorige generatie kaarten.

Kijk naar de review sites. Ze moeten naar belachelijk hoge resoluties gaan voor ze een spel vinden waarbij de vorige generatie niet zo ideaal meer is. (maar 24fps in Oblivion is nog steeds uitstekend te doen)

En die hoge resoluties gebruikt geen hond. Ook niet de mensen die de high-end kaarten kopen.

In het verleden was het wel anders. Dan had je al spellen die eigenlijk niet meer goed genoeg draaiden op de oude generatie kaarten en had je meteen baat bij je nieuwe videokaart.
Nou het lijkt me geen nadeel als je later bent, met de Launch. Nvidea en Ati volgen mekaar al jaren steeds op, met steeds betere kaarten. Wanneer Ati komt met de r600, zullen alle mensen die altijd voorop willen lopen, hun "langzame 8800 GTx te koop aanbieden in V&A" voor een nieuwe ATI X2. De winst van fabrikanten wordt toch gemaakt in het mainstreamcircuit de kaarten tussen 50 en 150 euro. En die komen over het algemeen toch iets later dan de topmodellen.
Er is allang bekend dat de meeste winst per processor gehaald wordt op de high-end markt...En de gedachte over de beste prijs/prestatieverhouding in de mid-end markt bepaalt naar welke fabrikant het marktaandeel zich verschuift, en dus wie hogere winsten behaalt...
Zo was het bijvoorbeeld heel opvallend dat AMD massaal de processorprijzen verlaagde...wat inhield dat zij en Intel altijd al dikke winsten op hun processors haalden...en die mensen die een paar maanden geleden een high-end amd processor hadden gekocht...voelen zich nu denk ik zeker een beetje belazerd...
Ja dat klopt, maar het meeste geld zit toch echt in de budget/mid-range kaarten en dat bedoelde hij. Van de top modellen word 1 tegen 1000 budget modellen verkocht.(het is maar eeen schatting kan best veel meer zijn) ;)

Op dit item kan niet meer gereageerd worden.