Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Bron: CoolTechZone

Dat de lancering van de nVidia 7800 GTX aanleiding is om de prijzen van de 6800-reeks naar beneden te halen is niks nieuws, maar wat opvallend is in dit geval is dat nVidia er voor het eerst voor gezorgd heeft dat de videokaarten uit de 7800-reeks vanaf de officiële lancering onmiddellijk beschikbaar waren in de winkels. ATi werd hierdoor compleet verrast en wordt economisch gedwongen om deze stap te evenaren wanneer het zijn nieuwe videokaarten presenteert. Volgens CoolTechZone zit er echter veel meer dan een eenvoudige marketingstrategie achter dit fenomeen verscholen. Zo volgen de twee grote videokaartfabrikanten een verschillende benadering bij het ontwerpen van grafische cores. Terwijl nVidia de oudere chips als uitgangspunt neemt om deze te verbeteren, keert ATi telkens weer terug naar de tekentafel om een nieuwe productlijn te ontwerpen.

nVidia logo (nieuwe stijl, kleiner)Dit heeft er voor een deel toe geleid dat de specificaties bij ATi zo vaak veranderen dat soms zelfs de partners twijfelen aan de precieze features van een nieuwe core en over de datum waarop een nieuw type videokaart verwacht kan worden, aldus CoolTechZone. Dit heeft er echter ook voor gezorgd dat ATi niet bevreesd is om problemen te krijgen door de hoge kloksnelheid van nVidia's PlayStation 3-core omdat het verwacht dit te kunnen compenseren met bijvoorbeeld de aparte engines voor het uitvoeren van verschillende vertex en pixel shaders. Bovendien beschikt ATi's ontwerp over een betere pijplijn, wat garant zou moeten staan voor betere grafische kunstjes.

ATi logo (kleiner)Na de achterstand die ATi volgens sommigen al een hele tijd heeft op nVidia, is de lanceringscyclus nu echter niet synchroon verlopen met die van nVidia, wat betekent dat we waarschijnlijk in oktober de R520 kunnen verwachten. Dit zou vervolgens betekenen dat ATi's snelste kaarten een paar maanden ouder zullen zijn dan die van nVidia, maar dat de midrange kaarten beduidend sneller zijn dan nVidia's 6200-reeks. Aangezien deze midrange markt de belangrijkste bron van inkomsten is voor beide bedrijven, zou ATi dus wel eens een goede slag kunnen slaan met het aanpassen van zijn lanceringsdatums. Een ander criterium waar ATi wel nog enige achterstand heeft, is het feit dat nVidia al met borden op de proppen gekomen is die 'full-scale x16 SLI' ondersteunen, terwijl ATi nog op de x8-versie blijft steken.

In elk geval is duidelijk dat nVidia op dit moment wel de leiding heeft, maar dat een aantal jaar geleden pijnlijk duidelijk gemaakt werd dat dit snel kan veranderen toen het bedrijf de GeForce 6-reeks lanceerde om de ATi 9800-kaarten van de troon te stoten. Als de uitgelekte specificaties van de R600, die op 65nm gefabriceerd zou worden met een kloksnelheid van 800MHz in combinatie met 512MB GDDR4-geheugen, enigszins kloppen zal nVidia in elk geval zijn best moeten doen om zijn leiderspositie te handhaven. Afsluitend merkt de schrijver van het artikel wel op dat het wel interessant is dat videokaartenbouwers zich inspannen om steeds betere technologieën te ontwikkelen, maar dat dit eigenlijk zinloos is als spelontwikkelaars daar geen gebruik van maken.

PCI Express-versies GeForce 6800 GT en Radeon X800 XT
Moderatie-faq Wijzig weergave

Reacties (70)

Terwijl nVidia de oudere chips als uitgangspunt neemt om deze te verbeteren, keert ATi telkens weer terug naar de tekentafel om een nieuwe productlijn te ontwerpen.
Dat is alleen nu het geval;
7800 is gebasseerd op de 6800
R520 is een volledig nieuw ontwerp

Maar een generatie daarvoor was het percies andersom:
6800 was een volledig nieuw design tegen over de 5800 (wat op zijn beurt ook weer een nieuw design was tegen over de geforce4)
x800 was gebasseerd op de 9700/9800
Nee de R520 is gewoon een R420 met SM3 support. De R400 is een volledig nieuw ontwerp (unified shaders) en de R500 is daarop gebaseerd. De R600 is dan weer een snellere R500.
Een R420 met sm3.0 support en andere = nieuw ontwerp weliswaar gebaseerd op de traditionele pijplijn configuratie
Een ander criterium waar ATi wel nog enige achterstand heeft, is het feit dat nVidia al met borden op de proppen gekomen is die 'full-scale x16 SLI' ondersteunen, terwijl ATi nog op de x8-versie blijft steken.

Is dit relevant? Bij mijn weten vullen zelfs high end kaarten die 8x bandbreedte nog niet, dus wat voor een voordeel heeft een full scale 16x dan? Buiten dat het leuk staat op de verpakking natuurlijk.....

(Ik ontken niet dat een dergelijke feature goed verkoopt, maar ik mag aannemen dat veel tweakers en toch zeker reviewers hier niet door gevangen worden.)
Klopt dit heeft idd geen nut, behalve onder indeale omstandigheden (super hoge res met eye candy aan) zal het misschien een tikkeltje schelen.

Ik vind dit zelf weer een pure marketingstunt (net zoals SLI overigens) wat technisch totaal overbodig is.
"wel interessant is dat videokaartenbouwers zich inspannen om steeds betere technologieën te ontwikkelen, maar dat dit eigenlijk zinloos is als spelontwikkelaars daar geen gebruik van maken."

Klopt spelontwikkelaars gebruiken niet de beste videokaarten om spellen te spelen, anders is het maar voor een kleine groep de spel beschikbaar. De minimum videokaart requirements voor een spel is altijd lager dan wat er op de markt is.
"Klopt spelontwikkelaars gebruiken niet de beste videokaarten om spellen te spelen, anders is het maar voor een kleine groep de spel beschikbaar"

De ontwikkelaars werken écht wel met betere kaarten. En de ontwerpers van de 3D-modellen vaak met professionele kaarten. Deze worden nog gebruikt in marketing en artwork, en later met wat poly's minder en lagere textures voor de game klaargemaakt.

"De minimum videokaart requirements voor een spel is zijn altijd lager dan wat er op de markt is.""

De uitgevers zouden achterlijk zijn als dit niet waar zou zijn; het is het gras voor je voeten wegmaaien. Een product op de markt brengen, geadverteerd voor een grote doelgroep, en uiteindelijk zal dat teniet worden gedaan door de kritiek en verkoopcijfers missen.
Dit is toch gewoon de logica hetzelve??? :|:(
Terwijl nVidia de oudere chips als uitgangspunt neemt om deze te verbeteren, keert ATi telkens weer terug naar de tekentafel om een nieuwe productlijn te ontwerpen.
Onzin.

De NV30 is radicaal anders dan de NV20. De NV40 is ook niet te vergelijken met de NV30. De G70 is inderdaad niet zo nieuw, maar had dan ook oorspronkelijk NV47 als naam! En wat de G80 wordt is totaal onbekend dus vermoedelijk is dat ook een nieuw ontwerp.

ATI daarentegen heeft voor de R420 bijna enkel het aantal pijplijnen van de R300 verdubbeld. Voor de R520 wordt het nog afwachten maar Shader 3.0 ondersteuning is nu ook al lang niet meer vernieuwend te noemen...

Dit bericht lijkt me dan ook meer een zwak excuus om ATI's achterstand te verklaren.
Zo 'radicaal' verandert is de NV30 niet ten opzichte van de NV20, NV25 en NV28. Het zijn allemaal single quad GPUs met 2 texture units per pipeline (4x2) en allemaal gebaseerd op een 128-bit memory interface..

Het grote verschil is de NV30 in staat om als een 8x0 te werken wanneer het aankomt op z-stencils (Ultrashadow), net zoals de NV40 in staat is om als 32x0 te werken. Om het gebrek aan een 256-bit memory interface te compenseren heeft nVidia de NV30 dermate hoog geklokt op een - op dat moment - nog niet bewezen techniek (0,13u), wat leidde tot een kaart die superheet werd en een turbine als cooler had.

Als je de geschiedenis bekijkt dan bouwt nVidia eigenlijk altijd voort op dezelfde bouwstenen, ook al willen ze je laten denken dat er compleet nieuwe architecturen zijn.

Vet = nieuwe feature

NV10 (GF1): Singlequad 4x1, 128-bit
NV15 (GF2): 4x2, 128-bit, hogere klok
NV20 (GF3): zie NV15, 128-bit, DX8.0, 1 vertex engine
NV25 (GF4): zie NV20 + hogere klok
NV28 (GF4): zie NV25 + hogere klok
NV30 (GFFX): 4x2, 128-bit, PS2.0a en VS2.0a, Vertex Array (3 shaders), Ultrashadow (8x0 mode), hogere klok
NV35 (GFFX): 4x2, zie NV30, 256-bit
NV38 (GFFX): zie NV35 + hogere klok
NV40 (GF6): 16x1, SM3.0, 6 vertexshaders
NV47 aka G70 (GF7): 24x1 (maar wel 16 ROPs a la NV40), 8 vertexshaders.

Technisch gezien neemt nVidia ATi's superscalar quad-architecture over die ATi al in de R300 gebruikte.

Zoals je ziet is NV30 dus helemaal niet zo 'radicaal' anders als de marketingafdeling je wil laten geloven. Natuurlijk zijn er extraatjes/tweaks bijgekomen zoals Ultrashadow, LMA en verschillende AA en AF mogelijkheden, maar dit zijn imo meer toevoegingen aan de huidige architectuur die constant min of meer hetzelfde is gebleven.

Hetzelfde geldt min of meer voor ATi, alhoewel die al iets vaker van richting is veranderd.

R100 (Radeon): 2x3 (!!), 128-bit
R200 (R8500): Singlequad 4x1, 128-bit, DX8.1, 2 vertexengines
R300 (R9700): Dualquad 8x1, 256-bit, DX9, 4 vertex engines
R350 (R9800): zie R300 + hogere klok
R360 (R9800XT): zie R350 + hogere klok
R400 => R500
R420 (RX800): quadquad 16x1 + hogere klok, 6 vertexengines
R480 (RX850): zie R420 + iets hogere klok (availability refresh)
R500 (C1 aka Xenos): unified shading architecture, 3x16 (3 pipelines met elk 16 ALUs), SM3.0+
R520 (??): zie R420 + SM3.0+ en andere tweaks
R600 (??): unified shading architecture, 4x16 (4 pipelines met elk 16 ALUs ??), SM4.0

ATi is van architectuur veranderd van R100 naar R200 en van R200 naar R300. Met R200 imiteerden ze min of meer nVidia's architectuur, en met R300 bouwden ze een compleet nieuwe architectuur op die vanaf de grond op SM2.0 was gericht terwijl nVidia met NV30 eigenlijk de oude architectuur nam en daar SM2.0a op plakte. Daarna is het een tijd hetzelfde gebleven maar straks komt de overstap op de volgende architectuur, terwijl R520 een soort overgangs architectuur is van R300 naar R600.

Dus het artikel is - als je het puur technisch bekijkt - helemaal niet verkeerd bezig met zijn conclusie dat nVidia vaak "evolueert" en daar af en toe nieuwe snufjes aan toevoegt, terwijl ATi vaker ingrijpendere acties onderneemt (2x3, 4x1, 8x1, 16x1 tegenover een hele poos 4x2 voor nV - NV15 t/m NV38).
Zo 'radicaal' verandert is de NV30 niet ten opzichte van de NV20, NV25 en NV28. Het zijn allemaal single quad GPUs met 2 texture units per pipeline (4x2) en allemaal gebaseerd op een 128-bit memory interface..
Je noemt daar maar één generatiestap he. Natuurlijk dat ze trachten het beste van NV2x te houden voor NV30. Maar met een NV2x had je totaal geen floating-point pixel shaders, en ps 1.3 heeft zo'n beperkt aantal instructies dat het bijna nog maar een FFP was. Dus 60% van de chip, de pixel pijplijnen, zijn gloednieuw. Je mag ook niet vergeten dat een generatie ook uit mid-end en low-end chips bestaat, die niet allemaal 4x2 waren. Dus extern lijkt het misschien niet radicaal anders, binnenin is het serieus veranderd. De stap van R300 naar R420 was veel kleiner dan van NV2x naar NV30, om maar niet te spreken over NV40.
Als je de geschiedenis bekijkt dan bouwt nVidia eigenlijk altijd voort op dezelfde bouwstenen, ook al willen ze je laten denken dat er compleet nieuwe architecturen zijn.
Het zijn compleet nieuwe architecturen in de zin dat er volledig terug naar de tekentafel voor gegaan is, en het door andere teams is uitgewerkt. Dat ze niet compleet van nul alle componenten ontwerpen is nogal vanzelfsprekend. ATI gaat juist hetzelfde tewerk.
Zoals je ziet is NV30 dus helemaal niet zo 'radicaal' anders als de marketingafdeling je wil laten geloven. Natuurlijk zijn er extraatjes/tweaks bijgekomen zoals Ultrashadow, LMA en verschillende AA en AF mogelijkheden, maar dit zijn imo meer toevoegingen aan de huidige architectuur die constant min of meer hetzelfde is gebleven.
Wat je van extraatjes opnoemt zijn juist de externe marketingtermen. De echte verniewingen zitten in de chip zelf. Zo lijkt het misschien vanzelfsprekend dat NV4x een verschillend aantal ROP's tenopzichte van het aantal pijplijnen ondersteunt, maar da's echt geen trivialiteit. Die ROP's kunnen dynamisch toegewezen worden en lieten onder andere toe dat ook mid-end en low-end chips dezelfde architectuur kregen en dezelfde features. Het liet ook toe om een chip uit te brengen met 24 pixel pijplijnen lang voor ATI. Voorts zijn ook de pixel shader units geheel nieuw. Ze ondersteunen branching (nodig voor Shader Model 3.0) met nauwelijks extra transistors en geen performantieverlies. Even ter verduidelijking: elke pixel kan verschillende branches nemen ookal worden ze altijd per vier in een quad verwerkt. Op een ATI chip met Shader Model 3.0 ondersteuning wachten we nu ook al langer dan een jaar. De rasterizer en setup engine zijn ook iedere generatie bijna compleet anders. Opnieuw zie je daar extern misschien niet zo veel van, maar elke component kan het succes of falen van een generatie betekenen...
Dus het artikel is - als je het puur technisch bekijkt - helemaal niet verkeerd bezig met zijn conclusie dat nVidia vaak "evolueert" en daar af en toe nieuwe snufjes aan toevoegt, terwijl ATi vaker ingrijpendere acties onderneemt (2x3, 4x1, 8x1, 16x1 tegenover een hele poos 4x2 voor nV - NV15 t/m NV38).
Sinds de R300 heeft ATI nog niks echt veranderd. Het verdubbelen van het aantal pijplijnen is echt niet ingrijpend te noemen. Dus voor bijna drie jaar heeft ATI bijna exact hezelfde interne design en het ziet ernaar uit dat R520 enkel Shader Model 3.0 zal toevoegen. Een heuse stap op zich maar niet meer vernieuwend te noemen.

Ik ga nu ook niet beweren dat NVIDIA veel radicaler is. Feit is gewoon dat ze beide tot DirectX 9 ondersteuning geraakt zijn met ruwweg vergelijkbare performantie en daarvoor zijn heel wat stappen nodig geweest. Je mag er vanop aan dat ze beide voor DirectX 10 goed voorbereid zullen zijn en al hun oude principes weer even overboord gegooid hebben op zoek naar een betere architectuur.
...toen het bedrijf de GeForce 6-reeks lanceerde om de ATi 9800-kaarten van de troon te stoten...

Daar staat ergens een getalletje verkeerd ... zéér verkeerd.
Dat is inderdaad een grote fout in het artikel.
De 5-serie concurreerde met de 9?00 kaarten van ATI, en bij die generatie vernederde ATI de kaarten van nVidia met veel betere prestaties en minder hitte.
Bij de 6-serie tegenover de x?00 kaarten van ATI is het omgekeerd, de nVivia kaarten domineren en ATI bijt in het stof met hun dubbelslots hittekanonnen en paper-releases zoals de x850PE die door critici de 'Phantom Edition' genoemd werd omdat hij wel aangekondigd werd, bestelbaar was, maar nooit echt te krijgen was omdat hij nauwelijks gemaakt werd.

Een hoop mensen staren zich blind op 1 merk en blijven daar hardnekkig bij, maar je moet het gewoon van generatie tot generatie bekijken. Ik heb een GF2-MX400, een 8500 gehad en nu een 9800 pro maar als ik er nu een zou kopen zou het zeker een 6800 worden en echt geen x800/x850.
En waarom staar ik blind op ATi?

Omdat ik geloof dat ze niet sjoemelen met de drivers (sneller maar slechtere kwalliteit), waardoor benchmarks van nVidia hoger uitvallen.

Omdat ik persoonlijk de anti aliasing en anisotropic filtering nog steeds mooier van van ATi kaarten. Overigens vind ik niet alleen die kwalliteit maar bijvoorbeeld ook mipmapping mooier bij ATi kaarten.

Omdat ATi TemporalAA heeft wat er zichtbaar uitziet als 8xAA terwijl het 4xAA van de GPU op eet... nVidia schijnt hier trouwens wel mee bezig te zijn dus als ze dat kunnen fixen dan zou dat zeker een goeie stap zijn.
Aangezien ik AA zeer waardeer en elk spel al standaard op 4x minimaal wil spelen, zal het sneller lopen op een ATi kaart met 2xAA+2xTemporalAA dan op een nVidia met 4xAA.

En last but not least, ik vind de drivers van ATi juist veel relaxter dan die van nVidia maar ik geef toe, dat is 100% persoonlijk ;)

Ik probeer hier overigens geen ATi/nVidia flame war te starten maar aan te geven waarom mensen voor en X800/X850 gaan ipv een nVidia in die generatie.
Omdat ik geloof dat ze niet sjoemelen met de drivers (sneller maar slechtere kwalliteit), waardoor benchmarks van nVidia hoger uitvallen.
mooi dat geloven he, word je niet gestoord door feiten ed
Omdat ik persoonlijk de anti aliasing en anisotropic filtering nog steeds mooier van van ATi kaarten. Overigens vind ik niet alleen die kwalliteit maar bijvoorbeeld ook mipmapping mooier bij ATi kaarten.
wederom een mening, ik kan t verschil niet zien (net als het gros van de mensen)
en last but not least, ik vind de drivers van ATi juist veel relaxter dan die van nVidia maar ik geef toe, dat is 100% persoonlijk
misschien wel de meeste fanboy-ish uitspraak die erbij zit, een ongefundeerd gevoel mbt de driver als richtlijn nemen voor een keuze
Ik probeer hier overigens geen ATi/nVidia flame war te starten maar aan te geven waarom mensen voor en X800/X850 gaan ipv een nVidia in die generatie.
voelt wel wat als een flamewar, daarnaast kan ik me nauwelijks voorstellen dat mensen op basis van deze argumenten voor ati (of nvidia) gaan, het bevestigd bij mij meer het vooroordeel dat er nog genoeg mensen (waaronder jij dus) zijn die puur kiezen voor het merkje
Omdat ik geloof dat ze niet sjoemelen met de drivers (sneller maar slechtere kwalliteit), waardoor benchmarks van nVidia hoger uitvallen.
reality check: http://techreport.com/etc/2004q2/filtering/index.x?pg=1
Whatever the merits of ATI's adaptive trilinear filtering algorithm, ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim.
Dat zou de FX (5) reeks moeten zijn dan? Want de 6-serie reeks was (is) idd juist héél succèsvol...
En niemand geeft even in het forum daarvoor de zware fout door? :-/
-> http://got.tweakers.net
Niet vergeten hé boys en girls.
Ik durf ook al een hele tijd geen dure videokaarten meer in voorraad te nemen. Om de maand kelderen de prijzen weer door de constante nieuwe releases...
je hebt gelijk, maar wat je zegt niet is geheel waar. Stel je koopt nu een GF7800GT van 400euro. Dan heb je een kaart die voor nu supersnel is! De prijs keldert waarschijnlijk vrij snel, maar je kaart blijft even snel! Daar kan je nog tijden mee vooruit, zo moet je het zien!
Hij zegt 'in voorraad' dus ik neem aan dat de man een winkel heeft... Dan is het niet leuk als hij met 100 euro in waarde daalt.
Tja, wat je zegt is ook wel waar, maar in mariusjr zijn geval heeft hij daar dus ***** aan dat die kaart wel nog altijd even snel is, maar minder waard.

Als hij met 5 videokaarten (van + 500¤ aankoop) op stock plots de prijzen ziet kelderen naar 300¤ per kaart, dan maakt hij toch wel mooi een pak verlies.

Een winkel kijkt meer naar het prijs-winst-plaatje, dan naar het morele aspect (dat de kaart wel evensnel blijft als voorheen), en dat is volledig correct ook. Er moet brood op de tafel blijven komen natuurlijk.
Sowieso zulke kaarten op voorraad? Ik zou er zelf niet aan beginnen. Laat de klant 1 dag wachten op zulke dure kaarten, dat zijn nooit inpuls aankopen.

Bedoel, beetje leverancier heeft ze wel op voorraad, dus lijkt mij dat geen probleem. Scheelt je weer dure voorraad en verliezen.
Mja het is toch meestal stuivertje wisselen.

Ik kijk gewoon naar mn budget, en aan de hand daarvan bekijk ik wat kaarten, kijk hoe ze scoren en neem de beste kaart voor dat geld. Of dat nu een ATi of Nvidia kaart is, maakt me dan niet zoveel uit :)

En beide fabrikanten hebben plus en minpunten, zo vind ik de drivers van Nvidia beter, maar toen ik m'n kaart kocht had ATi weer veel snelheid, en de drivers waren redelijk ok dus :) En de Nvidia's schopten destijds een hoop herrie :)
Helemaal mee eens met NoepZor,

Daar naast koop ik geen nieuwe videokaart meer als de nieuwe kaart niet minstens 2x zo snel is als de oude, voor ongeveer de zelfde prijs.
Ik had eerst een Radeon 8500 (128mb) [2,5 jaar lang mijn trouwe vriend] en heb nu een GForce 6600 GT (128mb).
De oude kaart was 4x2 op 250Mhz GPU, met 500Mhz DDR,
De nieuwe kaart is 4x2 (4 ROP's met crossbar 8 Texture Units) op 500Mhz GPU, met 1000Mhz DDR.
Als we alle extra features van de 6600 GT CPU ff vergeten loopt de nieuwe kaart precies 2x zo snel als de oude. :) (De pipelines van de 6600 GT zijn beter gerangschikt dan die van de R8500 dus is ie eigenlijk meer dan 2x zo snel)
Het ligt er natuurlijk ook een beetje aan welke spelletjes je wilt spelen, als de nieuwe kaart je nieuwe favorite spel al niet aan kan, heb je er ook niet veel aan.
Als je elke maand een nieuwe video-kaart koopt die maar 10% sneller is merk je er niets van als je hem in je PC propt, omdat het snelheids verschil veels te klein is om het te voelen.
fsluitend merkt de schrijver van het artikel wel op dat het wel interessant is dat videokaartenbouwers zich inspannen om steeds betere technologieën te ontwikkelen, maar dat dit eigenlijk zinloos is als spelontwikkelaars daar geen gebruik van maken.
Maar als die techniek er niet is kan het helemaal niet gebruikt worden. Nogal logisch dat de videokaart eerst een bepaalde functie zal moeten hebben voordat die gebruikt kan worden.
In elk geval is duidelijk dat nVidia op dit moment wel de leiding heeft, maar dat een aantal jaar geleden pijnlijk duidelijk gemaakt werd dat dit snel kan veranderen toen het bedrijf de GeForce 6-reeks lanceerde om de ATi 9800-kaarten van de troon te stoten.
Was dat niet de 5800stofzuiger vs de radeon 9700pro?
GF6 is iig vs X800 serie
Toch enkele vreemde conclusies in dat artikel:
Terwijl nVidia de oudere chips als uitgangspunt neemt om deze te verbeteren, keert ATi telkens weer terug naar de tekentafel om een nieuwe productlijn te ontwerpen.
Het is algemeen bekend dat ATi al jaren op de dezelfde R300 core verdergaat. De Radeon 9700 verschilt niet veel van de X850.
De NV40 daarentegen is een volledig nieuwe architectuur met extra features als SLI en SM3.0.
Dit zou vervolgens betekenen dat ATi's snelste kaarten een paar maanden ouder zullen zijn dan die van nVidia, maar dat de midrange kaarten beduidend sneller zijn dan nVidia's 6200-reeks.
Uiteraard, maar de 6200 reeks is dan ook geen midrange. ATi's nieuwe midrange zal moeten concurreren met de 7600 reeks.
Aangezien deze midrange markt de belangrijkste bron van inkomsten is voor beide bedrijven, zou ATi dus wel eens een goede slag kunnen slaan met het aanpassen van zijn lanceringsdatums.
Midrange is misschien de belangrijkste bron van inkomsten maar het zijn wel je topkaarten die in het nieuws komen en je aanzien geven. In die zin is de high end belangrijker.
Een late lancering is nooit goed, dus hoe kan je een goede slag slaan als de concurrent al veel eerder op de markt is en elke dag meer marktaandeel wint?
Daar gaan we weer.
Als de uitgelekte specificaties van de R600, die op 65nm gefabriceerd zou worden met een kloksnelheid van 800MHz in combinatie met 512MB GDDR4-geheugen, enigszins kloppen zal nVidia in elk geval zijn best moeten doen om zijn leiderspositie te handhaven.
Hoe kunnen ze dat bij CoolTechZone nou weten? R600 staat nog steeds voor eind 2006 gepland, en tegen dan heeft nVidia heus wel een opvolger voor de G70 core.
maar dat de midrange kaarten beduidend sneller zijn dan nVidia's 6200-reeks.
En? Blijkbaar vergeet CoolTechZone dat nVidia nog een 7200 reeks kan klaarhebben?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True