'Nvidia ziet af van GeForce 7800 Ultra'

Als The Inquirer het bij het rechte eind heeft, zullen we geen GeForce 7800 Ultra te zien krijgen. Nvidia zou weten dat ATi maar een klein aantal R520 XT's met een kloksnelheid van 600MHz en geheugen op 1400MHz kan aanbieden en zou daarom beslist hebben geen snellere G70-chip aan te bieden. De GeForce 7800 Ultra zou namelijk volgens de planning gebaseerd worden op de bestaande kaarten, maar van een sneller geklokte chip voorzien worden. The Inquirer stelt dat nVidia wel in staat geweest zou zijn een competitieve kaart aan te bieden, maar dat dit de verkoopcijfers van de GeForce 7800 GTX in het gedrang zou kunnen brengen. Vanuit zakelijk oogpunt lijkt het ook verstandiger om grote hoeveelheden GTX- en GT-kaarten te verkopen, dan een beperkt aantal Ultra-versies. Als deze bewering van The Inquirer klopt, zou ATi met het probleem zitten dat het onmogelijk tienduizenden R520 XT-kaarten kan leveren tegen december en dat nVidia deze hoeveelheden van zijn GTX-kaart wel beschikbaar heeft.

Onbekende GeForce: GeForce 7800 Ultra of Quadro FX 4500 ?

Door Yoeri Lauwers

Eindredacteur

06-09-2005 • 10:42

100

Submitter: Phyxion

Bron: The Inquirer

Reacties (100)

100
96
52
23
7
23
Wijzig sortering
Wat wellicht gebeurd is, is dat ATI met man en macht beginnen werken is aan de chip voor de XBox 360 (Xenos). Hun desktop-chip, de R420, werd een kopie van de R300 met dubbel aantal pijplijnen (geen groot team voor nodig). Ondertussen heeft NVIDIA de NV40 af en een hele reeks mid- en low-end kaarten die de ganse martk verovert met goede prestaties en alle DirectX 9 features. Nu Xenos af is, is ATI op achtervolgen aangewezen. Vooral omdat de nieuwe features een nieuwe architectuur vergen duurt het lang, en dan heeft NVIDIA reeds een opvolger met 24 pijplijnen!

Wat vooral een slimme zet was van NVIDIA is om de chip voor de PlayStation 3 volledig te baseren op de G70 (NV47). Dus een klein team van ingenieurs kan dit aan en de rest werkt al heel lang aan de G80 (NV50). Consoles hebben niet de nieuwste grafische chip nodig om succesvol te zijn.

Uiteindelijk convergeert dat natuurlijk, want ATI kan z'n ervaring met Xenos gebruiken voor de volgende desktop chip. NVIDIA heeft zich ook herpakt na de mislukking van NV30 he. Maar tegenwoordig zijn die ontwerpen zo complex dat het wel eens een generatie langer duurt...
Dat de PS3 chip gebaseerd is op de G70 is geen slimme zet geweest van Nvidia, maar een "noodzakelijk kwaad".

Sony heeft pas heel laat ingezien dat ze toch een dedicated gpu in de PS3 moesten gebruiken. Daarom is Nvidia pas heel laat betrokken geraakt bij de ontwikkeling van de PS3 en moesten ze in een vreselijk korte tijd een gpu er voor ontwerpen.

De enige manier waarop dat mogelijk was, was om een bestaand ontwerp te pakken en dat wat aan te passen. De G70 was al ver gevorderd en dus was de enige realistische optie om op tijd een gpu voor de PS3 te maken de gpu te baseren op de G70.
Niks geen slimme zet, er was simpelweg geen andere keus.

Wat betreft je verhaal over ATI kon je daar wel eens een punt hebben. De R420 was inderdaad geen bijzonder ontwerp, en je vraagt je dan af waar die engineers dan wel al hun tijd in hebben gestopt.
NVIDIA heeft meermaals het ontwerpen van een nieuwe architectuur voor consoles afgewezen. Ik meen zelfs gelezen te hebben dat ze in aanmerking kwamen voor de XBox 360 maar enkel ATI wou aan Microsoft's veeleisendheid voldoen.

Slimme zet van NVIDIA of 'geen andere keus' voor Microsoft/Sony? De eerste XBox heeft hen niet veel opgeleverd buiten een rechtzaak met Microsoft (die goedkopere chips wou voordat NVIDIA er z'n kosten uit had gehaald), en een slappe NV30.

In de desktopmarkt moet je iedere generatie weer het beste kunnen tonen. Voor consoles, die tot vijf jaar moeten meegaan, hoef je niet de snelste GPU om succesvol te zijn. Als PlayStation 3 flopt gaat het niet zijn omwille van NVIDIA's GPU, maar door het aanbod spellen. Dus daar kunnen ze alleen maar winnen. Als de XBox 360 een succes wordt dan krijgt ATI daardoor niet meteen een betere naam. Over een jaar zijn we Xenos weer vergeten.

De console-markt is wel nog aan het groeien, dus uiteindelijk kan ATI er misschien meer inkomsten uit halen en zo op langere termijn investeren in de desktoplijn...
De Xbox 360 chip, de Xenon van ATI dus, presteerde zo goed met het 90 micro procede dat ze besloten hebben om deze te veranderen en ook als desktop te kunnen gebruiken, maar waar de yields van de xenon heel goed waren, vielen ze ongelooflijk tegen voor het desktopmodel.

De chip presteerde goed, maar kon nie hoog genoeg geklokt worden en het aantal die wel werkten, waren enorm klein, dus moest er nog een revisie komen
Klopt natuurlijk niet, de R520 is heeft helemaal niets gemeen met de Xenon buiten het 90nm proces.
Dat het proces voor de Xenon goed ging is juist, maar net omdat de R520 een totaal andere chip is, was dit geen garantie voor een goedlopende R520 produktie.

Enne, proficiat DingieM met je eerste onderbouwde reactie.
Grappig verzinsel, maar verder volslagen belachelijk.

Of wil je nog een poging doen je verhaal te onderbouwen?
Dat doe ik wel voor hem.

Ik citeer uit interview met Dave Orton:
"Sampsa: Can you tell us a little about the problems which you encountered when you moved to 90nm production technology?

Dave: "Xbox 360-game console’s Xenon-graphics chipset was developed on 90 nm with tremendous success, so we felt confident using it for the R5xx family. RV515, which will be aimed at the entry-level PC segment, also worked perfectly from the outset without encountering any manufacturing issues. But to be honest, we’ve had our share of challenges with the R520 and RV530 chips. Even though all the simulations that were done with the chips were looking good, there were still issues with the silicon when it came back from the fab. It was also surprising that RV515 and RV530 were designed by the same team and manufactured in the same fab using same technology, but RV515 worked perfectly and RV530 caused us problems".

According to Dave, R520 chips taped-out in November 2004 and original plan was to announce it seven to eight months later during the June-July period. Adopting smaller manufacturing technology delayed the schedule by a couple of months, but because of other challenges the engineers faced, the chips were delayed by an additional 2-3 months."

In feite kwam ATI onverwachte problemen tegen, wat goed te maken kan hebben met TSMC zelve.

Nog meer info:
"Sampsa: Last year when ATI moved from the 130nm to the 110nm manufacturing process, only the entry-level, mainstream and upper-mainstream products made the migration. How come this time around you’re using the latest process technology, 90nm, for your entire product family, including high end?

Dave: "One major factor relating to adoption of smaller manufacturing technology was naturally our deal with Microsoft on the graphics solution of Xbox360, and the success of the Xenos graphics processor has given us a high confidence level in the 90nm process. And although there have been challenges along the way, recent results with the R520 and RV530 are looking excellent, and indicate that they'll be very well placed in the market in terms of both performance and image quality when they arrive in the fall.""

Dave Orton geeft nVidia ook credit voor zijn SLI, maar:
"Sampsa: Would it then be fair to say that you launched CrossFire because of pressure from Nvidia?

Dave: "Nvidia certainly deserves credit for bringing SLi to the market and generating more consumer interest in multi-card solutions, but the vision behind CrossFire was to create the only multi-card solution on the market that provides a performance or image quality improvement to 100% of 3D games, not just 2 or 3%. Delivering a solution with 30X the level of game compatibility means a longer engineering investment, and the feedback we’ve received from customers is that they are prepared to wait a bit longer for a solution that meets their needs better"."

Lees verder maar:
http://www.soneraplaza.fi...8,h-9112_a-303085,00.html
Ah, dan snap ik nu hoe ie aan dat maffe verhaal komt. Dat is dus een misverstand omdat ie het antwoord van Dave Orton verkeerd gelezen heeft. (Maar het staat er ook wel een beetje ongelukkig).
Sampsa: Can you tell us a little about the problems which you encountered when you moved to 90nm production technology?

Dave: "Xbox 360-game console’s Xenon-graphics chipset was developed on 90 nm with tremendous success, so we felt confident using it for the R5xx family.
Ik kan me voorstellen dat iemand hierin leest dat de Xenon gebruikt is voor de R5xx family. Maar wat Dave bedoeld te zeggen is dat 90nm gebruikt is voor de R5xx family.

Dave geeft namelijk antwoord op een vraag, en "using it" slaat dus op de "90nm production technology"

Dat blijkt verder ook wel duidelijk uit het artikel.

[edit:] Oh boy, dit overbodig? Aan iedereen die dit zo gemod heeft: Lees nou eens goed. Ik corrigeer hier een fout, die gemaakt is.
De moderatie zelf interesseert me geen zier, maar als jullie dit overbodig vinden, dan denken jullie nu dus blijkbaar dat de R520 op de Xenon gebaseerd is, en dat is dus gewoon niet waar.
Huppakee, gaan we weer.

Het is zo eigenlijk best sneu dat de race om de beste videochip allang niet meer wordt gevochten om prestaties en de kwaliteit van drivers (hoeft ook niet, want die zijn nagenoeg gelijk).

De competitie draait om beschikbaarheid. Vorige ronde was voor nVidia. Deze ronde eigenlijk weer, want de nieuwe chip van ATI is nog in geen velden of wegen te bekennen, terwijl ik al minstens een maand de nieuwe nVidia kaarten kan kopen bij de winkel om de hoek.

Het is mijns inziens onbegrijpelijk dat je anno 2005 nog met (bijna) paperlaunches komt. Dat werkt niet alleen in het nadeel van ATI, maar ook van ons consumenten. Er zal deze kerst namelijk weinig aanleiding zijn om écht te gaan stunten met de prijzen van videokaarten. Simpelweg omdat de grote concurrent van nVidia het verzaakt om zijn distributie beter te organiseren.
Distributie zal niet echt het probleem zijn, het zijn meer de yields die Ati tegen zitten. Ze produceren gewoon te weinig exemplaren van hun snelste GPU. De GPU's die niet door de quality control komen voor de Ultra Platinum Extreme Edition (of hoe ze het ook steeds mogen noemen) worden op PCB's geplakt voor de XL's en Pro's. Vervolgens kunnen kopers dan drie maanden wachten op hun snelste GPU.
Dat is bepaald geen beste onderbouwing van je beweringen.

Een respin doe je juist om problemen met slechte yields op te lossen.
Dus je kan niet beweren dat de R520 slechte yields zal hebben omdat ie een respin nodig had.

Interessant in dat opzicht is het gerucht bij Tom's Hardware Guide dat de yields nu juist geweldig goed zijn.
Waarom slikt iedereen hier dat gerucht van The Inquirer voor zoete koek?

(Met name nadat ze eerdere geruchten 2 maand geleden dat Nvidia geen Ultra zou uitbrengen allemaal niet wilden geloven)

Ik vind het gerucht extreem ongeloofwaardig.

In de gehele bestaansgeschiedenis van Nvidia, zijn ze altijd tot het uiterste gegaan om de allersnelste kaart te hebben.
Ze weten immers uit ervaring dat dat je een goede naam oplevert, wat je zelfs in de midrange serie extra verkopen oplevert. (zelfs als dat helemaal niet gerechtvaardigd is voor de midrange kaarten)
De allersnelste zijn vinden ze bij Nvidia zo belangrijk dat ze bij de NV30 zelfs bereid waren gigantische cheats in te bouwen. (ik wil niet opnieuw een discussie over die cheats starten, maar aangeven hoe belangrijk dit punt voor Nvidia is)

En nu zouden ze de strategie die ze al hun hele leven gebruikt hebben ineens zomaar overboord gooien? Zonder duidelijke reden?
Dat van die GTX sales is geen goede reden. Dat zelfde speelt immers bij alle generaties videokaarten die ze ooit gekocht hebben.
Dat zou alleen een factor kunnen zijn wanneer het produceren van een GTX Ultra EXTREEM veel duurder zou zijn dan een normale GTX. Maar iedereen roept juist hoe makkelijk de GTX te overklokken is, dus dat maakt het niet waarschijnlijk dat een Ultra zoveel moeilijker/duurder zou zijn. Vooral als je daar een dubbel slot koeler op zet.

Het enige steekhoudende argument tegen de Ultra in dat gerucht van The Inquirer is het punt dat de "enthousiasts" die al meteen een GTX hebben gekocht niet blij zouden zijn als er nu 2 maand later een Ultra op de markt komt.
Maar dat argument was 2 maand geleden precies hetzelfde. Dus dat kan geen reden zijn om nu ineens te besluiten de Ultra te cancellen.
Dat argument kan alleen maar aangeven dat Nvidia ook 2 maand geleden al besloten had om geen Ultra uit te brengen.

Aan de andere kant ging wel meteen het gerucht dat Nvidia nog met een Ultra zou komen. Dus je kan je dan ook afvragen of die vroege kopers zich dan echt genaaid zouden voelen, of dat dat wel meevalt.

Maar samenvattend is het dus uitermate ongeloofwaardig dat er op dit moment ineens aanleiding voor Nvidia is om de Ultra te schrappen.
In de gehele bestaansgeschiedenis van Nvidia, zijn ze altijd tot het uiterste gegaan om de allersnelste kaart te hebben.
Klopt, maar misschien hebben ze nu de nodige informatie om zeker te zijn dat de Geforce 7800 GTX de snelste blijft, of dat ze snel genoeg de opvolger kunnen lanceren.

Trouwens, het GT model is gebleven, Ultra is gewoon GTX geworden. Dus er is geen 'verplichting' om nog een Ultra uit te brengen. Tenzij de R520 toch sneller is. Simpele manier voor hen om alle opties open te houden. :) Het beetje roddels over een Ultra doden ze dan met nog een roddel. Via officiële kanalen gaat dat moeilijk...

Ik vind het dus wel geloofwaardig. Ze hebben altijd gezegd dat er enkel een Ultra komt indien nodig. Nu er ook sterke aanwijzingen zijn R520 niet impressionant is, is het niet nodig een Ultra te releasen. Zo kunnen ze alles concentreren op de opvolger, zodat die nog wat meer uitblinkt (misschien had die anders niet veel sneller geweest dan de Ultra).
Waarom vind je het dan geloofwaardig?
Welke aanleiding zie je dan om op dit moment de Ultra te cancellen?

Waarom niet een weekje wachten met die beslissing tot ze zekerheid hebben over welke R520 kaarten ATI uit gaat brengen?
Die beslissing een weekje uitstellen is immers op geen enkele manier nadelig voor ze.

Als Nvidia informatie heeft dat de GTX de snelste blijft, waarom stelt het gerucht dan juist dat de Ultra competatief zou zijn met de R520XT? Als je daar van uitgaat, dan is het niet waarschijnlijk dat de GTX de snelste blijft. Zeker niet sneller dan de XT, maar je moet dan ook sterk twijfelen of ie sneller zou zijn dan de XL. En die zou wel goed leverbaar zijn door ATI.

Begrijp me goed. Het gaat me er niet om of er redenen zijn om aan te nemen dat er wel of niet een Ultra komt. Zoals ik in mijn eerdere reactie al aangaf zijn die er best wel.
Maar ik zie geen argumenten waarom Nvidia op dit oment ineens een geplande Ultra zou cancellen, zoals het gerucht beweerd. DAT gedeelte vind ik dus ongeloofwaardig.
Als de Geforce 7800 GTX inderdaad competitief blijft met de snelste R520, of trager is, dan moet NVIDIA bijna klaar zijn met G80 (of een G7x telg die R520 verplettert). Anders houdt het inderdaad geen steek om de Ultra te cancellen.

Ze hebben iedereen kunnen verassen met de snelle lancering en beschikbaarheid van de Geforce 7800 GTX, misschien doen ze dat nog eens opnieuw met de Geforce 7900 GTX of Geforce 8800 GTX eens ATI de R520 in de winkelrekken heeft gekregen.
De GTX is net 2 maand op de markt.

Dan zou hun roadmap wel zeer dubieus zijn als dan de G80 al bijna klaar zou zijn.

Normaal gesproken komt er na 6 maand een refresh, wat in principe dezelfde gpu is maar op hogere frequenties, en dan 6 maand daarna een nieuwe generatie gpu.

Het lijkt me dan ook uitermate onwaarschijnlijk dat één van die modellen op dit moment al klaar zou zijn.
Ze hebben niet veel keuze he:

- Een Ultra uitbrengen nog voor de R520 een bedreiging vormt. Dan de G80 uitbrengen voor Kerstmis die niet veel sneller is dan de G70 Ultra en te duur is.
- De Ultra cancellen, wachten tot ATI z'n kaartjes in de winkels krijgt, en dan de G80 releasen.

De G70 is reeds de refresh van de NV40 he (oorspronkelijk was het dan ook de NV47). Dus G80 tegen Kerstmis lijkt mogelijk. Dan gooi je daar niet nog eens een kaart tussenin. Zeker niet als de R520 maar mager uitvalt.

Dit alles in de veronderstelling dat de G80 bijna af is natuurlijk. Maar het vormt een verklaring voor de huidige geruchten.

ATI gaat te traag en NVIDIA te rap. B-)
Waarom heeft de inq gelijk? Simpel: nvidia heeft ook geen refresh van de 6800u uitgebracht omdat het zinloos was. ATI bracht wel de X850 uit met een ongelooflijke oc van maar liefst 15Mhz!! Nvidia kon dit ook doen, maar heeft hiervoor niet gekozen. Het lijkt me duidelijk dat ATi tot het uiterste wou gaan om de performance kroon te houden. Dus als je zegt dat nvidia dit kost wat kost wil, ben je gewoon verkeerd.

Nu gebeurt net hetzelfde, ze kunnen de G70 nog wel wat hoger klokken maar doen dit niet. Ze laten de performance kroon dus alweer aan ATI.

Waarom dus strategie veranderen? Nvidia is al lang van strategie veranderd, denk wel dat dit duidelijk is.
Aval0ne,

Hoe kun je nou beweren dat de Inq gelijk heeft, terwijl je in je post juist argumenten aangeeft waarom de Inq ongelijk heeft?

Je geeft aan dat Nvidia geen nutteloze refresh van 15Mhz wil doen. Dat dat zinloos zou zijn en dat ze de performance kroon aan ATI laten.
Je geeft aan dat ze niet nu van strategie veranderd zijn, maar dat al lang gedaan hebben. (bji de 6800)

Daarmee geef je dus aan dat Inq ongelijk heeft, omdat Nvidia dus de Ultra niet gecancelled heeft, aangezien ze helemaal nooit van plan zijn geweest 'm te maken. Iets wat je niet aan het maken bent, kun je immers niet cancellen.


Overigens heb je tot nu toe in alle threads zitten roepen dat er absoluut zeker een GTX Ultra zou komen. Ik kan dat totaal niet rijmen met deze post van je waarin het volgens jou ineens duidelijk is dat Nvidia helemaal nooit van plan is geweest met een Ultra te komen.
Voortschrijdend inzicht en logisch nadenken op marketing niveau zou ik zeggen.

Voor de duidelijkheid: INQ zweert echt niet dat nVidia geen ultra meer gaat maken, maar dat ze na grondig onderzoek zo'n (eventuele) beslissing van nVidia goed kunnen begrijpen omdat het doorverkopen van hoofdzakelijk GTX-en en GT-en het meeste zal opbrengen.
Amerikaanse bedrijven kiezen vrijwel altijd voor geld i.p.v. prestige. Het is het kapitalisme pur sang, ze kunnen niet anders. Ik werk voor een Amerikaans moederbedrijf en ze zijn echt volslagen idioot met geld bezig. Een meute blinde paarden met oogkleppen op. Sorry moest er uit.
at zou alleen een factor kunnen zijn wanneer het produceren van een GTX Ultra EXTREEM veel duurder zou zijn dan een normale GTX.
nee qua GPU kost het exect het zelfde, er rollen er alleen wat minder van de band af.
maar dat maakt niet uit. er blijven namelijk even veel GTX-en van de band af rollen (min die paar ultra's die de ultra snelheid aan kunnen)

ze maken geen waffer en zeggen dit worden ultra's
ze maken een waffer en kijken wat er uit komt. en dan stoppen ze alle gpu's in verschillende mandjes afhankelijk van max clock van die chip en de vraag naar die bepaalde gpu.
wat de inquirer hier dus zegt dat de reden is voor nvidia zit totaal geen logica in.
:'(


Niet zo'n heel slimme zet natuurlijk van Nvidia, want het gaat er natuurlijk ook om wie de snelste kaart op de markt brengt.....
Ik vind het een zeer slimme zet van nVidia. Hoe vaak is het niet voorgekomen dat de snelste kaart in de benchmarks nauwelijks leverbaar was?

nVidia kiest hiermee duidelijk een strategie gericht op de consument. De producten die de consument op Internet in verschillende tests ziet kunnen ze ook ten alle tijden kopen. En zo hoort het vind ik!

De performancekroon is leuk, maar als je het product vervolgens nergens kunt kopen, heb je er bar weinig aan!
Ja we kennen allemaal de X850PE (bijgenaamd 'phantom edition') nog wel, die in de benchmarks de snelste was maar waarvan al snel bleek dan behalve een serie voor reviewers hij gewoon echt nergens te koop was. Wat paper-releases betreft is ATI gewoon berucht. Daarom had nVidia ook eerst aangekondigd geen 7800 Ultra te gaan maken, omdat de naam Ultra nou eenmaal geassocieerd wordt met overgeklokt tot op het randje, heet, duur en nauwelijks leverbaar. Toen was er wel even sprake van maar gelukkig zien ze er nu van af. Want 'nauwelijks leverbaar' geeft je gewoon een slechte naam. Hieronder staat ook een reactie van iemand die op het punt stond een 7800GTX te kopen maar besloot dat uit te stellen vanwege dat nieuws dat er een Ultra aan zat te komen. Nieuws dat er binnenkort een betere kaart komt laat de consumenten hun aankopen uitstellen, dat is niet goed voor je business.

nVidia heeft het gewoon heel goed gedaan, als ze een kaart aankondigen ligt hij de volgende week al in alle winkels op voorraad. ATI moet het nu vooral hebben van de fanboys die dagelijks reclame maken in alle forums, maar sinds de 9x00 series de geforce 5-serie vernederden met superieure prestaties heeft nVidia gewoon gedomineerd met de 6-serie en nu helemaal met de 7-serie.
Je kan nog wel een jaar blijven posten dat de 520/580 van ATI zo goed gaat worden en de snelste gaat worden, wat telt is wat vandaag in de winkels op voorraad ligt. En als de klant kan kiezen voor een lawaaierige x800 dubbelslots hittekanon voor 400 euro of een 7800GT met 2x zo goede prestaties die enkelslots, koel en stil is dan is het gewoon niet vreemd dat mensen massaal voor de betere kaart gaan en de ATI's in de winkel laten liggen rotten.
Als ATI nou berucht is om paper releases, hoe komt het dan, dat juist Nvidia zoveel problemen heeft met hun benamingen omdat die negatief bekend staan vanwege slechte beschikbaarheid, dat ze daar maatregelen tegen moeten nemen? Da's een beetje tegenstrijdig vind je niet?

(Overigens geloof ik er niets van dat Nvidia om die reden de naam Ultra niet heeft gebruikt, want overklokt tot op het randje, heet en duur wordt geassocieerd met FX, en de beschikbaarheid van de 6800Ultra was niet slechter dan dat we al gewend waren in de afgelopen 10 jaar bij andere generaties videokaarten)

Misschien is er wel een veel logischer reden dat de naam Ultra niet gebruikt is?
En dat de GTX geen dualslot koeler heeft, terwijl dat al standaard was bij Nvidia topmodel kaarten?
@fidelio:
Het zou handig zijn je beweringen eens te staven met eerlijke feiten in plaats van alles vanuit nVidia fanboy standpunt te bekijken.

Allereerst was het niet de X850XT PE die moeilijk leverbaar was, maar de X800XT PE... en deze was alsnog een stuk beter leverbaar dan nVidia's 6800 Ultra Extreme, die de meeste mensen niet eens kennen vanwege de onleverbaarheid van de kaart.
De Geforce FX5800 Ultra (concurrent 9700Pro) is indertijd al met al 8 maanden uitgesteld en was maanden voor de beschikbaarheid op papier al gelaunched.
nVidia en ATi zijn qua paper launches dus heel erg vergelijkbaar met elkaar, en als de schaal negatief zou uitslaan is het historisch gezien eerder richting nVidia.

Verder weet ik ook niet waar nVidia heeft gedomineerd met de 6800 serie, maar als ik jou was zou ik de reviews nog maar eens gaan nalezen, gezien de X800XT en hoger in de meeste benchmarks en games toch echt wel mistens even snel en vaak sneller was dan de 6800 Ultra.

Verder vind ik het toch wel heel grappig dat word geklaagd over een X800 "dubbelslots hittekanon" <wat al niet klopt gezien zelfs de X800XT PE enkelslots is - je bedoelt dus X850> terwijl nVidia's FX en 6800 Ultra verre van bekend stonden om hun stilheid (in tegendeel).
Uit persoonlijke ervaring weet ik dat een X850XT PE qua lawaainiveau nog onder de (single slot) 6800GT (laat staan de Ultra) ligt...

Ik ben sinds kort ook overgestapt van een X850XT PE naar een Asus 7800GTX TOP, omdat ik gewoon de beste performance wil en fabrikant me eigenlijk niet interesseert, maar je gebitch op ATi en opgehemel van nVidia hierboven slaat werkelijk helemaal nergens op.

<edit>
*Zucht* aan de puntenverdeling hier te zien is het wel weer duidelijk welke categorie fanatics dit topic aan het aanklikken is. Post met een boel fanboy nonsense op +3 en de realiteit weerspiegelende rest op 0...
Waarheid doet pijn he, dus wegmodden maar die handel toch? ;(
Zelfs de opmerkingen over nVidia kloppen niet: sinds wanneer zijn nVidia Ultra's slecht leverbaar? Sinds wanneer heeft nVidia een slechte naam m.b.t. de Ultra's?

@ Skyline GT-R: De 6800 Ultra Extreme is wel degelijk door nVidia zelf gelaunched:
Fresh off the introduction of GeForce 6800 Ultra a few weeks ago, NVIDIA is back again with a pair of new GeForce 6 products, and we're not talking about the GeForce 6800 either. On the ultra high-end of the market, NVIDIA and its board partners will be producing an overclocked GeForce 6800 Ultra part, a final name has not been officially announced, but the running title is GeForce 6800 Ultra (Extreme). This board ships with a 450MHz NV40 graphics core, 50MHz higher than the default GeForce 6800 Ultra and effectively boosting fill-rate by nearly 10%.
@ Fidelio :

Wie is nu de fanboy hier ? Als je zelf geen fanboy was geweest dan had je de Nvidia problemen ook wel ff aangehaald met hun 5700 serie ;)

Mensen zijn nu eenmaal merk gericht, niks nieuws en vind hetzelfde plaats op andere hardware gebieden.

Beide merken moeten eens ophouden met dat eeuwige "oorlog" voeren onderling en eens echt met vernieuwingen gaan komen. Dat geborduur op een paar megahertzen meer, mensen zijn blind geworden imo, het spekken van beide partijen voor minimale updates per generatie gpu is een zwakte van de consument.
Volgens mij hebben beide merken toch flinke vernieuwingen doorgevoerd de laatste tijd.

Hoe wil je anders SM2 in de R300 serie noemen?

En extra megahertzen zijn ook bitter noodzakelijk om van al die vernieuwingen optimaal gebruik te maken. Dus dat daarna de R420 zich op snelheid richtte met dezelfde features zie ik niet als punt van zwakte naar de consument. (idem voor Nvidia)
Ik heb trouwens een 9800 Pro en daarvoor had ik een 8500. Ik wil alleen wat tegengas geven tegen de ATI fanboys die ongeacht alles er heilig van overtuigd zijn dat de 520 het beste produkt ooit zal worden.
Maar de waarheid is gewoon dat de 7800 nu het beste product is.
Misschien heb ik wat foutjes gemaakt en 800 en 850 een keer verwisseld maar dat doet niks af van het algemene verhaal.
Gelukkig dat iemand anders dit ook ziet...

Heel jammer dat de nVidia fanboys zulk extremistisch gedrag tonen...

Als nVidia nou eens drivers ging schrijven voor ZETA dan schaf ik een 7800GTX aan, maar ik wil graag in de toekomst een dual-GPU opstelling en ATI heeft toch echt de betere troeven in handen en ben zeer te spreken over hun driver ontwikkelingen voor Windows.
@ Cheetah

Je hebt helemaal gelijk, alleen was de 6800Ultra Extreme Edition een uitvinding van sommige fabrikanten en niet van nVidia zelf ;)
mjt: waarom gebruikt ATI het PE achtervoegsel niet meer, denk je? Omdat het voor paper edition staat.
Dat zei ik toch ? de 9x00 vernederde de 5-serie, zodat iedereen inzag dat de 5700 gewoon een slechte kaart was. Pas later met de 5900 en 5950 is dat een beetje goedgekomen maar toen was de 9800 Pro nog steeds beter.
Heel jammer dat de nVidia fanboys zulk extremistisch gedrag tonen...
Al die aanslagen vind ik ook maar niks hoor, al die onschuldige burgers kunnen er toch niks aan doen?
@mjtdevries :

Geen 1 spel nog ontwikkelaar heeft ooit een spel gemaakt die ten volste gebruikt maakte van de nieuwe features op een kaart. In dat opzicht is het dus een beetje onzin.

Zelf als ik nu het nieuwste spel neem, onegacht welke, dan is er maar weinig veranderd de laatste jaren aan rendering, AI opzet, of heb ik nog maar iets mogen proeven van Pixel, film studio, achtige rendering. Jah, het is er allemaal "iets" op vooruit gegaan, maar om nou te zeggen na 3000 euro videokaarten door de loop der jaren heen te hebben gehad, er is veel veranderd in gamen, nee, niet echt.

Maar ze doen maar, ben er ff klaar mee, gamen moet voor ontspanning zijn, en de spanning die Nvidia en ATI in de publiciteit produceren mogen ze van mij houden, ik wil die spanning nu wel eens op mijn beeld zien :? En laat ze nu maar eens iets voor ons terug doen, een dual/quad core brengen voor dezelfde prijs, ze hebben nu wel genoeg aan ons verdiend ;)
En wat moet een dual core voor dezelfde prijs je dan opleveren? Dubbele performance voor dezelfde prijs krijg je immers al bij elke nieuwe generatie voorgeschoteld.

Ik snap echt niet waarom mensen zo zitten te klagen over videokaarten fabrikanten. De ontwikkelingen daarin gaan zoveel malen sneller dan bij CPU's. Maar niemand die klaagt over Intel en AMD!
Ook is er niemand die klaagt dat zijn CPU niet de rekenkracht heeft van een supercomputer.

Wellicht komt het ook doordat ik redelijk bekend ben met rendering technieken dat het me meer opvalt hoeveel er verbeterd is?

Maar welke features van SM2 heb je overigens tot nu toe zo gemist?
En wat als ze de snelste blijven? ;)

Ookal wint de R520 op een paar tests, dan gaan de mensen voort op de inmiddels opgebouwde goede reputatie van de G70, en goede beschikbaarheid. En dan is er ook nog SLI, dat inmiddels goed begint te werken, terwijl CrossFire nog maar gedemonstreerd is voor één spel. Last but not least zal NVIDIA z'n prijzen ook wel kunnen laten zakken zodat een R520 er al helemaal niet meer interessant uitziet...

In het geval dat de R520 toch sneller en goed beschikbaar is zal NVIDIA vermoedelijk de lancering van hun volgende chip vervroegen om zo de interesse weg te nemen.
gelukkig heb jij er meer verstand van dan de marketing afdeling van nvidia :) misschien eens een sollicitatiebrief sturen?
Massaproductie valt goedkoper uit dan het produceren van "enkele" kaartjes. Op die manier kan nVidia misschien een lagere prijs aanbieden dan ATI en dus toch zijn klanten behouden ;)
Snelheid is niet alles hé als er toch niemand is met het geld om het kaartje te kopen.
Hoeveel mensen denk jij kopen werkelijk de snelste kaart? Ik ken er maar bar weinig...
En nVidia heeft alle tijd van de wereld te werken aan G80. Gelukkig heeft ATi nog wel een R580 bijna klaarliggen, daar zijn de demo kaarten al van geproduceerd. ATi naait zichzelf een beetje :D
ATi mist gewoon kapitaal voor uitgebreid R&D. Nvidia is een van de old school top spelers in de grafische markt en heeft dus kapitaal opgebouwd.

Daarnaast is Nvidia's nForce belachelijk populair, en levert veel geld op....

Beetje het AMD vs/ Intel idee....
De vergelijking AMD-Intel gaat hier totaal niet op imho. Nvidia en ATI leveren top videokaarten aan kritische mensen (met uitzondering van de occasionele fanboys), die kennis hebben van hardware. De keuze van de videokaart hangt af van de prestaties (en een beetje van de support) terwijl de keuze Intel/AMD voor het grote deel van de pc-gebruikers niet door hunzelf gemaakt is maar door de firma die hun merk-pc in elkaar gestoken heeft. Want hun pc is van merk X en is goed omdat ie van merk X is. Wat er nu eigenlijk inzit zal voor deze mensen worst wezen.
Nou, en wat denk je dat er als videokaart in die OEM PC's zit? Vaak is dat een onboard kaart van Intel of anders een low-end kaart van nVidia of ATi. Intel heeft hier wel het grootste aandeel maar de OEM markt is ook belangrijk voor ATi en nVidia.
volgens mij bestaat ati al ffe wat langer. bovendien waren ze ooit de grootste en hadden ze heel veel oem deals
klopt, voor het 3d tijdperk was ati 'the top' in het begin van 3d tijdperk was nvidia het beste, voodoo was destijds ook goed maar vooral met glide en die krengen hadden de neiging om een beetje heel erg warm te worden

ben ooit van ati afgestapt omdat de drivers erg brak waren

en Fidelio heeft wel gelijk met zijn fanboy, zou om feiten moeten gaan, de ene keer is ati beter en dan weer nvidia

vaak is het zo dat als je maar flink tegen nvidia, intel en windows schopt je goed scoort en de rest wordt weggemod
ATI heeft nét z'n 20e verjaardag gevierd. NVIDIA is opgericht in 1993.
ik denk dat ATi meer kapitaal dan nvidia heeft, op basis van de marktaandelen. Dus daar kan het niet aan liggen.
De GTX en de GT zijn ook zo makkelijk over te clocken dat het zonden is om een ultra te kopen.
Ik wacht ook op de ULTRA en zou het heel jammer vinden als deze kaart niet uitkomt. Als ATI inderdaad een 600mhz R520 uitbrengt in gelimiteerde oplage hebben ze wel de snelste kaart de x850PE heeft ook het image van ATI goed gedaan in benchmarks dat de kaart vervolgens niet beschikbaar was maakte toch dat potentiele kopers na gingen denken over de x800. Enkel door het superieure aanbod van nVidia in de vorm van het 6800GT en 6800ULTRA product maakte dat kopers van de x800 afzagen.

nVidia moet gewoon de snelste kaart blijven leveren ook na de R520XT. Desnoods maken ze de ULTRA maar wat duurder, zeg 699 euro of 799 euro t.o.v. 499 euro voor de GTX. De ULTRA concureerd dan met SLI GTX à 998 euro (2 x 499).
De Nvidia de kaart niet uitbrengt, wil niet zeggen dat die er niet komt.

Nvidia maakt alleen GPU's, en een referentiebordje over hoe de kaart eruit moet zien. Fabrikanten prikken die op een zelfgemaakt bordje, en verkopen die.
Deze methode laat nog steeds de deur vrij voor producenten, voorbeeld Asus, om enkele topGPU's te bestellen voor een oc versie van de 7800 die ze dan in de winkel verkopen.
Ik ben een prima voorbeeld van iemand die weer is overgestapt op NVidia omdat de nieuwe ATi te lang op zich laat wachten.
En ik denk dat er erg veel mensen zijn die dat hebben gedaan. Beschikbaarheid is idd een keyfactor, zoals iemand al eerder opmerkte.
Ik hoop dat ATi nu extra geprikkeld wordt om de volgende kaart beter te launchen.
Veel mensen overgestapt?
Nou nee.

Ten eerste omdat het alleen maar op gaat voor mensen die om de een of andere reden perse in de afgelopen 2 maand een nieuwe videokaart wilde kopen. (anders wacht je nog wel even een maandje)
En dan bovendien ook nog maar alleen voor de mensen die dan een topmodel kaart wilden hebben.

Dat is maar een gering aantal en dat blijkt ook wel uit de cijfers. Wereldwijd is enkele tienduizenden kaarten niet bepaald veel.

Tuurlijk was het handiger voor ATI geweest als die extra respin niet nodig was geweest, maar zoveel verlies levert enkele tienduizenden gpu's voor hen niet op.
Misschien zijn er veel ati mensen overgestapt naar nvidia omdat ze belang hechten aan een single slot koeler?
Ik denk niet dat er daarom VEEL mensen zijn overgestapt. Dat is natuurlijk wel belangrijk voor mensen met een krappe kast (barebone bijvoorbeeld), maar in de doorsnee-kast past ie meestal wel :)
mjtdevries,

Het is wel heel leuk om te lezen dat jij alles weet terwijl andere mensen iets denken!! Jij weet niet of mensen zijn overgestapt... hij denkt, maar gelukkig weet jij :r

Echt alle fanboys hier zijn weer ziek bezig.. vooral de opmerking dat nvidia fanboys extremistisch zijn?? Alle fanboy's zijn dat...

de 6 serie daar was nvidia eerder mee klaar dan dat ati tegenstand kon bieden.. dus slag gewonnen dat ATI een PE en rotzooi moet onwikkelingen om alsnog de snelste te zijn is leuk, maar die was zoooo slecht leverbaar. (zie verschillende topsites die daar openlijk naar ATI geklaagd hebben) als je nu naar reviews kijkt 6800 x8xx dan wint ati vaak, maar ja ik haal wel de 3dmark scores er altijd af want daar heb je niks aan.. dus ik vind ze hier gelijk scoren... helaas is het zo nvidia eerder was dus ...

met de 7- serie doen ze het heel goed, en ATI heeft een grote fout gemaakt door op een nieuw procedé willen beginnen.. it's all lilke de 5800 ultra.

Ik heb van 4200; 9500; nu de 6800 dus geen fanboy gewoon nemen wat er op dat moment als beste uit de bus komt. x800xl (oid) is wel net zo snel en goedkoper, maar was in jan/feb nog niet leverbaar. :)

Verder wordt deze kaart wel sneller gok ik, maar het zal niet veel byzonders worden ben ik bang... Maar we zullen zien... Voor ons hoop ik dat hij wel snel wordt...
@lawaai:

Voor je iemand anders er van beschuldigd een fanboy te zijn, moet je eerst je eigen reactie eens opnieuw lezen.

Ik beweer nergens dat ik het beter weet dan anderen, zonder dat ik daarbij grondige onderbouwing geef. Maar ik geef wel een aantal feiten weer. Feiten die open deuren zouden moeten zijn, maar waarvan jij blijkbaar vind dat het een fanboy mening is.

Zo is het gewoon een feit dat de GTX nog niet lang op de markt is, en dat ie dus alleen nog maar verkocht is aan mensen die in die 2 maand op zoek waren naar een videokaart. Dus kan je simpelweg in die 2 maand nog niet een groot gedeelte van de markt veroveren. Ik zie niet in hoe je dat als fanboyisme kan betitelen.

Zo is het ook gewoon een feit dat de GTX alleen maar verkocht is aan mensen die een topmodel videokaart wilden hebben in die 2 maand. Iemand die 200 euro over heeft voor een videokaart koopt nou eenmaal geen GTX.
Wederom zie ik niet in hoe je die constatering als fanboy mening kan betitelen.

Het aantal van enkele tienduizenden kaarten wereldwijd komt rechtstreeks uit het artikel en is dus geen mening van mij.

En ik neem aan dat je zelf ook wel het kleine rekensommetje kan maken hoeveel verlies dat ATI dat dan kan opleveren. En dat is dan een bedrag dat ik graag op mijn bankrekening zou zien, maar amper terug te vinden op de totale omzet van ATI of Nvidia.

Dus vertel nou eens welk onderdeel van mijn reactie jij zo vreselijk vind dat je er van moet kotsen?
Vertel eens welk onderdeel volgens jou fanboy gedrag is?
met de 7- serie doen ze het heel goed, en ATI heeft een grote fout gemaakt door op een nieuw procedé willen beginnen.. it's all lilke de 5800 ultra.

Lawaai, met de opmerking dat nVidia het goed doet met de 7-serie heb je helemaal gelijk, maar de rest toch echt niet. Ten eerste moet er ooit een keer een stap gemaakt worden naar een ander procede. Dat de Xenos erg goed ging op 90nm was mooi meegenomen en dat dan R520 ineens tegenvallende yields kreeg is een uitdaging. Op zo'n tegenvaller kun je als bedrijf vooraf als risico incalculeren maar het is de complexiteit van een probleem dat zorgt hoe snel je iets oplost. En het is helemaal niet als de 5800 ultra: ATI heeft zijn nieuwste telg nog niet gelanceerd en bovendien zijn de problemen opgelost met hun yields.
Lezen is ook moeilijk.

Ik zeg dat de fanboys ziek bezig zijn... blijkbaar voel jij je heel erg aangesproken.... geeft niet hoor :)

Op zich een goede redenering van je GTX verhaal, maar het blijft bij het feit dat je het niet weet!! Trouwens als ik voor 200 een GTX kon krijgen :7 (mjammie)

10.000 kaarten?? waar heb je het over?

Verlies of geen verlies daar heb ik het niet over... alleen dat nvidia na zijn blamage met de 5800 ultra zich helemaal hersteld heeft ten koste van ATI...

Kotsen is misschien overdreven, maar ik hou niet van mensen die alle kennis in pacht denken te hebben... want face it you don't.

DingieM,
Een x een stap maken, klopt, maar ik kan me nog goed herinneren hoe slim ati het overstappen pakte door eerst het budget kaartje naar 0,11 micron over te zetten (9600) Nu gaan ze van scratch af een nieuw procede gebruiken... dit deed nvidia ook met de 5800 .. met hetzelfde resultaat. (uitdaging klopt, maar dat heb je liever niet hoor)
Yields zijn helemaal nog niet opgelost.. ik zie de kaarten nog niet op het web... ik neem aan dat zodra ze klaar zijn dat ze zo snel mogelijk gaan uitrollen. Maar berichten dat de 600 mhz kaarten beperkt beschikbaar zullen zijn is volgens mij een teken aan de wand...

Als laatste... ik lees mijn berichten altijd en ik zeik alle fanboy's af dus ik snap mijn fanboy gedrag niet wat zeg ik fout??
6-serie was er eerder dan wat ati kon bieden zie popilariteit van de 6600. Beschikbaarheid van de snelste kaarten is nog steeds klote... vriend van me moest 2 maanden wachten op een nieuwe... maar dat kan ook aan andere oorzaken liggen natuurlijk Dus waar is mijn redenatie fout gegaan??
7-serie is er en ati?? Nee dus klopt ook...
@lawaai:

Herinneren wat jij zelf geschreven hebt is blijkbaar nog moeilijker dan lezen.
mjtdevries,

Het is wel heel leuk om te lezen dat jij alles weet terwijl andere mensen iets denken!! Jij weet niet of mensen zijn overgestapt... hij denkt, maar gelukkig weet jij :r
Jij spreekt specifiek mij er op aan. Dan is het niet bepaald vreemd dat ik mij aangesproken voel toch?

En vervolgens zeg jij dan
Lezen is ook moeilijk.

Ik zeg dat de fanboys ziek bezig zijn... blijkbaar voel jij je heel erg aangesproken.... geeft niet hoor
Heb je er wel eens vaker last van dat je mensen beledigd, en vervolgens zelf niet meer weet dat je dat gedaan hebt?
Geeft niet hoor, dat kunnen ze vast wel ergens behandelen... |:(

En als jij niet weet waar ik het over heb als ik het over enkele tienduizenden kaarten heb, dan heb je blijkbaar niet eens het artikel gelezen waar deze discussie over gaat. Als je dat nou eens eerst ging doen!

Maar je hebt je naam in ieder geval goed gekozen. Lawaai maak je inderdaad. Maar helaas komt het niet verder dan dat. Hopelijk gaat dat in de toekomst nog veranderen...
ja ik spreek je erop aan, maar jij gaat maar door over dat ik je een fanboy noem en dat was niet het geval. Maar verder mag je prima aangesproken voelen!

Beledigen dat valt wel mee.. als jij de reacties normaal vind then so be it.

Bedankt dat je me naam zo leuk vind :D erg onder de indruk van je....
Lees je eigen posts nog eens opnieuw. Niemand zal dat anders opvatten dan dat je mij een fanboy noemt.

Als dat niet je bedoeling was, dan had je dat wel eens wat duidelijker mogen schrijven in je reactie.

Dat er in het totaal van reacties op dit artikel heel wat fanboy-achtige reacties zitten zal ik niet ontkennen.
Hoewel ik het eigenlijk nog reuze vind meevallen. Meestal is het in threads over Nvidia en ATI veel en veel erger. (Komt als je het mij vraagt doordat twee verstokte nvidia fanboys nu amper gereageerd hebben, waardoor de aanleiding tot zulke discussies is uitgebleven)
fanboys zijn niet altijd extremistisch, ik ben bij bijna alles waar je keus hebt uit merken/series BAUKNECHT! ergens fanboy van, maar ik ben alleen extremist van AMD, nVidia, en The Legend of Zelda :7
ik stap nooit over van ATi naar NVidia of andersom... Ik koop gewoon de beste kaart die op dat moment beschikbaar is. Dat dat toevallig een kaart is met een ATi of een Nvidia merkje erop, boeit totaal niet. punt.
Inderdaad, ik ben er ook een van!

Moest een nieuwe videokaart om BF2 te kunnen spelen, omdat dat niet ging met een Geforce 4. Ik zat nog even te twijfelen tussen een nieuwe Ati-kaart of een Nvidia-kaart.

Maar nu valt er eigenlijk weinig meer te vergelijken...
De 7800 is al een tijdje leverbaar, en ik hoor meer nieuws dat ie beter is dan de nieuwe Ati dan dat de Ati beter gaat worden dan de 7800!

Ik heb hem nog steeds niet gekocht (beslissing is al gemaakt, maar nog geen tijd voor gehad), totdat ik een tijdje terug over een 7800 Ultra hoorde. Ik wachtte dus nog maar even, omdat die Ultra weer wat sneller was (of dat de GTX dan weer wat goedkoper werd).
Maar nu ik hoor dat die Ultra waarschijnlijk niet meer komt, ga ik direct voor de GTX!
Anoniem: 134214 6 september 2005 11:01
Nvidia is gewoon zeer slim geweest mijn inziens.
Geld optijd in een iets makkelijkere investering stoppen als tussen oplossing.

En nu Ati niet echt direct iets kan leveren wat tegenstand kan bieden tegen de 7800 GT/GTX valt er een gaatje...
En dit gaatje vult Nvidia in en vult daarmee ook zn zakken :Y)
tussen oplossing?

Wat zie jij dan als tussen oplossing? De 7800 serie is gewoon volgens planning gelanceerd en is dus geen tussen oplossing.
Wel zonde van de concurrentie, nVidia is in mijn ogen al sterker (ik ben geen fanboy). En dan dit ook nog eens, niet goed voor Ati en uiteindelijk dan ook niet goed voor ons. Wel een slimme zet van nVidia natuurlijk.

Op dit item kan niet meer gereageerd worden.