je hoeft geen expert te zijn om te weten dat de yields van de gt200 relatief laag zullen zijn.
hij is gewoon groot, sterker nog, een van de grootste chips ooit gemaakt op een bulk process.
Dat is het punt juist, dat moet je wel zijn.
Er is nergens, maar dan ook echt helemaal nergens informatie te vinden over yields bij moderne procedee's. Dit is een belangrijk geheim van chipbakkers, die ze alleen af zullen geven aan vaste klanten. Zolang we niet weten of we hier te maken hebben met tientallen procenten, procenten of zelfs tienden van procenten kunnen we helemaal niets zeggen over yields van welke chip dan ook op welk procedee dan ook bij welke chipbakker dan ook.
Daaruit volgt natuurlijk dat er ook niets over G200 te zeggen valt. Je hebt het over groot (Wat is groot? Wat is tè groot?), maar yields zijn voornamelijk afhankelijk van ontwerp, niet van grootte.
Uiteraard zitten er dan nog steeds meer fouten/onvolkomenheden in een grote chip dan in een kleinere, maar zolang we niet weten over wat voor percentages aan yields we uberhaupt praten kunnen we nog niets zeggen. Zou NVIDIA er wakker van liggen als ze 20% slechtere yields hebben vanwege de grote? Ongetwijfeld. Zouden ze wakker van liggen van 0,2% slechtere yields? Denk het toch niet.
(En als je nu komt met "0,2% slaat nergens op" argument wil ik ook graag harde cijfers zien waarom het nergens op slaat
)
Tot slot is er nog het argument te bedenken dat een complex ontwerp als dat van G200 meer fouten bevat dan RV770, maar ook daar komt een gebrek aan cijfers roet in het eten gooien. We weten niet hoe belangrijk dit is voor de yields, we weten niet hoe goed NVIDIA is (al dan niet in vergelijking met AMD), we weten niet hoe snel NVIDIA dit soort problemen heeft kunnen herkennen en kunnen oplossen in opeenvolgende revisies, we weten niet wat de impact van een volwassener procedee (65nm vs 55nm) is geweest op G200 vs RV770, enzovoort.
Dus je kan zeggen wat je wilt met het "je hoeft geen expert te zijn" argument, Uiteindelijk is er geen enkele grond waar je het op baseert. Ik stel dus voor om NVIDIA gewoon te geloven wanneer ze zeggen dat yields beter waren dan verwacht, en daarnaast stel ik voor om het gezonde verstand van NVIDIA topmensen te vertrouwen toen ze de keuze maakten om (wetend hoe goed de yields ongeveer zouden worden) G200 gewoon in productie te laten gaan.
EDIT:
Het spijt me, maar je verhaal wordt steeds inconsistenter. Even op een rijtje wat je volgens mij zegt:
1 - Redundantie is nodig vanwege de grootte van G200
2 - Redundantie is een probleem vanwege de extra transistors en dus extra grootte en dus extra (onnodige) kosten
3 - ATI heeft een voordeel omdat ze geen redundantie nodig hebben.
Alle drie zijn echter niet waar. Eerst 2, want dat is de basis van dit verhaal. Redundantie is een kostenoverweging die wordt genomen bij het ontwerp van een chip. De ontwerpers berekenen simpelweg de kosten van een chip als er geen redundantie-structuren aanwezig zijn, en de kosten met verschillende vormen van redundantie. Uiteindelijk krijg je dan gewoon een geschat percentage functionele chips per wafer (geen redundantie = meer chips maar lagere yields, meer redundantie = minder chips maar meer yield). Uiteindelijk krijg je gewoon een kosten/baten analyse welke methode de beste resultaten zal geven.
Dit betekent echter ook dat redundantie niet een probleem is. Het is gewoon een afweging met voordelen en nadelen, en die kunnen netjes op een rijtje gezet worden, waarna een keuze gemaakt kan worden.
1 dan vervolgens. G200 is te groot en dus is redundantie nodig. Dit is het grootste probleem aan je hele stelling, want het is niet waar. GTX280 maakt helemaal geen gebruik van coarse redundantie. Alle SIMD clusters die op G200 zitten zijn in gebruik bij GTX280. Dit is welliswaar niet het geval bij GTX260, maar dat is dan ook niet de topkaart. ATI maakt het verschil door wel of geen GDDR5 te gebruiken bij 4870 en 4850, NVIDIA door minder clusters. Is dit een fout in G200? Ik zie niet in waarom. Het laat NVIDIA toe meer chips te gebruiken en het staat ze toe GTX280 toch echt krachtig te maken (het alternatief zou volgens jou een kleinere chip zijn, dus minder performance).
Overigens is redundantie helemaal niet gebonden aan chipgrootte. Het kan (zie 2) net zo goed gebruikt worden in kleine chips, wanneer het betere yields geeft.
3 dan ten slotte. AMD heeft een voordeel omdat ze geen redundantie nodig hebben. Wat natuurlijk al onzin is omdat NVIDIA het ook niet nodig heeft, althans niet in jouw definitie. Wat je echter vergeet is dat hoewel ATI en NVIDIA geen coarse redundantie gebruiken, ze gebruiken waarschijnlijk wel fine-grained redundantie. Er zijn geen extra clusters die ingeschakeld kunnen worden als een ander cluster niet werkt, maar er zijn ongetwijfeld andere stukken logica dubbel die wel kunnen worden ingeschakeld als het nodig is. Zo las ik laatst nog ergens (heb zo geen link meer) dat RV770 eigenlijk een extra SP per cluster zou hebben.. Als er iets mis gaat met de productie kan deze extra SP worden gebruikt, anders wordt deze uitgeschakeld.
Ook hier is echter niets van te zeggen. Het ontwerp van deze chips is wederom geheim, dus hoeveel redundante transistoren er in de chips van ATI en NVIDIA zitten is net zo geheim. We kunnen dus ook niet zeggen wie de meest effectieve redundantiestrategie heeft gekozen.
[Reactie gewijzigd door Snoitkever op 26 juli 2024 06:46]