Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties
Submitter: player-x

Volgens The Inquirer stevent Nvidia met de GT200 af op een vergelijkbaar debacle als met de Geforce FX 5800. De GT200 zou al deze herfst vervangen worden door een 55nm-variant die een eind aan de problemen moet maken.

Nvidia zou volgens de site te kampen hebben met bijzonder slechte yields. Van zowel de GT280 als de GT260 zou meer dan zestig procent afgekeurd worden. Aangezien er honderd dies uit een wafer gehaald kunnen worden, rollen er per wafer dus hooguit veertig goede exemplaren van de lopende band. The Inquirer rekent voor dat een gpu Nvidia dus geen 50, maar 125 dollar kost, aangezien Tsmc voor een 300mm-wafer ongeveer vijfduizend dollar rekent. Daar komen dan nog de bovengemiddelde kosten voor de koeling bij, aangezien de GT260 en GT280 een tdp van respectievelijk 182W en 236W hebben.

De samenvatting van L'Inq luidt dat de Nvidia-kaarten erg duur worden, pas een half jaar na de oorspronkelijke releasedatum arriveren en lang niet zo snel zijn als de bedoeling was. Bovendien krijgt de fabrikant te maken met hevige concurrentie van ATI als die zijn RV770- en RV700-gpu's uitbrengt.

Als oplossing zou Nvidia al een nieuwe generatie van de GT200 op de tekentafel hebben liggen in de vorm van de GT200b, die niet met 65nm- maar met 55nm-procestechnologie wordt geproduceerd. De grootte van de die zou bij deze versie op 400 vierkante millimeter liggen, waar die bij de GT200 op 576 vierkante millimeter ligt. Een lager energieverbruik zou de fabrikant in staat stellen de kloksnelheden verder op te voeren. De GT200b zou al aan het eind van de zomer of het begin van de herfst van dit jaar zijn opwachting kunnen maken, waarmee de GT200 een vroege dood zou sterven. Nvidia zal de GT200 dan ook slechts in kleine hoeveelheden produceren, zo beweert The Inquirer.

GT200 ontwerp
Moderatie-faq Wijzig weergave

Reacties (108)

NVidia gaat zo een beetje de kant van Intel op in de tijd van de Pentium 4 / Prescott. Steeds maar meer prestaties halen door een hoger energieverbruik, en niet door optimalisaties / verbeterde architectuur. Wat is de prestaties/watt van deze kaart? Zou me niets verbazen als die zelfs slechter is dan de huidige serie.


En tot ze de nieuwe versie van de GT200 hebben zeker nog 10 nieuwe versies van de G92 op de markt zetten. Lekker uitmelken die hap zullen ze wel denken.
Denk niet dat de consumenten dat nog langer pikken, die stappen straks lekker allemaal over naar Xbox360 / PS3 als het zo door gaat.

Zelf vind ik het energieverbruik van een 8800GT al te hoog en dat is ook een van de redenen dat ik niet meer zoveel aan PC-gaming doe. Naast performance problemen van vista, brakke drivers van o.a Creative, en een algemene véél te hoge prijs die je moet betalen voor redelijke hardware. Vroeger kocht je voor 150 euro een 'dikke' Geforce 4ti of Radeon 9800, en daar kon je dan dik 2 jaar mee vooruit met de nieuwste games...

[Reactie gewijzigd door Shadow op 30 mei 2008 17:11]

Je hebt gedeeltelijk gelijk en ook weer niet.

OK: nVidia haalt meer prestaties door hoger energieverbruik maar ook door verbetering van de architectuur.
Omdat ATi al een stap verder is met het verkleinproces hebben die het voordeel van minder vermogensverbruik.
Aan de andere kant zie je ook dat de GPU's van nV op lagere kloksnelheden draaien dan de ATi's dus ergens is de vergelijking niet zo makkelijk als het lijkt.

Drie generaties terug was de architectuur van beiden goed te vergelijken. Tegenwoordig hebben ze ieder hun eigen weg gekozen en dat levert verschillende producten op die uiteindelijk hetzelfde kunstje moeten doen. Ook draait nV nog met GDDR3 terwijl ATi al met 4 en 5 werkt.
Toch is nV momenteel de beste qua prestaties. Dat brengt alleen wel wat kosten met zich mee!
OK: nVidia haalt meer prestaties door hoger energieverbruik maar ook door verbetering van de architectuur.
volgens the inquirer is de g200 niets meer als een vergrote versie van de g80/g92.
zo veel verbeterd hebben ze dus blijkbaar niet. (de rv770 is ook voornamelijk een vergrote rv670 trouwens)

[Reactie gewijzigd door Countess op 30 mei 2008 23:47]

Nou nee. Ik zie geen overeenkomst met netburst.

Ik denk dat het eerder is dat nV de kroon perse moet halen en dat met rauwe power willen garanderen.

Dit moet je zien als i p v max Quadcore op 65nm dat je daar ook ocktcore op uitbrengt en dan 200Watt als de limit aanhoud.
ik vind het niet gek dat ze slechte yields hebben. nvidia drijft met zijn chip 65nm naar the limit. dat ding verstookt veel teveel en is huge. ik denk dat het net zo iets word als de radeon HD 2900 XT was: een monster wat betreft zo'n beetje alles,verbruik koeling kosten etc. ja de preformance kroon willen hebben is een ding maar als zo'n kaart me dan 500+- euro kost plus een 1200 watt voeding van 200+- euro dan ga ik toch liever voor de concurrent ongeacht of deze een redelijk percentage langzamer is rijzen de energie kosten bij essent me teminste de pan niet uit :P .
nou daar ben ik het niet mee eens hoor
een 9800pro kostte ook rond de 400 euro bij introductie

net zoals een P4 400 euro koste

alles is zoveel goedkoper geworden

(bron: prijslijt uit 2003 van ECL computers, een groothandel)
Vroeger kocht je een Radeon 9800 voor 150?
De Radeon 9800 was in het begin 450 euro en heeft een hele tijd heel hoog gestaan qua prijs.
NVIDIA heeft aardige problemen...

- Erg lage yields.
- Klokfrequenties zijn lang niet zo hoog als gepland.
- Erg complex PCB/GPU door de 512-bit geheugeninterface met 'traag' GDDR3 geheugen.
- Enorm TDP.
- Enorm hoge prijzen.

Hieruit valt te concluderen dat de chip enorm warm wordt en een echte stroomslurper wordt, en ook nog eens mega duur wordt. RV770 zal waarschijnlijk minder dan de helft kosten, maar zeker niet de helft trager zijn ;)

Het enige voordeel dat NVIDIA op dit moment heeft is de performance crown, maar als ATi met R700 komt zijn ze die zeer waarschijnlijk ook kwijt...
- Erg lage yields: gerucht
- Klokfrequenties zijn lang niet zo hoog als gepland: gerucht
- Erg complex PCB/GPU door de 512-bit geheugeninterface met 'traag' GDDR3 geheugen: GDDR3 is snel genoeg. De 512 bits bus helpt natuurlijk.
- Enorm TDP: ongeveer gelijk aan een 3870X2
- Enorm hoge prijzen.: niet duurder dan vorige generaties high end kaarten
Het enige voordeel dat NVIDIA op dit moment heeft is de performance crown, maar als ATi met R700 komt zijn ze die zeer waarschijnlijk ook kwijt...
En jij denkt dat NVIDIA daar geen antwoord op gaat hebben?
Enorm TDP: ongeveer gelijk aan een 3870X2

Als dit bericht klopt dan klopt wat jij hier zegt niet. Ten eerste is die 236W ruim 15% meer dan de 200 Watt voor de 3870X2. Dat is niet meer 'ongeveer gelijk'. Daarnaast staat in dit bericht alleen het verbruik van de chip terwijl die 200W van de 3870X2 voor de hele kaart is.

[Reactie gewijzigd door brute51 op 30 mei 2008 17:46]

en die X2 heeft naast al de onderdelen op de PCB dus ook twee dies, tikkie zuiniger dus.
en de hitte komt van 2 punten niet 1.
dus je hebt hitte verspreid en 2 koele cores niet 1 hete.

ten tweede nvdia kan niet 2 gt200 op 1 kaart zetten..
450 watt tdp gaat echt niet werken
dus hebben ze dan een antwoord... dat is maar de vraag.
- Erg complex PCB/GPU door de 512-bit geheugeninterface met 'traag' GDDR3 geheugen: GDDR3 is snel genoeg. De 512 bits bus helpt natuurlijk.
niet echt, ATI heeft een 256bit bus maar dan met gddr5 en een frequentie die ongeveer 2 keer zo hoog ligt en dus is de bandbreedte ongeveer gelijk.
en de latency in tijd is door de dubbele frequentie van gddr5 ook ongeveer gelijk maar dan zonder het complexeren PCB.
ook is het routen van gddr5 een stuk makkelijker als voor gddr3 wat het PCB nog goedkoper maakt.
en het kost 'maar' 10 tot hooguit 20% meer.
en het verbruikt minder.

[Reactie gewijzigd door Countess op 30 mei 2008 23:34]

RV770 zal waarschijnlijk minder dan de helft kosten, maar zeker niet de helft trager zijn
Dat is natuurlijk nooit zo, de prijs/performance lijn is vrijwel altijd exponentieel. Zie maar hoeveel 8800GT kostte in vergelijking met de 8800GTX of 9800GTX.
klopt, maar door crossfire en SLI is dat moeilijker te verkopen, voor de prijs van 1 gt200 kan je namelijk 2 hd4870's kopen, en meer prestaties hebben (en crossfire werkt op het merendeel van intel chipsets)
Met 1 4870 zit je al sneller :+ (de x2 dan)
Als de yields van de RV770 goed zijn, kost de RV770 ati dus veel minder dan de helft van wat nvidia nu betaalt voor hun GT200 chips.

De GT200 kost volgens het bericht: The Inquirer rekent voor dat een gpu Nvidia dus geen 50 maar 125 dollar kost

De RV770 kan haast niet meer kosten dan 50 dollar.
Als de yields van de RV770 goed zijn, kost de RV770 ati dus veel minder dan de helft van wat nvidia nu betaalt voor hun GT200 chips.
Je doet net alsof GT200 en RV770 in dezelfde prijs en performancecategorie liggen. GT200 is een high-end chip, terwijl RV770 een mid-range chip is, net als NVIDIAs G92, die zelf ook weer stukken goedkoper is om te produceren. Als je RV770 wilt vergelijken moet je dat met G92 doen.
Waarom worden die gpu's niet geproduceerd adhv een 45nm proces zoals de reguliere cpu's? Of zit ik er vierkant naast?

Moet er voor die gpu's nog meer research gedaan worden?
tsja, waarom werden er tussen de 65 en 45 nm chips geen 55nm CPUs gemaakt?

Dit komt omdat de cycles waarin CPU en GPU-fabrikanten neiuwe procedes gebruiken niet gelijk loopt.
Het vernieuwen van de infrastructuur kost handenvol geld, dus het is begrijpelijk dat zowel de CPU en GPU fabrikanten niet bij elke 10 nm heel hun fabrieken vernieuwen.

Het is dus gewoon een kwestie van geld: praktisch is er geen enkel probleem, maar zowel de CPUs als de GPUs slaan gewoon telkens een trapje over, vermoedelijk om geld te besparen :)

Op die manier zijn hun investeringen ook meer de moeite waard, want het verschil tussen 55 en 45nm is nu niet echt fantastisch te noemen, terwijl een overstap van 55 naar 32 wel weer de moeite loont :)
TSMC begint pas in Q3 of Q4 van dit jaar met zogenaamde "risk production" van hun 40nm procedee. GPU fabrikanten wachten dan nog meestal minstens een half jaar zodat het proces iets volwassener kan worden, met betere yields, performance en stroomverbruik als gevolg.
Daarnaast is het niet triviaal om op een nieuw procedee te gaan ontwerpen. Ieder procedee heeft z'n eigen characteristieken, en hoewel een deel daarvan door software wordt weggenomen blijft het natuurlijk altijd makkelijker om te werken op een bekend procedee met bekende eigenschappen en problemen.
Omdat chip foundry waar GPU geproduceerd worden recent 55nm onder de knie heeft.
A(MD)TI en nV zijn afhankelijk wat TMSC etc hun kan aanbieden.
Los van alles wat er boven mij al wordt gezegt, is Intel op het moment de enige die op 45nm complexere producten maakt met massaproductie. AMD zit nog op 65nm met 45nm in de opkomst.

Er wordt al wel meer op 45nm of lager geproduceerd maar dat gaat dan vrijwel alleen om geheugen omdat dit een relatief simpel proces is.

Verder zoals ook gezegd werd besteden nVidia en AMD de videokaartproductie naar mijn weten geheel uit. En die zijn gewoon nog niet klaar om het ook op een kleiner procede te doen. Vrijwel alleen Intel is kapitaalkrachtig genoeg om complexe ontwerpen op het allernieuwste te ontwikkelen en te laten maken.
Het spijt me zeer voor Charlie, maar hij heeft weinig verstand van zaken en lijkt er alleen op uit te zijn NVIDIA te bashen. Een deel van zijn verhaal, over een GT200b chip en lager dan verwachte clocks, zou best kunnen kloppen (hoewel ik het wel met een paar korreltjes zout neem), maar de yields van GT200 kan hij onmogelijk weten. Dat is informatie die maar een paar hooggeplaatste mensen binnen NVIDIA volledig hebben, en het lijkt me heel sterk dat dat soort mensen (negatieve) info gaan lekken naar The Inq.

[Reactie gewijzigd door Snoitkever op 30 mei 2008 20:09]

Dat is informatie die maar een paar hooggeplaatste mensen binnen NVIDIA volledig hebben, en het lijkt me heel sterk dat dat soort mensen (negatieve) info gaan lekken naar The Inq.
Nvidia maakt zelf geen wafers, dat besteden ze uit. Dus die informatie is wel bij veel meer mensen bekend als alleen Nvidia.
Als Nvidia de strijd met Intel aan wil gaan, zullen ze wel iets meer moeten laten zien, dan alleen AMD een stapje voor te blijven, AMD maakt nl. meer dan alleen GPU's.
Jij gaat er vanuit dat Charlie houdt van Nvidia bashen, het zou ook zo kunnen zijn, dat hij wil dat Nvidia is een keer echt aan het werk gaat, i.p.v. de G80 te verdubbelen. Ze hebben voldoende tijd gehad om met een fatsoenlijk ontwerp te komen, en dat heb ik het niet over een paar maanden......

[Reactie gewijzigd door punica op 31 mei 2008 00:04]

Dus die informatie is wel bij veel meer mensen bekend als alleen Nvidia.
Er zijn veel meer oorzaken van goede of slechte yields dan alleen productiefouten. Er moet uitgebreid getest worden of elke chip (of beter nog, elke transistor) werkt, hoe hoog de clocksnelheid kan zijn, enzovoort. Dat zijn meerdere gegevens uit verschillende bronnen, en hoewel sommigen misschien een deel van die informatie weten is het natuurlijk een van de belangrijkste bedrijfsgeheimen van NVIDIA en AMD, en dus zullen zij, en partners als TSMC, er alles aan doen om dat ook geheim te houden. Als een simpele journalist al dergelijke cijfers te weten kan komen kan de concurrent het ook.

Dat wil overigens niet zeggen dat niemand kan weten of de yields goed of slecht zijn. Dat is informatie die ongetwijfeld bij meer mensen in het bedrijf bekend is. Harde cijfers zijn echter niet zomaar bekend.
Ik kan tweakers.net aanraden om post van de inquirer en dan vooral op het moment dat het om Nvidia gaat en ze gepost worden door Charlie Demerjian, te negeren. Die gast is echt zo ongelooflijk anti-nvidia. Alles ziet hij zo negatief mogelijk, erg bevooroordeeld en ATI is altijd geweldig. Als er door andere mensen nieuws over nvidia gepost wordt zie je duidelijk een veel objectiever beeld.
Dat lijkt me niet, je hebt dan tussen elk rondje een stukje ruimte dat je weg kunt gooien, terwijl vierkantjes op elkaar aansluiten. Bij vierkantjes heb je dus alleen aan de buitenkant van de wafer dat je stukjes weg moet gooien...

Een betere oplossing zou zijn om de wafers vierkant te maken? :P
Wafers kunnen niet vierkant, want ze komen uit een ronde 'staaf' en worden vervolgens in plakjes gensneden. (nouja, soort van maar dan ingewikkelder :P)
alsnog vraag ik me dan af waarom brandt je die delen van chips dan nog.
je weet dat je het weg moet gooien..

vul het van mijn part met andere kleinere chips.
maar maak geen halve chips. zonde van je tijd/geld
Een Wafer Stepper kan maar 1 enkel patroon tegelijk geinstalleerd hebben staan. Dus een andere, kleinere chip gaat niet. Daar komt bij dat een chip ook nog eens uit laagjes bestaat en er eigenlijk al meerdere wafer-steppers achter elkaar staan om samen de juiste patronen te maken.

Mocht je de restjes toch willen gebruiken, dan zou dat betekenen dat alle wafers opeens langs twee keer zoveel wafer-steppers moeten, dat is heel erg duur in apparatuur en tijd.
Dat is niet helemaal waar, dat hangt van de machine af. Met name bij eenvoudiger chips (zoals GSM chips) worden de leemtes vaak opgevuld met DRAM chipjes. Dat is overigens niet om DRAM chips te maken, maar DRAM chips zijn zo standaard dat ze heel geschikt zijn om de kwaliteit van het proces te bewaken. Zo kun je bijvoorbeeld vervuiling opsporen voordat het invloed heeft op je yields.

Ook op test wafers worden vaak DRAM chips bijgeplaatst. Dan kun je testen of een lage yield aan het proces ligt of aan het ontwerp.

Bron: vriend van mij die bij NXP werkt.
Dat gaat weer niet omdat wafers als plakken uit een cilinder worden gesneden...

Door het productieproces (zie wikipedia bijvoorbeeld), is het onmogelijk om balken van deze cilinders te maken en hierdoor zullen wafers dus altijd rond zijn.

Tenzij je wafers bijzaagt en op deze wijze vierkant maakt, maar dan gooi je alsnog een hele hoop weg ;)

[Reactie gewijzigd door Eskimo0O0o op 30 mei 2008 17:32]

Bovendien duurt het zagen dan langer/is onmogelijk. Nu kunnen ze rechtdoor zagen ,als ze rondjes moeten zagen zal dit langer duren en moeilijker zijn. Ze zagen nu met een schijf, daarmee kun je niet rond zagen. Een draadzaag gaat continu stuk. De wafer vierkant maken is niet mogelijk omdat een wafer gemaakt wordt door hele dunne plakjes van een dikke staaf silicium te zagen. Deze staaf kan niet vierkant gemaakt worden omdat het uit een groot vat omhoog getrokken wordt zegmaar. Bovendien past dit niet in de huidige machines. En het is een enorme inverstering om die allemaal te vervangen.

(zoek maar eens op op youtube, het is best wel interessant om te zien hoe chips gemaakt worden :))

http://youtube.com/watch?v=aWVywhzuHnQ

(ik dacht toch echt dat ik op reply geklikt had) :O

[Reactie gewijzigd door jdm8 op 30 mei 2008 17:34]

Beetje onhandig een bericht op de frontpage neer te zetten waarin de nVidia bashers van The Inq hun nVidia afbrandende verhaal doen. Het is duidelijk dat de Inq ALLES doet om nVidia zo zwart mogelijk te maken de laatste dagen en ze het leven zo zuur mogelijk te maken. Het lijkt wel of ze er een sport van maken. Kijk maar eens op hun site.

De manier en toon waarop zij berichten naar buiten brengen is pure flamerij. En waarom? Omdat ze geen Info meer van nVidia krijgen.
http://www.theinquirer.ne...dont-leak-to-the-inquirer

En hier onderaan:
http://www.tomshardware.c...aunch-mayhem,1227-17.html


Hier zijn ze er duidelijk over dat de GT200 kont gaat schoppen:

http://benchmarkreviews.c...id=1&limit=1&limitstart=3
If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.
We zullen zien. :) We kunnen het beste pas conclusies trekken als we alle benchmarks en reviews van de nieuwe GPU's over een paar weekjes naast elkaar kunnen leggen en dan bepalen of ATi of nV de zaakjes goed voor elkaar hebben.

Edit: de RV770 zal snel zijn, ongeveer 25% sneller dan een 9800GTX. Op zich is dit mooi, maar echt wereldschokkend is het niet. Ook met deze kaart zul je sommige games misschien niet voluit kunnen draaien op hoge resoluties en veel AA en AF. Denk aan Crysis en Assassins Creed. Een zwaar overklokte 9800GTX zal er wel in de buurt kunnen komen misschien. En dat is technologie van zo'n beetje 2 jaar oud. Straks komt de R700, wat feitelijk 2 RV770's op 1 PCB zijn, en deze gaat dus ook 2 keer zoveel energie slurpen als 1 RV770 om de GT200 een beetje bij te kunnen houden. Ook deze kaart zal wel ongeveer 500 euro gaan kosten of meer, en ook deze kaart zal meer dan 300W aan stroom slurpen.

Het is duidelijk dat een berg performance een hoop energie kost bij zowel ATi als nV. (Helaas)

[Reactie gewijzigd door Format-C op 30 mei 2008 18:06]

het punt is dat de 4870x2 wel bijna 1 op 1 schaalt.
omdat door de andere memorybus ( of hoe dat ook heet) de chips samen werken als 1
dus harwarematige crossfire.
dus 125% performance tenopzichte van de 9800
wordt dus 200-250%? performance increase bij de x2.
en dan hebben we het weldegelijk over een sprong
Jij denkt dat AMD hun 160 Watt slurpende chip twee keer op een kaart gaat zetten? Dan krijg je meer dan 320 Watt aan totaal energieverbruik onder load. En mensen maar zeuren over NVIDIA :+
Als er een X2 komt, en die komt er vast, zal AMD de clocks echt wel flink omlaag schroeven, alleen al omdat de hitte ook afgevoerd moet kunnen worden.
Ik snap niet waarom ze de functies van een GPU niet over meerdere chips spreiden zoals 3dfx ooit deed. Dan zijn de individuele chips minder complex, makkelijker te produceren en stoken ze minder warmte waardoor ze hoger geklokt/beter gekoeld kunnen worden.
Door alles in één chip te maken is de stroom consumptie in totaal lager. Bovendien Is dat veel goedkoper. (het maken van de chip zelf, maar ook het op de kaart zetten er van). Ook heeft het te maken met dat de functies met elkaar kunnen communiceren. Dit gaat veel sneller als het in de chip zelf gebeurt ipv. dat het signaaltje een stuk over het pcb moet.

[Reactie gewijzigd door jdm8 op 30 mei 2008 17:28]

de 4870 is zo ontworpen. 1 bus naar het geheugen en die splitst de taken aar de 2 cores. dus dat systeem komt weer terug
Ik vind het heel verwonderlijk dat heel tweakers.net kennelijk al weet hoe deze zogenaamde nieuwe aanpak van AMD gaat werken, terwijl er nog helemaal niets over bekend is, zelfs de bronnen van de geruchten zijn op een enkele hand te tellen.

Bovendien lijkt het, aan de gelekte foto's van de koeler te zien, er op dat 4870X2 gewoon met een bridge aan elkaar gehangen gaat worden.
Maar goed, ondanks het geringe bewijs lijkt het me wel heel cool, dus ik hou een beetje hoop. Laten we alleen niet gaan doen alsof het vast staat ofzo...

[Reactie gewijzigd door Snoitkever op 30 mei 2008 20:54]

welke foto? want op de foto's die ik gezien heb zie ik maar 2 plekken waar een chip past, en geen uitsparing voor een 3de ertussen in.

[Reactie gewijzigd door Countess op 30 mei 2008 23:27]

Het is ook lastig te zien, maar met wat photoshop werk (en dan niet in de zin van de foto zelf aanpassen natuurlijk ;)) is toch duidelijk de plek te zien waar de bridge chip zou moeten komen:

gephotoshopt
R680 en R700 naast elkaar

Dat is aangenomen dat dit inderdaad de R700 koeler is.
Ik ben benieuwd of de yields echt zo slecht zijn als hier beweerd wordt. Zelfs met die shrink is die chip nog gigantisch groot zeg. Voor Ati kon dit wel eens de nodige meevaller zijn om weer een beetje in een gelijk spoor te komen met nVidia. In ieder geval worden het spannende tijden de komende paar maanden waarin we volgens mij bijzonder sterke nieuwe producten zullen zien.
Ik kan me niet voorstellen dat ze niet op zoek zijn naar de oorzaak van de slecht yields. Dit duid op een ontwerp of productie probleem, en dat wil je minstens begrijpen voordat je de volgende generatie chips maakt. Kortom, reken maar dat er nog een extra "stepping" van deze chip komt voordat hij definitief wordt vervangen.
Als het probleem bij het ontwerp ligt, waarom zou je dan de boel opnieuw ontwerpen voor deze grootte, als je ook al weet dat je moet herontwerpen voor de die-shrink? Dan kan je beter de dieshrink pushen dat die eerder te produceren valt. Dan kunnen ze dus terugverdienen door de shrink en door de beter yield.
Ik kan me goed voorstellen dat het niet zozeer een fout is in het ontwerp zelf maar gewoon in het geheel omdat die chip zo enorm groot is. Stel er zit een fout in die chip en daardoor moet ie weggegooid worden. Stel dat je er 3 kleinere uit dezelfde oppervlakte zou kunnen halen dan zouden er twee werken en is er maar eentje kapot.

Ik denk dat AMD toch de wijzere keuze heeft gemaakt met hun idee van kleinere simpelere cores en die gewoon min of meer aan elkaar te plakken. Dit is ook als het goed wordt gedaan stukken makkelijker dan CPU's omdat GPU's gewoon gemaakt zijn om parallel te werken.
ofwel je bent dom als je een kaart gaat kopen die gebasseerd is op de GT200 als je nu al weet dat er nog geen 2 maanden later de verbeterde versie gereleased wordt (en dit is natuurlijk wel ff wat anders als steeds wachten op een betere versie, nu weet je dat er al problemen zijn met de chip datie meer slurpt en dat er dus snel een verbeterde revisie komt).. tenzij het geld natuurlijk op je rug groeit...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True