Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 26 reacties
Bron: Hot Hardware

Hot Hardware heeft contact met iemand die in een fabriek werkt waar onder andere voor nVidia chips worden gebakken. Hij wist een aantal interessante feitjes te vertellen over de chip-productie van dit moment. Zo zijn de yields van 0.22 micron chips op dit moment goed: zo'n 87%. Over de fabricage van 0.18 micron chips zoals de GeForce2 zijn geen cijfers gegeven, maar "not good" wekt geen positieve verwachtingen.

Toch laat nVidia zich niet afschrikken, vanaf 1 maart zou de final versie van NV20 in productie gaan en verder meldt de bron dat er 'iets' op 0.15 micron gemaakt wordt. Het bedrijf is tegenwoordig snel genoeg met het ontwikkelen van nieuwe producten om extra tijd te besteden aan het testen en optimaliseren van het ontwerp, wat onder andere voor hogere kloksnelheden zorgt:

"One other piece of info about the chips I'll give you now, is that they are moving through the line faster than planned because of the market slowdown (no other product types to eat up tool time). This won't mean that they will be released sooner, but rather they will be more thoroughly tested, and we will have more time to improve and experiment with them to get the yield higher come full production time. Also, the more time we have to tweak the recipes on the tools, the better they are made, thus they come out being able to handle higher frequencies."

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (26)

nVidia zou veel meer tijd moeten besteden aan het uitvogelen van bugs/features van hun kaarten.

De Geforce-serie heeft diverse vage bugs, waar noodoplossingen voor nodig zijn (andere voeding etc). Iedere nieuwe generatie heeft zo wel z'n eigen problemen (onlangs de Geforce2 Ultra met zijn rollende beeld). Het gegeven dat elke week een nieuwe detonater driver uitkomt die iedere keer onder andere omstandigheden een optimaal resultaat geeft, maakt mij ook niet vrolijk.

2D-deel van hun chips zou zeker een keer extra aandacht moeten hebben.

Waarom nVidia nog zo'n hoog tempo heeft begrijp ik niet. Geen enkele fabrikant houdt dit tempo vol, dus voor de concurrentie hoeft het niet. De consument is ook niet blij, want morgen is er weer een nieuw topmodel en vandaag ziet ķe de bodem van zijn portemonneia.
nVidia vind het blijkbaar wel best, maar ik heb liever dat ze hun product wat zorgvuldiger maken, zodat ze wat waardevaster overkomen.
De Geforce-serie heeft diverse vage bugs, waar noodoplossingen voor nodig zijn (andere voeding etc).
Dit is geen bug van de Geforce serie. De Geforce 1 kaarten voldoen volledig aan de specificatie van de AGP standaard. Echter een aantal moederborden (eigenlijk die met niet-Intel chipsets) geeft niet genoeg stroom aan de AGP kaart dan volgens de AGP standaard is vereist.

Een andere voeding heeft meestal te maken met het feit dat een (oude serie) Athlon ook veel stroom gebruikt en in combinatie met een Geforce te veel stroom kan gebruiken, waardoor een krachtigere voeding nodig is.
Iedere nieuwe generatie heeft zo wel z'n eigen problemen (onlangs de Geforce2 Ultra met zijn rollende beeld).
Tsja, dat is inderdaad een vervelend probleem. Voor zover ik begrepen had, hadden niet alle Ultra's dat gebrek. Tevens gebeurt dit ook bij andere producenten. De Matrox G400 stond in het begin bekend om dat een paar kaarten heel raar horizontale lijnen toonden.
Het gegeven dat elke week een nieuwe detonater driver uitkomt die iedere keer onder andere omstandigheden een optimaal resultaat geeft, maakt mij ook niet vrolijk.
Officieel komen er maar om de zoveel maanden een officiele driver uit. De rest zijn drivers die uitlekken op het internet als deze richting kaartfabrikanten ter test worden gestuurd. Je hoeft ze niet te gebruiken. Ik vind het persoonlijk wel handig omdat vaak een aantal problemen snel verholpen zijn.
Waarom nVidia nog zo'n hoog tempo heeft begrijp ik niet. Geen enkele fabrikant houdt dit tempo vol, dus voor de concurrentie hoeft het niet. De consument is ook niet blij, want morgen is er weer een nieuw topmodel en vandaag ziet ķe de bodem van zijn portemonneia.
Hier ben ik het totaal mee oneens. Doordat er juist snel een opvolger komt daalt de prijs van de vorige generatie wat juist de consument ten goede komt. De gemiddelde consument gaat ook niet voor het nieuwste van het nieuwste zoals veel tweakers hier. Wil je het snelste en het nieuwste dan zul je veel moeten betalen. En dat geldt niet alleen voor computers.
nVidia vind het blijkbaar wel best, maar ik heb liever dat ze hun product wat zorgvuldiger maken, zodat ze wat waardevaster overkomen.
De producten die ze maken vind ik zeer zorgvuldig. Van alle 3D kaarten die ik tot nu toe heb gehad ben ik het meest tevreden over mijn Geforce DDR.

nVidia heeft afgelopen jaren duidelijk aangetoond dat ze de technologische leider zijn en dat geeft toch wel degelijk iets van kwaliteit aan. ;)
Dit is geen bug van de Geforce serie. De Geforce 1 kaarten voldoen volledig aan de specificatie van de AGP standaard. Echter een aantal moederborden (eigenlijk die met niet-Intel chipsets) geeft niet genoeg stroom aan de AGP kaart dan volgens de AGP standaard is vereist.
Je kunt het geen bug van de Geforce noemen, maar ik vind dat nVidia z'n kaarten moet maken naar wat gangbaar op de markt is en niet wat er op de markt zou moeten zijn. Er zit een verschil tussen theorie en praktijk en nVidia houdt zich niet aan de praktijk. Intel heeft speciaal voor de p4 een nieuwe ATX standaard ontworpen, zodat de koeling goed vastzit en de voeding toereikend is. nVidia produceert een 30 Watt chippie en zegt:"kijk maar wat je ermee doet", en dan blijkt opeens deze chip teveel van het AGP slot te vragen. Zowiezo dat zulke wattage-vreters zwaar klote zijn, want meer warmte in de kast betekend slechter overklokken
Tsja, dat is inderdaad een vervelend probleem. Voor zover ik begrepen had, hadden niet alle Ultra's dat gebrek. Tevens gebeurt dit ook bij andere producenten. De Matrox G400 stond in het begin bekend om dat een paar kaarten heel raar horizontale lijnen toonden.
Maar de Geforce2 Ultra is zeg maar een derde revisie Geforce (geforce1, geforce2 en dan ulta), en dan nog komt er zo'n vreemde bug in voor. Noem het wat je het wilt noemen, maar een video-barrel voor de prijs van een Rolls-Royce vind ik niet best.
Officieel komen er maar om de zoveel maanden een officiele driver uit. De rest zijn drivers die uitlekken op het internet als deze richting kaartfabrikanten ter test worden gestuurd. Je hoeft ze niet te gebruiken. Ik vind het persoonlijk wel handig omdat vaak een aantal problemen snel verholpen zijn.
Je geeft dus zelf aan dat er inderdaad problemen zijn. Ik heb echt geen zin om uit te vogelen welke van de 500 drivers goed werken om mijn probleem op te lossen, ik prik een kaart erin en hij moet werken (desnoods na een tweede poging). nVidia moet net als MS eens per zoveel maanden een goeie driverset loslaten, dan maakt het veel mer indruk dan die driver-parade.
Hier ben ik het totaal mee oneens. Doordat er juist snel een opvolger komt daalt de prijs van de vorige generatie wat juist de consument ten goede komt. De gemiddelde consument gaat ook niet voor het nieuwste van het nieuwste zoals veel tweakers hier. Wil je het snelste en het nieuwste dan zul je veel moeten betalen. En dat geldt niet alleen voor computers.
In theorie zou de prijs moeten dalen, maar toen de TNT voor 300 piek uitkwam, was de TNT2 opeens 500 peik, de Geforce1 kwam voor 800 piek op de markt en later nam de Geforce ongeveer deze prijs in, nu is het de Geforce2Ultra voor 1300 piek. Als ik deze prijzen van de afgelopen 3 jaar in aanmerking neem, dan zie ik bij lange na geen daling van de prijs. Een chip maken kost niet zoveel, maar ze maken volgens mij bakken met winst. De consument gaat er in ieder geval niet op vooruit. (de radeon 64 Mb VivO kost nu rond de 625 gulden)
De producten die ze maken vind ik zeer zorgvuldig. Van alle 3D kaarten die ik tot nu toe heb gehad ben ik het meest tevreden over mijn Geforce DDR.
De hardware is dan redelijk, maar voor de drivers moet je altijd eerst gaan surfen. jij bent tevrden over je Geforce1, ik ben zwaar ontevreden over mijn Geforce2. Na 3 weken werkt het kreng nog niet. Het is natuurlijk een incident, maar dat heb jij dus ook. Als ik dan de verbazend slechte 2D kwaliteit zie, dan vraagt mijn 6 jaar oude matrox waarom ķe is weggedaan, aangezien op 3D-spellen na alles op 2D hangt.
nVidia heeft afgelopen jaren duidelijk aangetoond dat ze de technologische leider zijn en dat geeft toch wel degelijk iets van kwaliteit aan.
Lekkere marktleider dus, Koopt concurrentie weg, brengt in feite dure onaffe kaarten op de markt, terwijl een concurrent als ATi in 1 keer wel een mooie allrounder introduceert. Technologische marktleider kan je ze ook niet noemen, want HEBM, FSAA en Dx8 kan je ver zoeker, net als HSR.

Overigens, zoals jij mij quote, zo quote ik soms gewoon graag terug :)
nVidia produceert een 30 Watt chippie en zegt:"kijk maar wat je ermee doet", en dan blijkt opeens deze chip teveel van het AGP slot te vragen.
Helaas is het precies andersom. nVidia produceert een chip die wel veel stroom verbruikt maar binnen de door Intel gestelde AGP specificaties gebruikt. Helaas zijn er moederborden die dus niet helemaal voldoen aan die specificaties en niet genoeg stroom kunnen leveren.

Specificaties zijn er om er voor te zorgen dat er juist nooit dat soort problemen ontstaan. Helaas houdt niet iedere fabrikant zich daaraan.
Zowiezo dat zulke wattage-vreters zwaar klote zijn, want meer warmte in de kast betekend slechter overklokken .
Hmm, mijn Geforce DDR is anders gemakkelijk van de default 120/300 (core/mem MHz) over te klokken naar 145/330 zonder extra koeling. Dus zo slecht hoeven wattage vreters niet over te klokken zijn. ;)
Maar de Geforce2 Ultra is zeg maar een derde revisie Geforce (geforce1, geforce2 en dan ulta), en dan nog komt er zo'n vreemde bug in voor. Noem het wat je het wilt noemen, maar een video-barrel voor de prijs van een Rolls-Royce vind ik niet best.
Het is geen derde revisie van de Geforce2 Ultra. Dat zou insinueren dat de chip zelf aangepast is, maar dat is niet het geval. Het is gewoon een chip die op hogere snelheden kan draaien. Echter blijkt dat sommige van de chips op die snelheid dus een weergave probleem hebben.

Ik ben het eens dat je voor die prijs zou verwachten dat er geen problemen zijn. Maar aan de andere kant, voor TFT schermen betaal ik me ook blauw en daar is toegestaan dat er maximaal 6 pixels niet werken. Dat vind ik ook niet normaal.
Je geeft dus zelf aan dat er inderdaad problemen zijn. Ik heb echt geen zin om uit te vogelen welke van de 500 drivers goed werken om mijn probleem op te lossen, ik prik een kaart erin en hij moet werken (desnoods na een tweede poging). nVidia moet net als MS eens per zoveel maanden een goeie driverset loslaten, dan maakt het veel mer indruk dan die driver-parade.
Tuurlijk zijn er problemen. Ik moet nog een videokaart meemaken waarvan de drivers bij de release geen enkel probleem hebben. nVidia is wat betreft daar niet slechter/beter in dat ATi en Matrox.

Bij mijn G400 werd ik zelf gek van het feit dat het zo lang duurde voor er een nieuwe driver kwam, die dan meer problemen introduceerde dan hij oploste.

Met die nVidia beta drivers die uitlekken heb je veel sneller bug fixes dan dat er eens in de twee/drie maanden een echte driver gereleased wordt.

Maar dit is echt iets wat van persoon tot persoon verschilt. Jij hebt liever eens in de zoveel tijd een driver die veel oplost en ik graag veel drivers die telkens een kleiner beetje oplossen.
Als ik deze prijzen van de afgelopen 3 jaar in aanmerking neem, dan zie ik bij lange na geen daling van de prijs.
Ik zie dat de prijzen gemiddeld redelijk hetzelfde blijven. Alleen de introductieprijzen zijn echter omhoog gegaan voor zeer extreme uitvoeringen. De Geforce2 GTS valt ondertussen voor f 550,- te krijgen en dat is een heel wat schappelijkere prijs dan ik indertijd voor mijn Voodoo2 8 MB betaalde toen die 1 a 2 maanden uit was.
Een chip maken kost niet zoveel, maar ze maken volgens mij bakken met winst.
De chip zelf is niet de grootste kostenpost meer. Dat is namelijk het zeer exotische DDR geheugen wat op enorm hoge snelheden loopt. Dat is moeilijk te verkrijgen dus is de prijs ontzettend hoog. Van een Geforce2 GTS was de helft van de prijs minstens die van het geheugen. Van de Geforce2 Ultra zal het geheugen zelfs nog veel meer zijn dan de chip zelf.
Lekkere marktleider dus, Koopt concurrentie weg, brengt in feite dure onaffe kaarten op de markt, terwijl een concurrent als ATi in 1 keer wel een mooie allrounder introduceert.
nVidia heeft niets de concurrentie weggekocht, dat is flauwekul. Vanwege het slechte management is 3dfx over de kop gegaan. En natuurlijk wil nVidia technologie van 3dfx overkopen aangezien die toch wel wat interessants in huis hadden.

Vertel mij eens waarom dat de ATi Radeon zogenaamd een meer 'affe' kaart is dan die van nVidia. Ik zie namelijk dat beide helaas niet alle nieuwe features implementeren.

De Radeon heeft een T&L pipeline met een aantal interessante bewerkingen voor skeletal animation en dingen zoals 3D textures. Echter de Geforce 2 GTS heeft pixel shaders die de Radeon niet bezit. In mijn ogen vind ik de pixel shaders een veel interessante uitbreiding, maar daar denkt iedereen anders over.

Echter is het wel zo dat er nu spellen zijn en uitkomen die die pixel shaders gebruiken, en van de extra features van de Radeon zie ik helaas nog niets geimplementeerd in spellen.
Technologische marktleider kan je ze ook niet noemen, want HEBM, FSAA en Dx8 kan je ver zoeker, net als HSR.
Wat je met HEBM bedoeld begrijp ik niet.

FSAA heeft de Geforce (2) wel degelijk, namelijk exact dezelfde manier als de Radeon. Alleen de Voodoo5 heeft een iets andere implementatie (gebaseerd op de accumulatie buffer, een techniek die al jaren in de special effects industrie wordt gebruikt).

HSR krijgt inderdaad pas de volgende generatie van nVidia kaarten. Echter op dit moment heeft de brute kracht van de Geforce 2 GTS geen probleem om de Radeon met HSR aan te kunnen. En dat zelfs voor een prijskaartje dat laatst nog lager was.

De eerste op de markt zijn met 32 bits kleur, de eerste op de markt met hardware T&L, de eerste op de markt met pixel shaders en hoogstwaarschijnlijk binnenkort als eerste op de markt met vertex shaders noem ik toch wel een behoorlijke prestatie.
Dat is natuurlijk onzin , wat jij zegt geldt alleen voor games en andere 3dapplicaties in 16 bit en op de laagste res die er zijn.Op de hogere res en in 32 bit is de videokaart gewoon de bottleneck hoor, dan kan je niet meer verder omdat de videokaart last krijgt van de bandbreedte van het geheugen.Probeer maar met een thunderbird 850 Mhz en een GF2 Ultra en zet dan quake op 1600x1200 alles max in 32 bit , en vergelijk dat met een thunderbird 1200 Mhz met GF2 Ultra met Q3 op dezelfde settings , hoeveel scheelt het? 1 a 2 fps.
Dus ligt het gewoon nog aan de videokaart die in hoge res op zijn max gaat zitten , niet aan je cpu!is gewoon onzin.
De videokaarten moeten gewoon sneller worden om op hoge res/in Fsaa en in 32 bit games mooier,sneller en vloeiender te laten verlopen , de cpu's hebben de videokaarten allang ingehaald(of beter gezegd ;niet de gpu's ,die zijn snel genoeg en ook veel te snel voor het geheugen op de vid card dat op dit moment voorhanden is)
Kan iemand mij misschien vertellen wat yields zijn?
Natuurlijk, de GPU's worden op een grote plaat met z'n alle tegelijk gebakken, en "yields" geeft aan hoeveel er daarvan zijn gelukt, "not so good" wil dus zeggen dat er veel mislukken, wat natuurljk niet goed is.

Dit is natuurlijk wel een beetje makkelijk uitgelegd :)
Overigens ook gewoon engels voor opbrengst/rendement..
Onzin natuurlijk. De komende tijd is het allemaal 2d omdat onze beeldschermen plat zijn. Die kaart kan lekker 3d beelden uitrekenen maar dan nog moet door dezelfde ramdac enzo het beeld op het 2d scherm gezet worden. Daarbij gaat het niet om de prestaties maar om de kwaliteit van het beeld.

En nu juist dat is het probleem van die kaarten. Een G450 geeft veel beter beeld en de 3d prestaties zijn minder. Het een sluit het ander niet uit, en wdb is ervoor Nvidia dus nog wat te verbeteren.
Theoretisch zouden Nvidia en Matrox om de tafel moeten gaan zitten voor een perfecte 2D/3D kaart voor de consument (maare dat zal wel nooit gebeuren denk ik)
Laten we beginnen met Windows.

100% 2D dacht ik zo. En voor designers, kunstenaars en gewoon die-hard photoshoppers is het enorm belangrijk om mooi beeld te hebben

de G400 van Matrox is 2D veeele malen beter als de Nvidia Geforce [2] [Ultra]
Allemaal leuk en aardig, die berichten over dat het zo slecht gaat met NVIDIA. Maar WHO CARES als je een Geforce 1 DDR hebt of een Geforce 2 Ulra. Maakt niet uit de rest van de computer kan toch niet meekomen met de grafische kaart, doordat het DDR geheugen te snel is en daardoor ook de grafische kaart. Dus ondanks deze negatieve reacties blijft NVIDIA toch wel in een riante positie, wat natuurlijk voor ons consumenten niet voordelig is!!!!!!!!! :( :(
Onzin, het geheugen op de kaart is JUIST de bottleneck voor de kaart, de kaart is zijn eigen bottleneck, niet de rest van de computer. DDR geheugen is heel leuk, maar als de overdracht van het geheugen sloompjes gaat, heb je er ook niks aan.

A chain is only as strong as it's weakest link..
2d kwaliteit heeft volgens mij ook te maken met wat voor componenten de kaartenbouwers de kaart samenstellen. zeker niet alleen met de gpu.

Verder ben ik het wel eens dat Nvidia te hard gaat. Mijn Asus 7100 MX (geforce2mx met monitor en tv uit) had in de doos geeneens drivers voor twinview! Die kwamen later pas....dan is een product in mijn opzicht niet af als het gelanceerd is......nu maanden later is twinview nog steeds maar gedeeltelijk geimplementeerd en nog behoorlijk buggy.....
Vooral de RAMDAC is verantwoordelijk voor een goed 2D beeld, en die is dus op de GF2 Ultra een beetje (erg) mislukt, overigens is 'ie op de GF2 ook niet helemaal perfect.
Persoonlijk vind ik dat nVidia inderdaad te snel met iets op de markt komt. Een GeForce 2 is misschien dan wel snel, maar downwards compatible is die zeker niet.

Als ik een spel wil spelen hoef ik echt niet de hoogste framerate te halen of op de hoogste resolutie te spelen. Een spel moet gewoon soepel draaien. Als ik kijk dat mijn ex-GeForce 1 DDR bij sommige games echt over z'n nek ging (Denk aan verkeerde textures, overlopende polygonen etc.) dan was ik echt niet blij. En dan hoor je van je vrienden dat ze no problems hebben met hun Voodoo3 ofzo.

Ik heb nu een Voodoo5 5500. En op dat ding draait echt alles. Zelfs de wat oudere games.
maar downwards compatible is die zeker niet.
downwards compatible, in dit gevalletje betekent dat bv. de geforce2 alles kan wat de geforce 1 ook kan, plus meer.

Dak kunnen zeker wel. Ze zijn dus ook WEL downwards compatible :?

Vergissinkje?
Ik bedoelde met de games. Het het sloeg meer op de GeForce in generaal, niet zozeer de GeForce2.

Een GeForce is minder goed compatible met oudere games dan een Voodoo3 of 5 ofzo..
Ik snap niet waarom ze de naam van de fabriek niet noemen... Het is toch geen geheim dat dit TSMC (Taiwan Semiconductor Manufacturing Company) is? En over de yields hoeft nVidia zich niet erg druk te maken want ze betalen TSMC per GPU. Het is natuurlijk wel zo dat TSMC 'n hogere prijs per GPU vraagt als hun yield laag is.
Maar we moeten toegeven dat de Nvidia Chips goed zijn. Tenmiste ik heb geen problemen met mijn Gforce 2 DDR deze haalt toch maar ff de 130 Frames per seconde

Al komt er wel vaak een update ik ben er zeer tevreden mee
[quote]
het is de komende tijd allemaal 2D om dat onze beeldschemen plat zijn
[unquote]

8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;) 8-) ;)

ik ga in elk geval vrolijk mijn weekend in.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True