Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 69 reacties
Bron: Quake.co.il, submitter: ferdinand

Geruchtenliefhebbers zullen blij zijn met het nieuws dat op de website van Quake.co.il is verschenen over de NV40 chip van nVidia, die volgend jaar uit zou moeten komen. De bron zou voor de komst van de Geforce4 ook al geruchten over de NV30 de wereld in hebben geholpen, waarvan 90% waar bleek te zijn. De genoemde specificaties zijn indrukwekkend. Hoewel in eerdere geruchten voorspeld werd dat de NV40 uit 150 miljoen transistors zou bestaan, meld deze bron een aantal van 300-350 miljoen. De chip zou dan ook niet op 0,13 micron geproduceerd worden, zoals tot nu toe werd aangenomen, maar op 0,09 micron. Opvallend is dat 134 miljoen van deze transistors door 16MB embedded DRAM in beslag genomen zou worden. Dit eDRAM kan een bandbreedte leveren van 204.8 GB/s en het ondersteunende DDR-II geheugen moet het klusje met 44.8 GB/s weten te klaren. Het geheugen zou op maar liefst 1,4GHz lopen, naast een core met een kloksnelheid van zo'n 800MHz:

nVidia LogoInside source gave some new details about nVidia's card, that is due to come out in the second half of next year (2004). Same source was the one to give pre-release details about the current high-end card - NV30, even before Geforce4 was released. Details were correct, about 90% of the data about NV30. This information stands for only as a roadmap, and some of it might still change due to market requirements.
Moderatie-faq Wijzig weergave

Reacties (69)

Ik ben eigenlijk meer benieuwd hoe ze dit ooit betaalbaar willen krijgen. Meestal zijn chips met EDram erg duur. Daarnaast gaan ze ook weer erg snel over op een lager procedé waardoor ook weer extra kosten met zich mee komen.

Wel kun je zien dat ze 256bit DDRII geheugen gaan gebruiken. Raar vind ik dan alleen dat het geen GDDR-III is. Dus of deze specs helemaal correct zijn vraag ik me nog af, aangezien ATI naar alle waarschijnlijkheid voor de R400 wel GDDR-III gaat gebruiken.
Ik snap niet hoe ze alles betaalbaar gaan krijgen. Zijn ze net bezig geweest met 0.13 micron en dan gaan ze weer overstappen op 0.09. Of ze hebben heeel veel geleerd van de FX en ze maken hem echt goed. Maar ik denk juist dat ze van de FX geleerd hebben dat ze geen dingen moeten doen die op het randje zitten. Maar dat ze goed een balans moeten zoeken tussen complexiteit,de kosten die daarbij komen, de eigenschappen en hitteontwikkeling. Ik zou eerst eens een nv34 of evt een nv38 op 0.09 micron gaan bakken met een stuk minder transistoren. Zoals ATI dat nu doet met de rv350. Dan heb je minder risico op een grote mislukking. En ze gaan gewoon door met dat complexe gedoe. 300 tot 350 miljoen transistoren lijkt mij niet verstandig als je bekijkt dat de pcb voor de nv30 nu al alleen gebakken kan worden door Asus en MSI.

Maar ik heb wel het vertrouwen in nVidia, de meeste bedrijven houden het wel binnen de perken. Een ezel stoor zich niet twee keer aan de zelfde steen. Alleen hoe ze het gaan aanpakken benieuwd me als ik deze geruchten moet geloven.

En dat eDram zou dan dus een soort cache voor de gpu worden? En die moeten het bandbreedte probleem oplossen. En hoe zit dat met die warmteontwikkeling? (slik)
kleinere gpu (0,09 micron) gebruikt voor evenveel tranistors minder materiaal... je kan van evenveel materiaal dus meer transistortjes maken. MAar de nieuwheid van de techniek is idd al duur, maar zoveel transistors op 0,13 wordt ECHT onbetaalbaar, en ook veel te warm.
Door een bepaald "product" in een mainstream massaproduct te gieten (hier dus EDram) wordt het automatisch goedkoper. Bij alle splinternieuwe kaarten ligt de prijs (belachelijk?) hoog - maar deze zakt na een tijdje toch. Indien nVidia dit gaat gebruiken in zijn marketting gaat ATI niet kunnen achterblijven - en mischien hebben deze ook wel al een product in de pipeline steken met EDram - who knows...
eDRAM: is dit niet hetzelfde dat BitBoys gebruikte om hun kaartjes met weinig geheugen toch (door hun geclaimde) enorme prestaties neer te zetten?
Inderdaad.. en is ook het recept voor dramatische yields. 350 miljoen transistoren op .09. Komnou toch zeg, de yields zullen vreselijk zijn...

En is het wel slim om als een van de eersten op .09 te gaan zitten.. een productie proces dat nu pas getest wordt en nog allerelei problemen zal tegenkomen voor het voor massaproduktie geschikt is..
Hoe bedoel je?
0,09 micron feature size. Stel dan dat je een gemiddelde transistor grootte krijgt van 20 keer de kleinst mogelijke feature (=0,0081 * 20) vierkante micron. Ofwel 0,16 vierkante micron per transistor. Daar heb je er 350.000.000 stuks van zodat je uiteindelijk 56 vierkante millimeter voor nodig hebt. Zelfs als je nog een stuk marge wilt inlassen blijf je behoorlijk onder de 100 mm2 (1 cm2) zitten. De yields zullen dan echt wel meevallen hoor.
niet alleen de werkelijke opp van de core bepalen de yields, ook dingen als complexiteit en hoeveelheid transistoren speelt me(een core van 100 milj transistoren heeft meer kans op een kapotte transistor dan een core van 10miljoen, of een stofje, of wat dan ook)
(een core van 100 milj transistoren heeft meer kans op een kapotte transistor dan een core van 10miljoen
Denk je niet dat ze dat waarschijnlijk eerder hebben gezegd? Toen ze bijv in de honderdduizend transistors per processor zaten! Tuurlijk gaat de kans omhoog met de hoeveelheid transistors, daarom zullen de productie technieken ook verbeterd (moeten) worden. Hierdoor zullen de yields ook wel goed blijven. Stap van 100 duizend naar 1 miljoen is net zo groot als de stap van 10 miljoen naar 100 miljoen.
Goede yields halen op simpele repetitive structures (zoals memory en cache dat is) - is veel simpeler dan op echte ingewikkelde dingen zoals texture units etc. Bovendien Kan door het spreiden van "memory blocks" het design cooler worden gemaakt - en de hitteproducerende delen wat gescheiden worden. Ook zou men perfect de core op .13 kunnen maken - en de memory in .09 te bakken op dezelfde die-space - mits de chip-fabrieken dit "mixing" aankunnen - en vermits dit wordt geoutsourced is de kans daar vrij groot toe - maar het kan zijn dat dit ook zwaardere kosten met zich meebrengt. Het kan dan goed zijn dat ineens alles op .09 te bakken dan goedkoper is - en het is allesinds ook meer toekomstgericht.
ja, die kaart heet Pyramide 3D. Zijn er 200 van gemaakt, en ze hadden allemaal eDRAM. Was de alleerste 3d kaart (voor de voodoo1) helaas bleken er maar 50 van de 200 (foutloos) te werken waardoor de kaart niet in mass production ging. Soms zwerft er een pyramid 3d kaartje voorbij op ebay waar hij dan geveild word voor me liefst 1000dollar (hmz is al weer een jaar geleden denk). Deze kaart is nu een collectors item.
volgens mij(dont pin me down) was rendition de 1e met een 3d kaart
maargoed dat is niet vast te stellen, allen experimenteerde ze er mee, 3dfx was echt de 1e die het qua mass productie voor elkaar had en wordt dus(terecht of niet) als pionier gezien

verder bracht bitbots nog meer specs van andere chips naar buiten naast deze pyramid 3d
Als je meer over Embedded DRAM wilt weten: linkje met informatie

Volgens de roadmap van NEC komen ze dit jaar met 90nm E-DRAM (UX6D)
Behalve meer bandbreedte heeft E-DRAM ook het voordeel dat er geen I/O drivers nodig zijn. Hierdoor zou er minder stroom nodig zijn, hoewel dat natuurlijk marginaal is en het geheugen zelf ook stroom nodig heeft.
Deze geruchten zeggen iets ove de specificaties, niet over de performance van de kaart...Ik weet nog goed dat we allemaal zaten te kwijlen toen we specs van de FX onder ogen kregen en achteraf gezien maakt deze de verwachtte performance ook niet waar.

Ik hoop echter wel dat NVIDIA met deze kaart echt weer een revolutie teweeg brengt. Het 0,09 Micron proces is natuurlijk al revolutionair op zich (iig op GFX gebied) en ik hoop echt dat ze daar wat meer geluk mee hebben dan met het 0,13 Micron proces. Ik denk niet dat het goed is voor NVIDIA om een tweede flop te hebben dus deze moet haast wel succesvol worden.

Het is (zoals iedereen wel kan bedenken) nu wachten totdat de PR-machine van ATI weer eens "per-ongeluk" wat specificaties gaat lekken over toekomstige chips....
Het gebruik van 0.09 noem ik niet revolutionair - eerder evolutionair - alles wordt kleiner en sneller - ik snap niet wat daar revolutionair aan zou zijn - revolutionair is volgens mij iets dat vrij onverwachts komt en helemaal vernieuwend is - en dat is deze stap zeker niet.
Ook hoop ik eigenlijk niet dat deze kaart (qua performance of features) een revolutie teweeg brengt - dat zou verschillende dingen kunnen betekenen - namelijk
1 - geen concurrentie meer - of zou toch niet veel meer betekenen
2 - Alle games gaan weer totaal een andere richting in moeten slaan qua features etc.
Evolutie is beter dan revolutie imho op zo een technologisch gebied. Trouwens als je met zo een complexiteit te maken hebt denk ik niet dat je zo out of the blue opeens iets revolutionairs kan maken dat meteen ook performance-wise de huidige mainstream aankan (zie maar naar tile-based rendering - dat was een klein beetje revolutionair)
Ik begrijp het niet sommige mensen hebben heel snel conclusie getrokken met betrekking tot Nvidia op 0.13

Kijk Nvidia maakt FX op 0.13 micron , wat op zich zelf voor grafische massa industrie revolutionaire is. Ze halen nu steeds meer hogere yields. Dat betekent dat ze langzamerhand 0.13 onder de knie hebben... gevolg -> yields stijgt -> snellere videokaarten en dus betere prestatie.

Ik heb het gevoel dat sommige mensen het onderschatten wat betrekking tot met de ATi. Ati produceert kaarten op 0.15 micron en je ziet dat ze het maximaal van da kaart eruit halen en het dus goed benutten. Ik wil wel zien hoe Ati het doet wanneer ze gedwongen worden om overschakelen op 0.13. Volgens mij beginnen ze ook eerste met lagere yields en dan zie je wel dat Nvidia hogere yields haalt op 0.13...

Dit is inderdaad mijn theorie :)
Ik heb hier wel 1 kanttekening bij. nVidia en haar produktiepartners (de fabs) waren de eerste die overgingen op 0.13.
ATI zal op zijn minst gedeeltelijk van de opgedane ervaring door die fabs kunnen profiteren. Verder begint zij als ik het goed heb begrepen met eerst de eenvoudigere processors op 0.13 te fabriceren.
Al met al denk ik dat ATI de veiligere weg heeft gekozen en daar nu van profiteert.
Mijn respect gaat echter toch uit naar nVidia die in ieder geval nieuwe technieken in haar ontwerpen toepast. Weliswaar zoals nu blijkt misschien iets te vroeg maar er zijn zoveel variabelen en nVidia kan die ook niet allemaal inschatten.
Wat zijn yields eigenlijk?

0.09 micron was toch het maximaal haalbare?

Laten we hopen dat er geen flops uit dit soort nieuwe producten komen. Dat zou wel eens de das kunnen omdoen voor Nvidia, gezien de enorme kosten die de research met zich meebrengt.
Yields is het percentage gelukte cores per wafer. Hoe hoger je Yield hoe beter het is.

Als je bijvoorbeeld 10% van je wafer omzet in cores is dat niet zo best en wordt de prijs hoger.
het zit nog iets ingewikkelder in elkaar, een gelukte core volgens bepaalde specs.
een gelukte core kan ook zijn dat ie maar op 100mhz stabiel draait ipv op 500mhz bijv
en er zijn nog een aantal factoren geloof ik(halve cores worden zowiezo niet meegeteld denk ik omdat je vantevoren al weet hoeveel halve/net niet cores je hebt) en een halve core is toch wel een niet gelukte core ;)
Inderdaad, na yield (aantal succesvol werkende GPU's) is er ook nog binsplit. Een bin is een onderverdeling in clocksnelheid, je kan dus een bin hebben voor 500Mhz, en eentje voor 350Mhz (of gelijk welk).

Als je nu 90% yields haalt lijkt dat fijn, maar als van die 90% nog maar 5% in de 500Mhz bin raakt zit je met een probleem.
Het wordt tijd dat moederbord fabrikanten rekening gaan houden met grotere heatsinks op videokaarten.
Een core snelheid van 800mhz, hoe moet dat ooit gekoeld worden? Hoop niet dat wederom geforceFX koel-technieken te zien krijgen :P
Als mainbord fabrikanten met dikke heatsinks rekening moeten gaan houden heb je altijd nog het probleem van ATX behuizingen. Is het niet een slot dat je kwijt bent op je mainbord, dan ben je de sleuf in je kast wel kwijt.

Zat kasten die precies genoeg sleuven bieden overeenkomstig de slots.

Minstens even belangrijk is de power voorziening, extra DC aansluitingen op de kaart zijn meer en meer aan de orde van de dag doordat het mainbord 't niet meer trekt. Laat de mobobakkers daar maar eens naar kijken...
was het niet zo dat door die 0,09 micron de temps ook zakken? Nu zal dat vast wel opgheven worden door die hogere kloksnelheden maar tog..(ik weet niet zeker of dit zo in elkaar zat hoor.. don't shoot if i'm wrong) :)
het zou ook zo moeten zijn dat de gfFX koeler zou moeten zijn door 0,13 en dat verhaal kennen we :Y)
strax leveren ze de GeForce FX² met een vapochill set... :Y)
vast niet alleen een heatsinkje nee :)
Tja....

De geruchten beginnen dus weer zoals bij de nv 30.
De vos verliest zijn streken niet... :)
Maar ik denk niet dat er dit X veel mensen op wachten. :+

We kennen t' marketing verhaaltje van Nvidia nu wel }:O
onzin, marketing verkoopt altijd, _altijd_
twordt al zo lang effectief toegepast...
echter zo af en toe heb je wat nieuws nodig(wat nvidia wel kan gebruiken na zoveel geforces)

en vergeet niet dat als de geforce fx op tijd uit was(dus ruim voor de radeon 9700) iedereen nu zou zitten te kotsen op ATI
want vergeet niet, 95% van de pcs hebben gemiddeld de 3d kracht van een geforce 256 ofzow
over open deur intrappen gesproken... Marketing wil zeggen: hoe breng ik mijn product op de markt. Je kunt ook gewoon je product in de winkel zz als het klaar is. Dat is ook marketing.

Je kunt ook claimen dat je de snelste bent als je nog geen product hebt om te laten zien. Dat noemen we 'haagse bluf'.
en vergeet niet dat als de geforce fx op tijd uit was
het dan een andere GFFX zou zijn geweest, die langzamer zou zijn geweest dan de Radeon 9700pro.
Ze hebben hem expres gewijzigd omdat ze wisten dat de R300 sneller zou zijn.

Ze weten nog wel een bééje waar ze mee bezig zijn bij nVidia, ook al hebben ze tegenslag met de productie (door verkeerde strategie weliswaar).
Leuk, bij ons is haagse bluf toch echt een toetje
Opvallend is dat 134 miljoen van deze transistors door 16MB embedded DRAM in beslag genomen zou worden. Dit eDRAM kan een bandbreedte leveren van 204.8 GB/s en het ondersteunende DDR-II geheugen moet het klusje met 44.8 GB/s weten te klaren.
Hoe werkt dit precies? De bandbreedte van de AGP bus is op 8x 2.1GB/s. Dat betekent dat de kaart zelf de data maximaal met 2.1GB aangelever kan krijgen, hoe komen ze dan aan dit soort enorme hoeveelheden data? En wat voor data is het precies? Vraag is dus eigenlijk waar de bottleneck ergens zit.

Zit er misschien weer een nieuwe bussoort of een upgrade (16x?) aan te komen voor grafische kaarten?
Je krijgt dus de volgende geheugen hierarchy: 200+ GByte/sec voor on-chip memeory, 44+ GByte/sec voor on-card memory, 2+ GByte/sec voor AGP memory. Dit past dus binnen de bestaande platforms.
Even een reactie op ultimateharry, jvo, ErectionJackson (don't explain please) en miw.

Dat het om on card bewerkingen gaat snap ik nog wel maar het staat op het eerste gezicht in geen verhouding. Iets wat met 2GB/s aangeleverd wordt zou dus onchip opgeblazen moeten worden tot iets wat 100x zo groot is en oncard tot iets wat 22x zo groot is. Behoorlijke multipliers dus. Het zal ook allemaal wel nodig zijn anders zou het niet zo gemaakt worden. :)
de informatie die over de 2GB/s agp wordt gestuurd is niet hetzelfde als de informatie die tussen de core en de ondie mem met 200+ GB/s loopt en die agp info is ook niet hetzelfde als de informatie die tussen de core en de oncard mem gestuurd wordt met 44+ GB/s
dus er hoeft niet gemultiplyed te worden :z

(zeg maar beeldberekeningen worden verstuurd tussen geheugen en core, en de antwoorden worden verzonden via de AGP naar de cpu)
(aangezien hoge fps en hoge kwaliteit ed.. veel berekeningen... veel bandbreedte nodig en antwoorden versturen kost lang niet zo veel)
Als wat jij zecht get geval zou zijn heeft het geen zin on je Radeon 9700 zijn geheugen te oc'en maar als ik dat doe krijg ik toch echt veel meer FPS :)
de AGP bus zorgt voor het dataverkeer tussen cpu mem en GPU. Het geheugen op de kaart is voor het interne renderproces van de verschillende frames op de kaart zelf. Deze kan een veel hogere bandbreedte benutten.
Het gaat over de communicatiesnelheid met het geheugen op de grafische kaart, dus de snelheid van AGP heeft er weinig mee te maken.

De data waar het om gaat is met name 3D informatie, textures en buffers.

Edit: Ja, tuurlijk, 1 minuut te laat :)
Dit gaat over gegevenstransport op de kaart zelf. Het embedded DRAM zit in de chip en kan dus het snelst met de rest van de chip communiceren. Het overige geheugen zit op de videokaart en hoeft dus niet van de AGP poort gebruik te maken. Dat gebeurt pas bij communicatie met het systeemgeheugen e.d.
kvraag me af wat het nut is van zo snel geheugen als je al 16!!! mb eDRAM inbouwt...
die 16mb lijkt weinig als je kijkt naar de huidige 64-128mb geheugen kaarten maar mits goed ontworpen zal een aantal mb al een groot verschil uitmaken, het off-chip geheugen moet wel blijven maar hoeft niet op superhoge snelheden te draaien, verder kan je daar makkelijk je framebuffer kwijt, de echt veelgebruikte dingen gooi je gewoon in je eDRAM, maargoed dan moet het wel goed ontworpen worden


<reactie op unicron hieronder>
ik heb nooit gezegt dat het geen extra geheugen is...
die 16mb eDRAM is in zoverre extra dat je wilt dat veelgebruikte(en bandbreedte verslindende) spullen daar komen te staan zodat je minder hinder ondervind van de trage bus tussen cpu en geheugen
hiervoor heb je btw wel een complexe en intelligente geheugencontroller nodig die het verkeer in goede banen moet leiden
die 16MB eDRam is ahw een groot cache.
daarnaast zit er ook nog ?MB DDR2 ram op de kaart.
Die 16MB is extra geheugen op de kaart. :9~
Vergeet niet dat de Playstation2 ook 4mb embedded dram heeft. Hiermee haalt hij maar liefst 48gb/s, toch ook al niet echt zuinig. Met andere woorden, als de playstation 2 dit in 1999 al kon, dan kan Nvidia dit over 1 jaar zeker. (ook al is het hele handeltje iets complexer)
Nu we toch de Playstation 2 er in gaan betrekken, ziet iemand anders ook de overeenkomst?

De Sega Dreamcast lag nog niet eens in de winkels of Sony begon het publiek al te bombarderen met de mythisch hoge specs van de Playstation 2. Het was de moeite niet om nog een Dreamcast te kopen, zogezegd.

Wat bleek: de uiteindelijke Playstation 2 was een schim van de eerste geruchten. Niet dat de hopeloze marketing van Sega er niets mee te maken had dat de Dreamcast hard onderuit is gegaan, een hoop mensen waren toch van mening dat het wachten op een PS2 geen overbodige luxe was op basis van de vage specs van toen.

Klinkt dit brilante gerucht niemand anders ook in de oren als "KOOP GEEN ATI, WACHT OP ONS"? :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True