Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 68 reacties
Bron: Ace's Hardware

Ace's Hardware weet ons te melden dat de volgende generatie GPU van nVidia maar liefst 120 miljoen transistors aan boord zal hebben, bijna twee keer zo veel als de GeForce4, en meer dan drie keer zoveel als de Athlon XP. Het ontwerp van de chip zou recent zijn afgeleverd bij TSMC, waardoor we kunnen aannemen dat de eerste samples al klaar zijn. Het zou nog tot oktober of november kunnen duren voor de chip op de markt komt, maar zelfs in verhouding met de kaarten die op dat moment te koop zullen zijn is 120 miljoen erg veel. Het zeer waarschijnlijk dat nVidia 0,13 micron productie gaat toepassen voor NV30, terwijl Matrox en 3DLabs het nog met 0,15 micron doen. Parhelia zou volgens geruchten op 220MHz geklokt worden, voor NV30 wordt 300 tot 450MHz genoemd. De volgende quote komt van The Inquirer:

Perhaps heaven and earth may be moved, but we reckon that's unlikely. You'll remember that when Nforce was launched at Computex last year, it took it a little while to get its act together and one suit from HP in Europe told us then that he was cross he couldn't include the technology into his own retail products.

Still, ATI and Nvidia are playing a tit for tat game, and in this business you may have the lead for some time, only to lose it again as little as five or six months later.
Aantal transistors
Moderatie-faq Wijzig weergave

Reacties (68)

hier sta je toch maar weer even stil hoe geavanceerd de videokaarten zijn, complexer dan een cpu alleen dus. maarja het zijn in feite ook kleine pc'tjes, processor geheugen..

[edit]typo
Dat er meer transitors op een chip zitten zegt totaal niets over de geavanceerdheid hiervan. Op zijn hoogst iets over de produceerbaarheid.

Bij de grafische chip zijn er heel veel dezelfde stukken te vinden, wat bij normale cpu's veel minder het geval is.
Het grote voordeel dat nVidia heeft tov Intel is dat ze elke keer gewoon opnieuw kunnen beginnen omdat ze niet met comaptibiliteitsproblemen zitten.
Verder maken hele boel losse stapjes (want dat is de renderpipeline) ook toch een aardig complexe chip.

Ook zal de lage snelheid toch wel een grote rol spelen bij de complexiteit. Ze draaien maar op 300-400 Mhz terwijl een Intel of AMd al op 2000-3000 zit. Da's toch bijna een factor 10 verschil.
De nieuwere CPU's worden bestuked met Caches GPU tegenwordig ook maar heeft er veel verschillende van.

Mij lijkt 'n GPU wel degelijk complexer het zijn iig IPC monsters tov 'n CPU alleen wordt dit weer gedeeltelijk gecompenseerd door de Clock.

'n GPU/VPU is meer een gespecialiseerde CPU voor 'n Grafisch Sub Systeem.
Mij lijkt 'n GPU wel degelijk complexer het zijn iig IPC monsters tov 'n CPU alleen wordt dit weer gedeeltelijk gecompenseerd door de Clock.
Ja, maar da's juist makkelijk, dat betekend gewoon dat je wat meer pipelines en functionele units neer moet pletteren.

Wat een CPU ingewikkeld maakt is Out of Order execution wat een ontiegelijk ingewikkeld stuk fetch/decode logic oplevert om structural en data dependencies op te kunnen lossen. Daarnaast is de prefetch logis van een CPU erg ingewikkeld omdat je erg onverspelbaar memory access gedrag hebt. Tenslotten, (last but not least) is branch prediction in CPU's een hot issue wat behoorlijk wat en erg complexe logica oplevert.
Al deze punten zijn bij een GPU niet of nauwelijks aanwezig en ik durf er dus ook vergif op in te nemen dat een GPU niet eens in de buurt komt bij een CPU qua complexiteit. Met die roadmap die nVidia aanhoudt zou dat ook niet te doen zijn.
GPU worden niet na mekaar ontwikkel maar naast mekaar dus door verschillende ontwikkel team.
Als nVidia bezig is met NV30 is de ander met NV35 bezig en bedenkt een ander team wat ze met NV40 gaandoen.

En de nadruk ligt bij de CPU op clock schaling aangezien CPU om de tijd 'n maand of twee snellere versies uitkomen en bij GPU hooguit maar 3maal 'n reeks refresh en 'n Ultra variant.
Intel is ongetwijfeld ook al lang bezig met de volgende generatie CPU's, en misschien ook al wel met wat daar weer na komt, maar het traject duurt bij een CPU gewoon veeel langer. Ik denk dat Intel over iets meer resources beschikt dan nVidia, dus als het sneller zou kunnen dan zouden ze het wel doen bij Intel.
volgens mij kan je dit alles wel zien als een soort risc processor (die ook meestal op een lagere freq draaien als de intels + cloons)

enige instructies die de gpu eigenlijk nodig heeft is zoiets als haal vertex punten op, maak polygonen, geef alles een texture en effect en nog wat instellingen, en teken plaatje... (okee, ik ben nu heel simpel ja, maar dis vergeleken met de 1000+ instructies van een intel enzo :-)

of zitik nu helemaal fout met mijn gedachtes?

(watik dus wil zeggen is dat grote delen van de processor gemaakt zijn voor specifiek maar een paar dingen, en niet zoals bij cpu's dat er meerdere systemen gebruikt moeten worden (desnoods dmv microcode etc)

(volgt iemand me nog? :-)
Dat komt omdat 'n CPU langer mee gaat door de CPU schaling. Men komt pas met de volgende als de huidige zijn clock en vermogen limiet gaat berijken

Dus zolang het zelfde produkt steed sneller kan worden blijven ze erbij om de R&D kosten te beperken.

GPU Architektuur schaald niet op CLOCK zoals CPU dus moeten ze dat met 'n nieuwe architektuur doen die krachtiger is soms zelfs met 'n lagere clock.
Bijvoorbeeld GPU van 166Mhz naar 225Mhz en dan game over.
Bij GPU 500Mhz tot 1400Mhz en dan pas game over je gaat hem niet vervangen als die de 750Mhz haald.
Dat de clock van GPU's niet schaalt komt alleen maar omdat ze em daar niet voor hebben ontworpen. Dat heeft geen zin bij GPU's omdat de features waar de markt om vraagt elkaar veel te snel op volgen (kijk maar naar de DX versies) Om aan die vraag te kunnen voldoen MOET je wel met een nieuwe architectuur komen.

Eisen aan een CPU zijn al sinds jaar en dag hetzelfde, hij moet alleen steeds sneller worden. Daar kun je dus wegkomen met een CPU die ontworpen is om een tijdje te schalen wat kloksnelheid betreft. Dat is maar goed ook, want zo regelmatig met een nieuwe generatie CPU uitkomen als nVidia met GPU's doet is niet mogelijk. Itanium b.v. is een volledig nieuwe, from scratch, processor, maar het heeft ook 4-5 jaar geduurt voor dat ding ontwikkeld was. En nu nog eens ruim een jaar voor Itanium 2 uitkomt die is wat de eerste Itanium eigenlijk had moeten zijn. Als het ontwerpen van een GPU ook zo lang zou duren zou nVidia op enig moment met een stuk of 8 afzonderlijke architecturen bezig zijn, daar heeft Intel niet eens de resources voor, laat staan nVidia.
Misschien is het qua meta bouwstenen dan niet zo geavanceerd maar als je bedenkt dat er van die 120 miljoen transitoren er heel veel kaput kunnen gaan je wel heel goed moet weten waar je mee bezig went als je dat allemaal moet testen en nakijken.

Zowieso dat op dat nivo de kosten van testen en ontwikkelen een belangrijke dan wel niet de belangrijkste kostenfactor zijn tijdens de ontwikkeling lijkt het me op dat gebied een absolute mijlpaal die zeker wel een zekere mate van geavanceerdheid aangeeft.

En eigenlijk is het ongelovelijk hoe ze in die relatief korte tijd zo snel kunnen hebben groeien. En bij dit aantal transistoren bij elkaar vraag ik me dan even af of met de technologie het ook mogelijk is om meerdere CPU's op een plakkie Si bij elkaar te bakken met een een flink stuk level cache geheugen.
Bedenk je wel dat videokaarten een ENORME bandbreedte voor data gebruiken. Dit wordt vaak bereikt door parallelle processen (De klok frequentie is immers niet zo hoog, terwijl de bus wel 28/256 (/512) breed is). door deze parallelle opbouw zijn er veel transistoren die allemaal het zelfde doen. Er worden dus veel transistoren gebruikt zonder dat het echt veel complexiteit bevat.
Nu maar afwachten welke kaart de beste prijs/kwaliteit gaat leveren, want daar gaat het om. Het wordt nog een leuk jaar op het gebied van grafische kaarten :)
Aangezien de NV30 als laatste komt en dan ook nog es zowat de enigste op 0,13 dan zal het mits de enigste op 0,13 ook de duurste zijn of Pharelia en r300 moeten in 'n concurentie strijd zijn waardoor de prijzen wat lager zijn.
Dat nVidia als enigste op .13 gaat werken zou juist gunstig voor de prijs moeten zijn. Het zou iig het verschil in die-size door dat verschikkelijk grote aantal transistoren een beetje moeten compenseren
Prijs wordt bepaald aan de hand van de eisen waar het produkt aan voldoet.
En dat zijn de Features & Performance

De fabrikaant wilt er gewoon redelijk wat winst op maken voor een de gangbare markt prijs.
Ze willen dus de kosten beperken maar dat houd niet in door berekenen.
Je verkoopt geen BMW 850i voor minder dan 'n 316i omdat de kosten zo laag zijn
De top produkten zullen altijd in een produktlijn duurder zijn ook al zijn de kosten om een of andere reden lager.
Ook zijn er nog andere kosten zoals R&D maar dat wordt verdeeld over al hun produkten.

En als dat E 750.- dan vragen ze dat gewoon dan krijgen ze gewoon meer winst
Prijs wordt bepaald aan de hand van de eisen waar het produkt aan voldoet.
En dat zijn de Features & Performance
onzin, de kostprijs wordt idd beinvloed door de r&d (die weer voor die nieuwe features en performance zorgt), de eisen waar het product aan voldoet heeft echter geen relatie met de marktprijs, die wordt namelijk bepaald door de verwachte afzet en de daarop gebaseerde evenwichtsprijs, die wordt voornamelijk bepaald door de mate van concurrentie in een markt, als ze in een competatieve markt 750 euro vragen terwijl de concurrenten daar dik onder zitten dan krijgen ze zeker niet meer winst, en maken ze zelfs eerder verlies....wie koopt er nu een te duur product als er goede en veel goedkopere alternatieven zijn?

Misschien toch eens tijd om een van heertjes economie boekjes te lezen?
Hier een stukje nieuws uit tomshardware waaruit blijkt dat nvidia 0.13 micron gebruikt. :Y)
Nvidia will adopt 0.13-micron processing for new products launched in the third quarter of 2002, ahead of its competitors and despite industry concern about stability and cost, said company president and CEO Huang Jen-hsun at Computex Taipei.
:Y)
Als nVidia dat voor elkaar krijgt dan krijg je ongeveer het zelfde verhaal als nu iNtel vs AMD 0,18 vs 0,13

en nVidia vs ATI wordt dan 0,13 vs 0,15

Als ze de 0,13 voorspoedig loopt zonder grote uitstellingen dan worden ze weer de markt leider en moeten effe Matrox daarna ATI misschien ook 3DLabs effe voorlaten. Allleen voor hoelang dus.
In de PC Games Hardware (07/2002) staat een interview met een gast van NVidia. Die zegt dat het nog 10 jaar duurt voordat we werkelijkheids getrouwe 3D rendering in huis hebben.
Het was ze nu al gelukt om met een GF3/GF4 Final Fantasy in realtime te laten renderen rond de 15fps.
Nou vraag ik me af wat er uiteindelijk waar zal zijn van de geruchten dat dit ook de eerste NVidia chip zal zijn waarbij ze gebruik gaan maken van de technologie die ze met de acquisitie van 3DFx hadden gekregen, oftewel, de eerste Glide compatibele NVidia chip :) Ik hoop het echt, lang leve de oude games die enkel Glide of software willen draaien...

[edit]
-1 Overbodig :? :? :?

Sorry hoor, maar ik probeer hier gewoon een serieuze reactie op te krijgen, want dit gerucht doet al een tijdje de ronde, en ik ben er enorm benieuwd naar, omdat een heleboel spellen, waaronder vooral ook veel oudere, maar nog steeds gewaardeerde games er veel mooier van worden...
Kippenijzer, heb je iets tegen OpenGL en DirectX?
Dat klink meer als een Glide rules preek!
API zijn er voor Hardware via een Abstraction Layer te kunnen benaderen in ontwikkel Tools, voor applicaties, Games dus oa..
D'r zijn er nu twee polulaire iig meest gebruikte en we hebben geen 3de, van meer van het zelfde, nodig.

Zowieso slaat het nergens op, want de markt moet dan wel overstappen op Glide, wil Glide slagen. Dat houd in ook de concurerende Chipbakkers er native van gebruik maken in hardeware en dat zal nooit 123 gebeuren ATI/Matrox/3Dlabs/SIS moeten dan ook Glide ondersteunen in hardware met drivers.

nVidia heeft dan wel een grote marktaandeel maar hun vorigen en huidige GPU maken geen gebruik van GLide dus moeten ze dat dan de markt dooor de strot duwen het beroemde Pushen van monopolisten zoals MS/intel helaas is nVidia geen monopool dus die vlieger gaat niet op.

Ik denk dat er voor 100% geen Glide komt wel 3DFX Technologie onder nVidia flag.

3DFX kon toen glide introduceren omdat ze de eerste 3D versnellers waren met performance voor 'n tijd en dus een periode 'n momopool positie hadden op 3D gamers kaarten markt dan kan je 'n API introduceren nu niet meer aangezien DX en OGL deze plaats heeft ingenomen toen de concurentie flink op gang was en nog steeds is.
Ik denk niet dat nVidia geld zou willen investeren in het ondersteunen van een verouderde API... bovendien wilt 3Dfx-technologie nog *niks* zeggen over Glide compatibiliteit: uiteindelijk was Glide gewoon maar een laag tussen de hardware en de spelletjes om het programmeurs makkelijker te maken om 3Dfx te ondersteunen in hun spelletjes.
Ik denk dat nVidia echt wel interessantere dingen heeft overgekocht dan Glide!

Trouwens, zijn er geen Glide -> OpenGL wrappers ofzo? De overhead van zo'n wrapper zou toch méér dan genoeg gecompenseerd worden door de snellere CPUs en grafische kaarten.
Ik denk dat het wel meevalt met het 3dfx aandeel in deze chip, glide is overbodig (en ook niet beter dan de 2 andere api's) en 3dfx is veel te overhyped...de meeste technologie van de rampage was op gericht op de competitie met de gf3/4 en zal dus niet echt meer van nut zijn voor de nv30, het ging nvidia na het verdwijnen van 3dfx meer om bepaalde patenten dan om de technologie, ik denk dat het maximale wat we van 3dfx zullen terugzien wat HSR (hidden surface removal) implementaties zullen zijn..
jij hebt gelijk, ignore die 2 misselijke replies.. 't slaat wel ergens op ja.. er was sprake van, en Glide heeft wel degelijk support (ik geef er persoonlijk niks om, maar ik ben niet "de wereld".. dus :)...)
In hoeverre is het aantal transistors gerelativeerd aan de snelheid van de chip?


(bedankt voor je antwoord SG en Marco)
CPU gaan nu van 32bit naar 64bit
GPU gaan nu van 256bit naar 512bit

Dus in het geval van GPU heb je twee maal zoveel transistoren nodig voor die extra 256bits erbij te zetten op de core.

Ook is er tussen CPU en GPU ook 'n Cache verschil maar je ziet wel dat 'n factor 8 (IPC)erin zit. En Caches maakt het vershil weer anders aangezien deze variable is van geen tot iets tot redelijk tot zeer groot 32;128;512kb of 6MB.Cache
Er is een indirecte relatie tussen de snelheid van een transistor en de hoeveelheid transistoren aanwezig op een chip. Om een design kosten effectief te houden is men vaak genoodzaakt naar kleinere proces technologien te grijpen (de prijs wordt nu eenmaal mede bepaald door de "die" size). En kleinere transistoren ("channel" oppervlak) zijn in de regel sneller.
Ik denk dat het hieraan ligt
'n 8bits systeem moet data binnen bepaalde tijd beschikbaar stellen tegelijk op al de 8 data lijnen/traces
Bij 64bit is de kans groter dat dit niet gehaald wordt dus meer waitstates of lagere clock of ECC opties.
Wordt tegenwoordig niet alles wat 'n een CPU gebeurt met ECC gedaan dus oa L2 Cache.
Bij GPU denk ik nog niet dan krijg je igv de rasterizer gewoon rare visuele artifacts.
IGV CPU krijg je dan 'n crash.

.
het klinkt allemaal erg goed, maar met 120 miljoen transistoren ben je er volgen mij nog niet.
Er moet ook nog veel meer ontwikkeld worden in het snelle type geheugen wat ook deze kloksnelheid goed kan aansturen.

Correct me if I'am wrong.
'n Grootdeel van die transistoren zitten in de geavanceerde Floatingpoint pixel shaders en vertek shaders dus de DX9 T&L unitS waarbij dit verdubbeld wordt door van 256 naar 512 te gaan.

Dus voor de features al 'n heleboel en voor de rauwe performance ook nog es door data bus verbredingen .

En voor het geheugen 256bit DDR ook 'n Rauwe verdubbeling en heel belangrijk een LMAIII 3de generatie dus

Wat misschien ook interresant is dat de concurentie gesynchroniseerde Core/clock gebruiken dus als die door hun 0,15 produktie prosces in de clcok shalings problemen komen dan heeft nVidia hier geen last van aangezien zij vaak A-Synchroon lopen dus het max uit het geheugen kan halen maar aangezien ze 0,13 gebruiken hebeen ze op dit gebied twee strepen voor op de concurentie mits het waar is.

Dus als Parhelia maar 220Mhz haalt dan loopt zijn Synch.mem op 440Mhz dus maar 14,08GB/s tov 22,4GB/s(LMA) igv 350DDR(700eff) ongeacht of de core(120M) op 350Mhz loopt A-Synchroon.
Je zou je kunnen gaan afvragen waarom de GPU ook niet een stuk van je CPU zou kunnen overnemen B-) . Die dingen zijn zo krachtig geworden, dat het OS best wel wat (grafische) taken kan delegeren. Dan heb je naast je Pentium/Athlon een tweede snelle proc in je systeem zitten :9 . Met AGPx8 (en later AGPx16) lijkt me de communicatie geen probleem. Gooi gewoon naast je Pixel Shader en je Vertex Shader een paar miljoen transistortjes }> ertegenaan voor een floating-point unit en een "paar" general-purpose registers, en klaar is-ie :)
De GPU heeft al veel taken van de CPU over genomen. Denk bijvoorbeeld aan T&L.
Of het OS grafische taken delegeert, hangt puur van het OS zelf af, er hoeft bij het ontwerp van de GPU geen rekening mee te worden gehouden.
denk aan TnL ? denk aan alles wat zo'n kaart doet.. Wolfenstein, Doom 1 en 2, Duke Nukem 3D...en ga zo maar 3 kwartier door.. die deden alles met de cpu hoor :)
Je GPU kan niks overnemen van je CPU. Je GPU is voor een specifieke taak bedoeld en is daar helemaal rond gebouwd. Als je extra functionliteit wilt moet je gewoon een nieuwe kopen. CPU's daarentegen kunnen gewoon alles, zij het veel minder snel dan die gespecialiseerde chips zoals GPU's. De CPU kan gewoon massive rekenen dat wordt aangestuurd door software, bij videokaarten valt er vrij weinig aan te sturen, alleen een aantal dingen kunnen ingesteld worden. Tegenwoordig kunnen GPU's al een beetje geprogrammeerd worden, maar ze zijn op geen kilometers na zo flexibel als CPU's en zullen dat ook nooit zijn, anders heb je er niks aan...
In het artikel op http://www.avault.com/articles/getarticle.asp?name=paradox wordt gesproken over Blackcomb van Microsoft en als ik hun mag geloven, steunt Microsoft erop dat de videochipbakkers met het soort architectuur moeten komen als jij zegt om Blackcomb volledig te kunnen implementeren zoals Microsoft het ziet.
Persoonlijk lijkt mij dit wel een behoorlijk grote stap (lees het artikel voor meer). Ik zou denken dat dit een serieuze re-engineering van de pc-architectuur vraagt met alle compatibiliteitsproblemen tot gevolg. Als tussenstap gaat Microsoft nog wel eerst Longhorn uitbrengen maar of dit genoeg is om de kloof te overbruggen... Ik zeg niet dat het niet kan maar mijn nuchter verstand zegt 'eerst zien en dan geloven'.
ik vraag me eigenlijk af hoeveel hitte die GPU zal produceren, want 120 miljoen transistoren op 450 Mhz is wel erg veel. :?

Zal wel een flinke active koeler op moeten.
/edit
typo
edit/
Toch vallen de koelers wel mee als je bv een GF4 vergelijkt met een Athlon.

Waarschijnlijk omdat de klokfrequentie zo laag ligt (300 MHz tov 2000 Mhz), zal de warmteontwikkeling ook heel erg mee vallen.
Toch vallen de koelers wel mee als je bv een GF4 vergelijkt met een Athlon.
jah ze zullen er wel voor moeten zorgen dat dat zo is (anders wordt je kaart wel heel zwaar en kan je je bovenste pci sloten ook wel dicht plakken/lassen/verzin zelf iets leuks)
Daarmee gaan we ongetwijfeld weer terug naar de GF3 classic introductieprijzen van destijds; geef mij dan toch maar een Parhelia, snelheid zat en dat zeker tot we echt een dx9.0kaart nodig hebben, tegen die tijd is de opvolger van de nv30 reeds af en wil je het van het voor DoomIII ;) .
de parhelia is anders (volgens de eerste berichten) zeker niet zo snel en is hoger geprijst dan de de gf3 toen die kaart net uitkwam....

dx 9.0 met doom 3 heeft ook weinig nut, doom 3 werkt namelijk met opengl (1.3 en straks 2.0)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True