Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties
Bron: PCWatch, submitter: T.T.

Onze Japanse vrienden van PCWatch hebben wat meer informatie weten te vergaren over de toekomstige GPU's van nVidia. Als eerste is er de NV40 die begin volgend jaar zal uitkomen. Dit bevestigt een eerder bericht dat de NV40 dit jaar het daglicht niet zou zien. De NV40 zal onder andere acht pixels per klokcyclus kunnen verwerken door gebruik te maken van 16 pipelines. Hiermee zou de NV40 theoretisch twee keer zo snel moeten zijn ten opzichte van de NV3x die maar over acht pipelines beschikt en vier pixels per klok kan renderen. De chip zal worden geproduceerd met behulp van een 110nm-proces en ondersteunt AGP 8x. Om de GPU op een 16x PCI-Express-slot aan te sluiten zal er dus gebruik moeten gemaakt van een bridge. Als geheugen kan er gekozen worden voor DDR2, GDDR2 of GDDR3-geheugen.

In tegenstelling tot de directe concurrent, de R420 van ATi, zal de NV40 niet over versie 3.0 van de pixel shaders beschikking. Om te voorkomen dat het ontwerp nog verder werd vertraagd, heeft nVidia ervoor gekozen om een plus-versie van de huidige v2.0 pixel shaders op de chip onder te brengen.

In het tweede kwartaal zal nVidia de NV45 uitbrengen. Deze zal ongeveer gelijk zijn aan de NV40 met als grootste verschil dat deze zal zijn uitgerust met een 16x PCI-Express-aansluiting. Daarnaast zullen er twee 'value'-edities van de NV40-architectuur uitkomen, te weten de NV41 en de NV42. nVidia heeft ook plannen om een chipset voor de Pentium 4-processor uit te brengen. Hoewel nVidia geen licentie heeft voor de Pentium 4-FSB, heeft IBM deze wel. Het zou dus best kunnen zijn dat als ze de chipset door IBM laten fabriceren, ze zo de nodige licentie-rechtszaken kunnen ontlopen.

nVidia NV40 met GDDR3-geheugen

Lees meer over

Gerelateerde content

Alle gerelateerde content (38)
Moderatie-faq Wijzig weergave

Reacties (35)

Hiermee zou de NV40 theoretisch twee keer zo snel moeten zijn ten opzichte van de NV3x
Waarom wordt dit bij previews altijd beweerd en zien we daar in de praktijk niets van terug? Hoe kan het dat er sinds het Voodoo1 tijdperk nooit een kaart meer is geweest die gewoon ECHT twee keer zo snel was dan alles wat tot dan toe gemaakt was? Het antwoord is simpel, ze doen het rustig aan en het liefst zouden ze kartelafspraken met ATi.
Het zal best mogelijk zijn om een kaart te maken die ècht de vloer aanveegt met alles wat nu op de markt is.

Maar ja, dat is niet bepaald lucratief. Om nu een kaart op de markt te zetten die over 3 jaar nog steeds alle spellen in full detail kan draaien :z

Dus gaan wij, het klootjesvolk, maar weer traditiegetrouw geilen op deze nieuwe kaart. 10% sneller en 10% duurder. Hoezee.
Dus gaan wij, het klootjesvolk, maar weer traditiegetrouw geilen op deze nieuwe kaart. 10% sneller en 10% duurder. Hoezee.
Je kan natuurlijk ook gewoon wachten tot er een kaart uit komt die WEL 2x zo snel is als je huidige. Meestal scheelt dat wel een jaar op 2 a 3 maar dat drukt wel in je kosten...

Voorbeeldje: ik heb nu een gf2gts maar ik verdom het gewoon om nu al een nieuwe te kopen omdat ik anders niet 80duizend fps haal. Nou dan toch gewoon wat minder. Okay toegegeven dat ie wel wat traag wordt maar met wat tweaken (en inleveren van details) komt de gf2 toch best nog wel goed mee zonder dat het een diashow wordt. Zolang ik de games kan spelen die ik wil met acceptable snelheid (en die is ook weer persoonsgebonden, dat geef ik direct toe) ga ik dus niet in de buidel tasten. Om een kort verhaal lang te maken: sla gewoon een paar generaties over en je hebt na iets meer dan 2 jaar geld zat voor een kickass videokaart (als je het niet verzuipt tenminste)
Ik koop elke 1 á anderhalf jaar een semihigh/mid-range kaart, dan heb ik dezelfde performance als jou overal, ik begin wat langzamer maar eindig wat sneller omdat ik eerder een nieuwe koop.. en ben minder geld kwijt in zn geheel omdat mijn kaarten geen 450 maar 200¤ kosten ;)
kaart is niet 10% sneller, maar ga er maar vanuit dat de processor en de rest van het systeem enorm limit.. als een vid. kaart 2x zo snel zou zijn zouden de benchmarks waarschijnlijk nog maar 40% hoger worden..

Gebeurd ook hoor, 40% is niet abnormaal voor een hele nieuwe kaart :)
Er staat niet voor niets theoretisch... Behalve in sommige benchmarks is een pentium200 ook niet 2x zo snel als een pentium100. Er zijn veel meer dingen waar de snelheid vanaf hangt.
Sure, en de kerstman bestaat ;)

Waarom denk je dat Nvidia van die extreme cooling oplossingen implementeerd, omdat ze "het rustig aan doen"?

Denk niet dat je dan je drivers gaat herschrijven voor die paar procentjes extra performance (en een exponentieel aantal procentjes reputatie verlies)

Nvidia zit momenteel echt wel tegen hun max van hun kunnen aan, en ik denk dat hun R&D momenteel alles behalve "rustig" achter hun bureau zitten.
De 9700Pro was echt 2x zo snel. (Vandaar dat ik 'm toen ook gekocht heb)
In tegenstelling tot de directe concurrent, de R420 van ATi, zal de NV40 niet over versie 3.0 van de pixel shaders beschikking. Om te voorkomen dat het ontwerp nog verder werd vertraagd, heeft nVidia ervoor gekozen om een plus-versie van de huidige v2.0 pixel shaders op de chip onder te brengen.
o nee, toch niet weer zoiets als met de vorige chips die alleen dx9 compatible waren maar niet compliant terwijl ATI dat wel was, met alle gevolgen (benchmark cheats, geruchten over omkopen en extra werk voor spellen programeurs ect.) van dien?

als iemand nog een goed voorbeeld nodig heeft dat "cut-throat" competition ook nadelige gevolgen heeft voor de consument, dan kan je het hier vinden.
DX9.0 vraagt om pixelshader 2.0, niet 3.0.
Ik had ook zoiets (misschien in mindere mate dan) van: 'Huh?!? gaat nvidia nou hun oude tragere shaders opnieuw implementeren?!' Kan het me eigenlijk niet voor stellen. Ze zullen vast behoorlijk wat tweaks hebben uitgevoerd
Als je het zo ziet, dan moet de shader in ieder geval tweemaal zo snel worden. En dat zal ook echt wel in de praktijk merkbaar zijn.
Alleen is het de vraag of dat genoeg is... De gpu wordt bijna tweemaal zo groot (en duur?), en daarmee zouden ze op shader gebied alleen concurrerend t.o.v. de huidige ATI kaarten zijn.
Dat is niet goed genoeg, omdat ATI er ook met zijn nieuwe R420 aan zit te komen. En die zal echt wel sneller zijn dan de huidige generatie...

Uiteraard moeilijk uitspraken te doen met de weinig informatie voorhanden, maar het lijkt erop dat NVidia steeds verder begint achter te lopen...
Eigenlijk zullen deze kaarten niks nieuws bieden ten opzichte van de oude kaarten, maar zijn de features alleen maar geupgrade. Dat is jammer, want ik zie graag niewe features op nieuwe hardware. Vooral als het om GPU's gaat, want die zijn erg interessant als je veel DirectX gebruikt in je brouwsels.
Nieuwe features gaan eigenlijk altijd gepaard met een nieuwe DirectX versie. En DirectX 9 is er nog niet zo lang, ga er dus ook maar niet van uit dat we tussen nu en, zeg, 10 maanden echte innovaties gaan zien.
Nieuwe features zul je vanaf nu steeds minder op kaarten zien.

Het hele gedoe van vertex en pixel shaders was er op gericht dat de videokaarten meer als normale CPU's gaan werken. Dus geen ingebakken features meer, maar een stukje software (de shader) die door de GPU wordt uitgevoerd.

Als die grappen van bump mapping e.d. worden niet meer in de GPU ingebakken, maar via een shader uitgevoerd.

De nieuwe features zullen dus minder zichtbaar worden, maar zitten meer onderhuids, in de vorm van langere shader instructies e.d.
Zo, kaart heeft wel weer afmetingen hoor. als je de contoeren van de koeler ziet brengt dit niet veel goed met zich mee. Is het dan misschien niet handig om ook op de GPU ook een soort van heatspreader te plaatsen wat bij de Intel (nu tegenwoordig ook op de Opterons en 64`s) er ook op zit. zodat de warmte dan beter verdeeld word?
Die zit er in werkelijkheid voor bescherming van de core en er is bewezen dat een processor moeilijker te koelen is als deze een heatspreader heeft.
jammer van het plaatje.
dit zijn nl dummies die micron (dachtik) gebruikte om hun GDDR3 te showen. een paar weken geleden was hier ook al ophef over dat het de eerste plaatjes van "next-gen" kaarten waren maar deze doen het gewoon niet...

maja, geen plaatje staat ook zo leeg ;)
In het tweede kwartaal zal nVidia de NV45 uitbrengen.
en die ondersteunt dan wel PS3.0 ? dat laten ze een beetje in 't midden :/
ik hoop van wel, ik vrees van niet. moest het niet zo zijn, dan lijkt het me wel een redelijk grote sprong in de benaming :?
Theoretisch zal de NV40 dus dezelfde PS2.0 prestaties moeten kunnen halen als de huidige Radeon 9700/9800 kaarten.
oke, ff een reactie en mening:

Video kaarten worden nooit 2x zo snel, aangezien vanaf heden Lucht cooling met heatsinks niet meer voldoen, maar omdat de prijs te drukken worden deze alsnog toegepast

ze doen het niet rustig aan, ookal kunnen ze een CPU/GPU 10x sneller maken dan dat ie nu is, niemand kan deze betalen, en dus is het een verspilling van geld en tijd, dus ze kunnen niet anders

ik denk niet dan ze een kartel afspraken gaan maken, omdat ze dan te veel risico lopen, kijk maar naar microsoft, zodra ergens geld te halen is komt iedereen het halen

momenteel zijn alle video kaart fabrikanten bezig met hun PCI-express kaarten, en alle DX9.x optimalisaties, en zijn ze allemaal over aan het stappen naar veel kleinere procedé's

kortom, echt mogenlijk heden om de CPU zo aan te passen dat ie even snel is maar koeler is zijn er niet, omdat ze anders te lang bezig zijn met een kaart die niet veel sneller zal zijn, en dus zal het nog wel even duuren voordat ze allemaal wat koeler gaan worden en de koel-installatie wat kleiner en geruislozer zal zijn
Wel vreemd dat men de pixel shader 3.0 niet implementeerd maar op oude voet doorgaat en dan met een "+" versie. Zeker nu software bedrijven van games hebben aangegeven veel meer gebruik te zullen maken van pixel shader 3.0, de hoeveelheid bandbreedte is volgens hen veel minder belangrijk geworden. Als nVidia gebruiker denk ik toch dat ATI dat veel beter door heeft dan Nvidia.
In tegenstelling tot de directe concurrent, de R420 van ATi, zal de NV40 niet over versie 3.0 van de pixel shaders beschikking. Om te voorkomen dat het ontwerp nog verder werd vertraagd, heeft nVidia ervoor gekozen om een plus-versie van de huidige v2.0 pixel shaders op de chip onder te brengen
Wat jammer nou, wie koopt er nou een kwalitatief minder goeie kaart? Balen voor NVidia weer.. Dan mogen ze wel heeel snel zijn. (zowel met uitbrengen als met GPU snelheid)
Pixel shading was heel erg cool toen het voor het eerst werd gedemonstreerd (ik denk aan de DirectX 8.0 generatie kaarten, en hoe mijn mond openviel van 3dMark2001 en Morrowind) maar het verschil met de nieuwere generaties is verwaarloosbaar. Kijk voor de grap hier eens:
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desk top/hl2_followup/shotdx.htm

Pixelshading v3.0 is dus in elk geval niet een feature waar ik meer voor zou betalen ofzo.
Ik wel.. de enige reden dat ik een nieuwe grafische kaart koop is wanneer er een doorbraak in beeld/3d kwaliteit is. (vooral omdat ik het leuk vind zelf met allerlei opengl zooi te klooien) Als je het maar kan zien in het plaatje. De ruwe snelheid boeit me een stuk minder.
Pixel en vertex-shaders zijn nog steeds errug cewl hoor zeker de nieuwste varianten. Vergeet niet dat heel veel spellen lang niet van alle mogenlijkheden gebruik maken. Daarbij kijk ook eens naar de verschillende features die de GPU's van ATI en Nvidia hebben. Ze ondersteunen alletwee een basis set instructies (DX & OGL compatibility) en wat eigen features (TruForm, Ultra shadows e.d.)

Dit onderstaande voorbeeld geeft aan dat het voor een ontwikkelaar veel tijd kan kosten om dergelijke zaken te verwerken in een spel.

In Doom3 zijn er voor diverse functies, die in OpenGL aanwezig zijn, verschillende code-paden welke kunnen worden gevolgd. Één standaard pad voor OpenGL kaarten (lees: ATI radeon 9700/9800(pro) ) en één speciaal pad voor de Geforce FX omdat de prestaties op de laatste met het standaard-pad veel te traag waren.
De specifieke paden voor de ATI waren wel sneller maar de beelkwaliteit was beter met de OpenGL variant. Voor de FX gold echter dat de paden minder mooi waren maar de snelheid anders niet acceptabel was.

Kortom Doom3 is (op dit moment) op een FX minder mooi en minder snel als op een vergelijkbare Radeon kaart, ondanks dat er veel tijd in is gestoken om geoptimaliseerde paden voor de FX te maken. Met name dat veel tijd zit een heleboel developers niet lekker.
Ga die HDR demo van HL2 maar eens bekijken. No way dat je dat zelfs maar kan benaderen met DX8 kaarten.

Dat screenshot lijkt op het eerste gezicht inderdaad niet zo spectaculair, maar dat verschil ga je wel duidelijk zien als dat water beweegt.
Als de prijs ook lager is, zijn er best mensen die hem kopen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True