Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: X-Bit Labs, submitter: XWB

Bij X-Bit Labs is een kort bericht verschenen waarin wordt gemeld dat nVidia heeft bevestigd dat de officiële introductie van de NV31 en NV34 op 6 maart zal plaats vinden tijdens de Game Developer Conference te San Jose. De NV31 is een afgeleide van de GeForce FX met 80 miljoen transistors en vier in plaats van acht rendering pipelines. Er zullen drie versies op de markt komen met kloksnelheden van 250, 300 en 350MHz. De NV34 wordt gebouwd met 45 miljoen transitors en krijgt een kloksnelheid tussen de 300 en 375MHz. Meer informatie zal ongetwijfeld over enkele dagen beschikbaar komen.

GeForce FX (400 pix)
Moderatie-faq Wijzig weergave

Reacties (55)

Hoe zit het nu met de modelnummering :?

Ik zou er eigenlijk vanuitgaan dat een NV31 en NV34 afgeleiden zijn van de NV35 core? In ieder geval suggereert het nummer dat de chip sneller is dan de NV30.

NV10 Geforce256
NV11 Geforce2 MX
NV15 Geforce2
NV17 Geforce4 MX (Geforce3MX was betere naam geweest)
NV20 Geforce3
NV25 Geforce4 (update Geforce3 core)
NV28 Geforce4 met 8x AGP
NV30 GeforceFX (tja, of Geforce5 8-) )
NV31 ?
NV34 ?
NV35 update van GeforceFX core

Een naamgeving van NV31 en NV34 is totaal onlogisch vergeleken met dit systeem, deze nummers impliceren snellere chips dan NV30! Tot nu toe heeft NVidia zich daar tenminste wel aan gehouden :?

Los van het feit WELKE chip van welke is afgeleid, blijft nog steeds de hamvraag of het systeem van naamgeving zo wel consequent is.
Sorry, maar de GeForce4 MX is afgeleid van de GeForce2 en NIET van de GeForce3 ;)
Volgens mij is de Geforce4MX afgeleid van de Geforce3 core, vandaar ook de naam NV17. Er is wat functionaliteit weggelaten tov de NV20, "gecastreerd", vandaar dat er destijds werd gesteld dat de naamgeving van de kaart veel beter Geforce3MX had kunnen zijn. Maar dit was natuurlijk een slimme marketing truc van NVidia.

De Geforce2 heeft slecht één afgeleide, en dat is de Geforce2MX. Het zou ook onlogisch zijn om een chip af te leiden van een anderhalf jaar eerder (!) geintroduceerd model. Zo erg lopen ze nu toch ook niet bij Nvidia achter :D

(OK, of het NV17 of NV18 is, dat weet ik niet helemaal zeker, NV18 is volgens mij inderdaad de Crush18 van de NForce2 chipset, ik heb het nummer in het lijstje veranderd)
Waar haal jij dat vandaan? als je iemand verbetert moet je het wel goed doen.

De Geforce 4mx is afgeleid van de Geforce2 core.

De Geforce 4Ti is afgeleid van de Geforce 3 core.

Geforce 2 en Geforce 4 mx is directX7 compliant.
Geforce 3 en Geforce 4 Ti is directX8 compliant.
De fout die volgens mij gemaakt wordt is dat er UPGRADE en DOWNGRADE versies van de NVidia chips zijn.

Neem als voorbeeld de NV20 core, dit was een compleet nieuwe core met DirectX 8.0 functionaliteit. Van deze core kwam een UPGRADE versie met wat nieuwe mogelijkheden, maar niet wezenlijk anders: de NV25.

Er is echter ook een DOWNGRADE van de core gekomen, er is functionaliteit weggelaten, zodat de chip niet meer DirectX8.0 compatibel was: zo was hij lekker goedkoop te maken: de zogenaamde NV17, deze ondersteunt daarom alleen DirectX7.

Verder is het een beetje flauw, is de NV17 nu:
- een NV20 core waarbij functionaliteit is weggelaten
- een NV15 core waar functionaliteit aan is toegevoegd

In feite maakt het niet zo veel uit voor de positionering van de chip, die is in beide gevallen tussen de Geforce2 (NV15) en de Geforce3 (NV20) in, waarbij vanaf NV20 pas DirectX 8 ondersteuning is.

[Reactie op United Nova]
Iets verder is dit Forum geef ik nogmaals een toelichting aan de hand van de specs en informatie van o.a. Anandtech.
[/Reactie op United Nova]
De Geforce4MX is afgeleid van de Geforce3 core, vandaar ook de naam NV18.
Nope Niels, de Geforce4MX is wel degelijk afgeleid van de Geforce2. Vandaar dat de 4MX ook alleen Dx7 ondersteund, en niet Dx8.
De core-architectuur van de 4MX is ook vrijwel identiek aan die van de 2GTS, net zoals de prestaties.
De Geforce2 heeft slecht één afgeleide, en dat is de Geforce2MX.
En de Geforce2MX is een afgeleide van de Geforce 256, wat de zaken terug in perspectief plaatst ;)
Eigenlijk is de Geforce2 core ook slechts een geupdate Geforce 256 met een hogere clocksnelheid, DDR en Giga Texel Shading (GTS), waar de 2MX niet over beschikt: trek je conclusies ;)

De Geforce4 is een Geforce3 met enkele minor updates en een hogere core en mem frequentie.

Voor de MX kaarten heeft nVidia altijd cores gebruikt die een generatie ouder waren, om concurrentie met hun flagship te voorkomen.
Dat was ook recentelijk het voordeel van ATi: Flagshipcores voor alle price-ranges.
Voor de low budget Radeon 9000 serie werd een gemodificeerde 8500 core gebruikt (Dx8), en voor de midrange 9500 een lager geclockte 9700 core (Dx9).
Zoals op Anandtech en andere sites is te vinden:

"The GeForce2 MX, as the name implies, is based on the GeForce2 GTS core. The main difference being that this 0.18-micron chip only features two rendering pipelines whereas the GeForce2 GTS features a total of four."

En bovendien:
"Since the GeForce2 MX is based upon the GeForce2 GTS core, its two rendering pipelines are also capable of processing two textures each in a single clock, whereas the GeForce256 could only process one texture per pipeline in a single clock"

Dus helaas klopt de stelling van Cheetah niet helemaal.
De GeForce4 MX of NV17 is wel afgeleid van de GeForce2. De NV18 is prcs dezelfde videokaart als de NV17, alleen heeft de NV18 onder steuning voor AGP8x

NV17 is dus Geforce4 MX
NV18 is dus Geforce4 MX 8X

edit:

reactie op Niels Nijhof hieronder.

Ik wil die reviews die jij gelezen hebt wel eens zien.
bovendien is het de NV17 en niet de NV 18 :)
.. en nog steeds vraag ik me af waarom er nog geen exitigy achtige videokaarten zijn in die reeks.. ze worden steeds mooier en dat steek je dan in je kast :/

Lijkt me trouwens ook makkelijker met thingies als video in/video out en niet te vergeten de warmte en de voeding :)
Volgens mij komt het omdat je snelheid (bus )verminderd maar voor de rest vond ik het een super idee eigenlijk (dat zou misschien nog wel meevallen )

maar dan heb je nog altijd delay

maar ik hoop dat ik ongelijk heb
design nog steeds hetzelfde ?

of gaan ze bij de MX versies wat minder lawaaierige coolers er op zetten?
Dit is het oude plaatje volgens mij, want deze was toch geschrapt door NVidia?? :?

Ben benieuwd wat de NV31 en NV34 daadwerkelijk gaan doen op de markt, veel mensen hebben tegenwoordig de GF4 al in huis gehaald, de echte die-hards verkope m vast wel en gaan deze kopen..
Heel veel is er niet veranderd. Kijk maar eens naar het definitieve ontwerp van ASUS
Lijkt me dat er voor een lager geklokt ontwerp ook wat minder drastische cooling nodig is...

De foto erbij is ietwat verwarrend.
Ik denk dat de Zalman ZM80A-HP wel zal voldoen voor zo'n MX-versie. Ik hoop dat één van de fabrikanten die dan ook zal toepassen.
Eerst wil ik even zeggen dat de geforce 4 mx helemaal niet van de geforce 3 is afgeleid maar van de geforce 4 Ti. Het tweede wat ik ga zeggen is dat deze kaarten een grote flop worden. Die NV34 is misschien net iets beter dan de radeon 9700pro, maar veel duurder dus die koopt zo en zo al niemand. Bovendien komt geloof ik op 12 maart de radeon 9600 en de radeon 9800 uit dus die kaarten van geforce liggen is nde winkel voor niks. Die radeons zijn veel echt veel beter. B-)
Eerst wil ik even zeggen dat de geforce 4 mx helemaal niet van de geforce 3 is afgeleid maar van de geforce 4 Ti.
Zoals een groepje tweakers hierboven al tot de conclusie is gekomen: De GeForce 4 MX (NV17 & NV18) zijn gebaseerd op de kern van de GeForce 2 (NV15). De GeForce 2 en de GeForce 4 MX zijn allemaal DirectX 7 kaarten. De GeForce 4 Ti is een DirectX 8 kaart. Als wat jij zegt waar zou zijn, dan zou de GeForce 4 MX dus een DirectX 8 kaart moeten zijn. En dat is dus niet zo
Het tweede wat ik ga zeggen is dat deze kaarten een grote flop worden. Die NV34 is misschien net iets beter dan de radeon 9700pro, maar veel duurder dus die koopt zo en zo al niemand.
Ik vraag mij ten eerste af of de NV34 in FPS sneller is dan de Radeon 9700 Pro (R300). De GeForce FX Ultra (NV30) is in veel spellen wel sneller dan de Radeon 9700 Pro (R300), maar of dat ook voor de GeForce FX en de NV34 gaat gelden vraag ik mij af.

Bovendien geloof ik niet dat de NV34 duurder zal worden dan de Radeon 9700 Pro, mits nVidia het goed aanpakt en Ati niet al te veel de prijzen gaat verlagen van de Radeon 9700 Pro.

De nVidia GeForce FX 5800 Retail kost op dit moment $325. Dat is slechts $15 duurder dan de goedkoopste Ati Radeon 9700 Pro Retail die al voor $310 van jou is. Dit zijn de prijzen die je betaald als je een pro-order doet. Prijzen van de GeForce FX serie zullen in de komende maanden zeer zeker dalen, wellicht dat de GeForce FX 5800 binnenkort goedkoper zal zijn dan de Radeon 9700 Pro.

De vraag is of de NV34 duurder zal worden dan de GeForce FX 5800. Als de NV34 een soort GeForce FX MX kaart gaat worden, dan zal de prijs ook lager uitvallen. In dat geval kan je er op rekenen dat de NV34 flink goedkoper zal worden dan de Radeon 9700 Pro.
Zoals een groepje tweakers hierboven al tot de conclusie is gekomen: De GeForce 4 MX (NV17 & NV18) zijn gebaseerd op de kern van de GeForce 2 (NV15).

Helaas niet helemaal juist, zoals op o.a. Anandtech te vinden is:

"The NV17 core lacks all of the DirectX 8 pixel and vertex shader units that made the original GeForce3."

- "The NV17 would basically be a GeForce2 MX with an improved memory controller, multisample AA unit, and updated video features: it features improved/new Accuview AA engine, nView support and improved Visibility Subsystem"

- "Another way of looking at it would be the GeForce3 without two pixel pipelines or DirectX 8 compliance."

Dus NV17 is NV20 minus twee pixel pipelines, of een NV15 plus allerlei extra nieuwe features.

Er is geen absolute harde waarheid dat de GeForce4 MX een opgewaardeerde Geforce2 (NV15) zou zijn, netzoals het niet absoluut een gemankeerde GeForce3 is (NV20).

Het "groepje tweakers hierboven" stelde ook dat de GeForce2MX een afgeleide van de orginele GeForce256 zou zijn, dit is echter onjuist. De GeForce2MX is een GeForce2GTS met slechts twee rendering pipelines ipv 4, maar wel met twee textures per pipeline (ipv één zoals bij de NV10 core).

Dus aan de hand van deze analogie kan eenvoudig worden gesteld dat de afgeleide van de Geforce3, de Geforce3MX zou moeten worden. Helaas ligt de situatie wat ingewikkelder: in de eerste plaats was de NV17 vertraagd in release, en werd hij niet de Geforce3MX, maar GeForce4MX genoemd (er is ook LMAII geimplementeerd en niet de orginele LMA). Verder is door het weglaten van vertex shaders en pixel pipelines, de NV17 core in één klap niet meer directX8 compatibel. Vooral dit laatste zorgt ervoor dat men NV17 voor het gemak graag onder de GeForce2 familie schuift.

De waarheid ligt netjes in het midden.

-----------------------------------
oordeel zelf, NV17 specs:

0.15-micron GPU
GeForce3 Memory Controller w/ Lightspeed Memory (eigenlijk LMAII) Architecture
New Video Processing Engine with IDCT support
Quincunx AA support
No Pixel Shader support
Limited Vertex Shader support
Ik snap niet dat jouw post wordt bestempeld als informatief want de informatie die je geeft is absoluut onjuist.

De Geforce 3 core is een totaal nieuwe ontwerp met programmable pixel and vertex shaders dit is onmogelijk of heel moeilijk om te zetten naar een chip met non-programmable pixel and vertex shaders.

Daarom heeft Nvidia dat ook niet gedaan, wat Anandtech vertelt is een manier van uitleggen, net als een bromfiets is een auto zonder carosserie en een kleinere motor, maar een bromfiets is gewoon een voertuig met een kleine motor en 2 wielen en geen verkleinde auto in dit geval is de bromfiets de geforce2.

Er zijn gewoon wat functies van de Geforce3 aan de Geforce 2 core toegevoegd en niet van de Geforce 3 core afgehaald want dat zou echt raar zijn.

Dan had ATI dat misschien ook gedaan, denk je dat ATI van de Radeon 8500 functies heeft weggelaten om het een Radeon 7500 core te noemen?
Eigenlijk zeg je precies hetzelfde als ik. Dus we hebben hier een dubbelpost :D

"er zijn niet functies van de Geforce3 core afgehaald want dat zou raar zijn"

Toch heeft Nvidia wel vaker van deze 'rare' acties uitgehaald, zoals bij het vervaardigen van de Geforce2MX core uit de Geforce2GTS core.

Uiteraard heeft ATI van de Radeon niet zomaar funties weggehaald uit de 8500 om er een 7500 van te maken. De Radeon 7500 was er veel eerder en een generatie ouder, dus dat zou de omgekeerde wereld zijn :D

Zoals al eerder genoemd, omdat de NV17 geen DirectX8 ondersteuning heeft is het vaak makkelijker om hem onder de GeForce2 familie te schuiven. Ik begrijp die keuze heel goed.

Maar zoals ik al zei, het maakt uiteindelijk niet zoveel uit :)
Bij mijn weten kun je een programmable GPU niet omzetten naar een non-programmable GPU.

Die zou namelijk van de grond af opnieuw ontworpen moeten worden.

Bovendien de memory controller kan anders zijn en maakt niet uit of het afgeleid is van de Geforce3.
En Accuview AA die in de MX zit is softwarematig en is heel makkelijk aan de core toe te voegen.

Bovendien gebruikt Geforce4MX dezelfde drivers als de Geforce2 en het zou ook stom zijn om een compleet nieuwe driverset te ontwikkelen voor de Geforce4MX.

Nvidia heeft namelijk helemaal niet zoveel verschillende drivers.

Geforce 256 Geforce2 Geforce4MX --> gebruiken allemaal dezelfde drivers.

Geforce3 Geforce4Ti --> gebruiken allebei dezelfde drivers bovendien zal er waarschijnlijk een budget Geforce4Ti uitkomen die ook dezelfde drivers zal gebruiken.
De koeling van deze kaarten is niet waar ik me het meest bezorgd om maak. Wat zal de performance van deze kaarten zijn? Moeten ze straks gaan concurreren met de radeon 9500/9700? Zal nog een zware dobber worden.

performance van deze kaarten: http://www.tweakers.net/nieuws/25724

Ze kunnen deze kaarten maar beter heel goedkoop maken :)
Nog erger. Ze moeten gaan concureren met de opvolgers van de 9500 en 9700: 9600 en 9800.

En dat zal dus een nog zwaardere dobber worden.
Hmm,
ik denk wel dat ze niet zo lang zullen moeten concurreren. Als de opvolger van de FX er is, en dit zou volgens de geruchten niet zo lang meer mogen duren, is het ook maar een kwestie van enkele maanden eer er ook budgetversies verschijnen.
Dus laten we zeggen dat ze het een maand of 6 zullen moeten rekken.
Trouwens, ik heb zo de indruk dat deze generatie, zowel bij nVidia, als bij ATI niet echt aan de verwachtingen zal voldoen. De core- en geheugensnelheid van de R350 is ook niet zo fenomenaal vooruitgegaan. De R9700pro was natuurlijk ook al bijna sneller dan een FX, maar toch...
Ze zullen dus wel met gemak winnen, maar toch ook niet op een verpletterende manier.
De NV30 is nog nergens verkrijgbaar en nu worden de NV31 en NV34 gelanceerd. Wat zijn ze bij Nvidea toch mee bezig ????
is logisch

De yields vallen erg tegen van de NV30, dus gaat men de wat simpelere versies er van maken. Deze hebben minder transitoren en dus betere yields.

Daarnaast is er veel meer geld te verdienen in dit marktsegment dan in het marktsegment van de NV30. Ook speelt het natuurlijk mee dat ATI steeds meer voet aan de grond krijg in het midden en onder segment waardoor Nvidia op deze manier probeert het marktaandeel te houden.
het zou mooi zijn als ze er een Zalman hp-80 of een andere passieve koeling opgooien. Dan hebben ze iig een van de grote nadelen (geluidsoverlast) weggewerkt.
Ik denk dat je aan een zalman hp80 niet genoeg hebt bij deze kaart temp stijgt performence daald

correct me if im wrong maar denk het niet :)

deze kaart word nemelijk erg erg heet
Die lager geclockte versies???
Trouwens, hang er een papst koeler boven en je hebt een koeler, maar nog steeds geruisloos systeem.
Onderschat de koelkracht niet van zo'n Zalmansysteem: geïnstalleerd op een GF4Ti4200, kun je zelfs zonder problemen de kaart nog tot het uiterste drijven! 8-)
dit zijn codenames, dus daar moeten wij ons niet echt druk over maken. De uiteindelijk naam is het enige dat logisch moet klinken in de oren van de mogelijk koper.
De NV31 is een afgeleide van de GeForce FX met 80 miljoen transistors en vier in plaats van acht rendering pipelines.
De GeforceFX heeft ook al geen 8 rendering pipelines........

Wat er dus waarschijnlijk minder is, is het aantal TMU's wat vanaf 2 naar 1 is terug gebracht.

Nu ben ik alleen benieuwd of ze hardwarematig DX9 ondersteunen of niet. Aan de eerste scores in 3dmark2003 is het af te leiden dat dit waarschijnlijk voor 1 van de kaarten niet zo is.
ik word hitsig van die kaart, en die koeling, nogal wat anders dan die stomme passieve rommel op mijn geforce 4 mx 420 :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True