Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties

Nvidia heeft specificaties van twee mobiele Geforce 9-gpu's bekendgemaakt. Beide grafische processors zijn voor de low-end markt bedoeld en hebben hun weg al naar de G1Sn-laptop van Asus gevonden.

De twee nieuwe gpu's worden met behulp van een 65nm-procedé gebakken en bieden ondersteuning aan Directx 10.0, wat ze geschikt voor Windows Vista maakt. Het afspelen van hd-video zorgt dankzij Purevideo voor een geringere cpu-belasting en voor de gameliefhebbers is de Geforce 9M-serie voorzien van zestienvoudige fsaa.

De Geforce 9300M werkt op een snelheid van 400MHz. Deze gpu heeft gezelschap van 256MB videogeheugen dat op 600MHz werkt. Verder zijn er 16 streamprocessors en een 64bit-geheugeninterface aan boord. De core van de Geforce 9500M heeft een kloksnelheid van 475MHz en is voorzien van 512MB geheugen dat op 700MHz draait. Het aantal streamprocessors en de breedte van het geheugeninterface zijn met respectievelijk 32 stuks en 128bit twee keer zo groot als bij de 9300M.

Volgens de website Techconnect zouden de 9300M- en 9500M-gpu's niet veel beter presteren dan de huidige mobiele Geforce 8-serie. De 9300M zou vergelijkbaar zijn met de 8400M GS, terwijl de 9500M een 'bloedbroeder' van de 8600M GT is. De high-end mobiele Geforce 9-chips zouden nog even op zich laten wachten.

nVidia GeForce 9300m specsheet nVidia GeForce 9500m specsheet
Moderatie-faq Wijzig weergave

Reacties (38)

Het is jammer om te zien dat de GPU bakkers zo een melkers zijn geworden, met name Nvidia. Wat heeft het voor zin om een nieuw model te maken die net zo of slechter presteerd dan de vorige serie's ?

Gamers willen toch wat betere hardware in hun cfg. dus ik begrijp sowieso de keuze niet voor mid/low end GPU's voor een notebook. Voor algemeen gebruik volstaat ook een Intel chip. Een standaar laptop betaal je gauw 6/700 euro voor terwijl desktop vervangers, cq. game laptops al beginnen vanaf 1500.

Zo zie je maar dat er weinig veranderd op het gebied van wafers bakken, want veel komen deze chips voort uit slechte wafers die dan lager geclocked worden. Begrijp overigens niet dat ze het proces van bakken niet hebben kunnen verbeteren door de loop der jaren dan had er mogelijk een andere tendens onstaan, onder het mom van "One GPU for all".
omdat je met deze gpu's kan gamen (zij het met weinig kwaliteit) en nog steeds een autonomie van meer dan 3 uur kan hebben
Dat heet de casual games markt en deze is vele malen groter dan de hardcore

nVidia kan nog geen nieuwe lijn uitbrengen, een update van een architectuur uitbrengen duurt ondertussen al 18 maand, aan geheel nieuwe architecturen wordt er jaren gewerkt, tussendoor krijg je enkele speedbumps (zoals deze) door het omschakelen naar een kleiner procedé

[Reactie gewijzigd door oeLangOetan op 9 februari 2008 12:38]

"Wat heeft het voor zin om een nieuw model te maken die net zo of slechter presteerd dan de vorige serie's ? "

Slechter?? Deze kaartjes zijn gemaakt op 65nm ipv het stroomvretende 80nm process. Met andere woorden, dezelfde performance met een langer uithoudings vermogen. :)

Ik snap dan niet hoe je het dan onzinnig vind om een nieuw laptopmodel met een lager energie verbruik uit te brengen.


En trouwens, vaak krijgt een goed 'gpu-design' een die-schrink in de volgende generatie, zonder grote aanpassingen, dit is logisch ook, want dan kunnen ze eerst kijken of het met het nieuwe productieprocess allemaal naar wens gaat, en met het nieuwe gpu-design daar rekening mee houden.
"Gamers willen toch wat betere hardware in hun cfg. dus ik begrijp sowieso de keuze niet voor mid/low end GPU's voor een notebook. Voor algemeen gebruik volstaat ook een Intel chip."

Dat klopt wel, maar je vergeet nog een serieuze tussenmarkt, die af en toe eens een spelletje speelt, maar er de hoofdprijs niet voor wil betalen.

Ik gebruik mijn laptop voor het voorstellen van projecten (en daar komt zowat 99% van de tijd 3D ontwerp bij). Met een onboard kaartje ga je het niet halen om je ontwerpen vrij vloeiend te kunnen roteren & er eventueel wijzigingen op aan te brengen, maar dat kan met een instapkaartje (ik heb een x1400) wel. Een topGPU is dan weer overkill tot en met, en verkort de standbytijd van mijn toestel alleen maar. Qua spelletjes speel ik soms NFS, BF2, Flatout 2 en CS op mijn laptop, daar heeft hij geen problemen mee. Met een onboard kaartje zal dat al moeilijk worden...

De mid/low-end kaartjes hebben dus wel degelijk een nut.
Gamers willen toch wat betere hardware in hun cfg. dus ik begrijp sowieso de keuze niet voor mid/low end GPU's voor een notebook.

Waarom? Spreek voor jezelf. Als ik topprestaties wil dan gebruik ik de desktop wel.

Een laptop is toch vooral bedoeld voor mobiel(er) gebruik. Waarbij energieverbruik (batterijduur), warmteontwikkeling (hoe heet wordt het ding, lawaai, dikte) en het gewicht (mobiliteit) toch echt wel hoofdoverwegingen zijn.

De 8600M GT was goed geschikt om games te spelen, op medium-high settings. Als de 9500 ongeveer dezelfde prestaties biedt voor een lager energieverbruik en minder warmteontwikkeling, dan is die imho wel degelijk zéér gewenst.

Uiteraard zullen er nog 9x00M GPU's komen die betere prestaties leveren.. Alleen is de markt die daarmee bediend wordt relatief zéér klein, en zijn de 8800M's ook nog niet zo heel erg lang beschikbaar.

Wat heeft het voor zin om een nieuw model te maken die net zo of slechter presteerd dan de vorige serie's ?

Het moge duidelijk zijn dat prestaties niet alleen bepaald worden door grafische settings en daarbij behaalde fps. Prestaties zijn altijd relatief, waarbij andere factoren een grote rol spelen, zeker bij GPU's die bedoeld zijn voor mobiele apparaten.

[edit]typo

[Reactie gewijzigd door houseparty op 10 februari 2008 12:09]

nog steeds geen DX10.1 das best zielig voor een nieuwe generatie Grafische kaarten.
Zelfs al zijn ze low budget.
Ja want er zijn ook al games waar je dat echt voor nodig hebt :?
Je zou nog makkelijk zonder DX10 kunnen, niks zieligs aan. Zowieso hebben verschillende game dev's al aangegeven niet met 10.1 te gaan werken. Geen gemis naar mijn mening, ze hadden de specs wel wat beter mogen maken als je mij vraagt, het gaat er niks op vooruit zo.......
Ach, er is al wel vaker een nieuw model uitgebracht dat eigenlijk hetzelfde was als een vorig model, met enkele kleine verbeteringen. Het kost enorm veel geld om elke keer een totaal nieuwe chip te ontwikkelen maar de klant ziet graag vooruitgang in de nummertjes want "hoger is toch beter" nietwaar? ;)
elke game tot nu toe die claimt DX10 nodig te hebben.......
speel ik nog altijd zonder DX10 !
De meeste spellen zijn niet DirectX 10 ONLY, je kunt ze dus ook op DirectX 9 spelen, alleen met wat minder eyecandy. Bioshock, de Unreal III engine en Crysis hebben bijvoorbeeld zowel een DX9 als DX10 render path.
Gek hč, die zijn er nog niet eens. Behalve dan die Vista-only games, maar die beweren niet dat ze dx10 nodig hebben.

[Reactie gewijzigd door ath92 op 9 februari 2008 14:45]

het gaat m hier niet over nodig hebben of niet,, het gaat erom dat 10.1 al een tijdje uit is en dat ze er nog altijd niet standard inzitten. amd doet dit wel, óók op budget modellen
Je zou ook makkelijk zonder DirectX 9 kunnen of 8 of 7,... DirectX 10 brengt gewoon erg mooie effecten mee, ik heb pas een HD3870 geinstalleerd en je merkt toch echt wel het verschil hoor...
Dat kan misschien wel kloppen maar het is toch alleen maar goed dat ze voorbereid zijn. Als je nu als fanatieke gamer een gamepc/lapop met DX9 koopt niet mis mee, maar zodra dan na een enkele maanden toch een game uitkomt die goed en alleen werkt met DX10 heb je eigelijk geen zin om alweer een nieuwe pc/laptop/graka aan te schaffen.
want ?

wat voegd DX 10 uberhaud toe op dit moment ?
laat staan het verschil naar 10.1 en dan niet meer de prijs had kunnen drukken.

Waarom zielig ?
de versnelde AA van 10.1 tov 10 is toch zeker interessant.

je zou haast kunnen zeggen dat 10.1 een bugfix release is.
dus waarom implementeerd nvidia die niet?

[Reactie gewijzigd door Countess op 9 februari 2008 13:34]

DX 10.1 heeft geen 'versnelde' AA: de snelheid van MSAA en de features zijn orthogonale eigenschappen. DX10.1 laat een aantal dingen toe die op dit moment niet mogelijk zijn met DX10, zoals het individueel aanspreken van de kleuren en de Z van MSAA samples, maar dat maakt DX10.1 hoegenaamd niet sneller. Het voegt enkel een extra feature toe.

Dat is vooral interessant voor bepaalde schaduw effecten, die anders aan kwaliteit moeten inboeten.
Er is niets in de DX10 en/of DX10.1 specificatie dat fundamenteel dingen vertraagd. Als game developers met een leeg blad zouden beginnen en twee keer dezelfde engine zouden maken voor DX9 en DX10 *MET IDENTIEKE EFFECTEN* dan zou DX10 in 95% van de gevallen sneller zijn.

In de praktijk gebruiken developers die extra mogelijkheden echter om effecten kwalitatief beter te maken.

Alle commentaar die beweert dat DX10 en DX10.1 te traag is voor de huidige generatie GPU's mag naar de prullenbak verwezen worden en getuigt van grote verwarring bij diegenen die hierover een mening schijnen te hebben. Een klassiek geval van het niet kunnen onderscheiden van correlatie en causatie.

[Reactie gewijzigd door newinca op 9 februari 2008 23:44]

ik denk dat het hoofd van Crytek toch wel weet waar hij het over heeft:

"From what I understand, even if you had the next generation of 10.1 hardware, it would be too slow to use the features. You would have to wait two more generations in order to get a real benefit from it."

http://www.gameinformer.c...0/N07.1004.1210.04388.htm
nvidia heeft zijn eigen hardwarematige AA

http://www.nvidia.com/object/IO_37101.html

[Reactie gewijzigd door gbh op 9 februari 2008 13:53]

voor dx 10.1 is de huidige hardware veel te traag, tegen de tijd dat hardware wel snel genoeg is zitten we al lang op dx 11 die aan het eind van dit jaar uitkomt, dx 10 is niets meer dan een tussenpaus voor dx 11
Muah, ik denk ook niet echt dat het een grafische kaart is die een al te beste performance heeft; het gaat tenslotte in een relatief energiezuinige laptop. Das wel even wat anders dan een desktop zeg maar.

Daarnaast ken ik ook maar weinig mensen die een laptop voor serieuze gaming gebruiken.
Pff, vergelijkbaar aan die, vergelijkbaar aan dat bla bla bla.

Nieuwe 9 serie, en vergelijkbaar met de 8 serie.

Wanneer leren ze nou, dat ontzettend veel mensen, denken dat 9 weer (stukken) beter is dan 8 series. En dan word je verne*kt door meer geld op te besteden aan iets wat amper beter is.

Tuurlijk moet het nog blijken uit de benchmarks etc. Maar ik weet bij voorhand al dat dit niet schrikbarend beter is dan z'n voorganger.

Nvidia, wanneer maak je nou als je van serienr veranderd, eens een wat grotere stap dan al die 'vergelijkbare resultaten'
Dude, het gaat hier om de mid-en low-end. Je kunt niet verwachten dat een low-end model van de nieuwe serie beter gaat presteren dan een high-end van de vorige!

Als je even goed leest zie je dat de performance opnieuw vooruit gaat voor minder geld (de x300 is even snel als de vorige x400, de x500 is even snel als de vorige x600). Dus je krijgt dezelfde performance, voor minder geld!

Plus natuurlijk alle andere voordelen van de die-shrinks...
Wanneer leren ze nou, dat ontzettend veel mensen, denken dat 9 weer (stukken) beter is dan 8 series. En dan word je verne*kt door meer geld op te besteden aan iets wat amper beter is.
1) Waar staat dat deze serie kaarten duurder is?
2) Je kijkt alleen naar performance. Hoe weet je of er niet technisch gezien verbeteringen in de kaarten zitten (bijvoorbeeld lager stroomverbruik?)
3) Mensen kopen een complete laptop nooit op basis van alleen een grafische kaart. Het is niet een desktopkaart waarbij de consument gaat upgraden of makkelijk kan kiezen welke kaart hij wil.
De kaarten die op een kleiner procede gebakken worden zullen uiteindelijk alleen maar goedkoper worden. Omdat het goedkoper is om ze te maken.Daarbij verbruiken ze ook nog eens minder stroom dus worden ze ook minder warm.
Alleen maar voordelen toch?

Ja ik had ook liever gezien dat ze weer een monsterchip gebakken zouden hebben die drie keer sneller is als de 8800ultra. Maar het grootste deel van de markt is helaas niet als ons :)
Dat zijn natuurlijk wel leuke videokaarten, maar ik denk nu aan de 8700GT, is die beter dan de nieuwe 9500?
Het volgende is denk ik duidelijk:
terwijl de 9500M een 'bloedbroeder' van de 8600M GT is
En voor wat betreft de 8700M uit de review van de reviews: Schoothondjes met tanden 3: Dell XPS M1730
Hoewel nVidia zich met de 8700M richt op de 'enthusiast', zeg maar de meest veeleisende gebruiker, verschilt de kaart niet eens zoveel van de 8600M GT, die de fabrikant als 'performance' bestempelt. Ook dit laatste model beschikt over 32 streamprocessors, een ram-interface van 128 bits en een geheugenbandbreedte van 22,4GB/s. De 8700M is met 625MHz wel hoger geklokt dan de 475MHz van de 8600M GT en ook de shader- en de geheugenklok lopen sneller.
Kortom: de 9500M Zal waarschijnlijk iets langzamer zijn de de 8700M :)
Dat belooft op zich wel iets voor de snelheid van een eventuele 9600M :9

[Reactie gewijzigd door dirkjesdirk op 9 februari 2008 12:01]

Voor de naamgeving zou het misschien verstandiger zijn om door te gaan met de 9700M.. dan zit er met een eventuele 9900M tussen alle namen 200 :)
Ja die is sneller, net als de 8800M kaarten, die dingen komen wel in de buurt van de desktop varianten, maar dan heb je het ook niet meer echt over een draagbare laptop ;)
"De high-end mobiele Geforce 9-chips zouden nog even op zich laten wachten."

Dat is op zich wel jammer gezien de komst van de penryns voor notebooks deze maand. Hoe lang zou de wachttijd op deze high end gpu's nog zijn?
"64nm-procedé", is dat een nieuwe procede of gewoon een typo?

Anywayz, hopelijk gebruiken ze ook minder stroom dan de 8 series?
65 nm lijkt logischer ja
voor de gameliefhebbers is de Geforce 9M-serie voorzien van zestienvoudige fsaa.
_/-\o_

en dat op je laptop!
16xfsaa met een eorme fps drop natuurlijk. Ze kunnen wel 32xfsaa en msaa mogelijkheden inbakken, maar als het speelt alsof je door een stripboek bladert heb je er nog niets aan.
naja unreal tournament 1 kan dan nog wel op 30 fps hoor.
trouwens zo'n hoge fsaa zie je niet eens
van 4 naar 8 x is al amper merkbaar
de stappen naar hogere fsaa worden ook exponentieel zwaarder voor je GPU, dus laat dan maar met die 16x :P
ondersteuning aan Directx 10.0, wat ze geschikt voor Windows Vista maakt.
Nja, je kan Vista nog prima draaien op een DX7 onboard ding, alleen je kan dan Aero niet gebruiken, dus om het nou speciaal "geschikt voor Vista" te noemen..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True