Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties

Er zijn wat details verschenen over de Geforce 9500GT van Nvidia. De kaart uit de Geforce 9-serie vormt het kleinere broertje van de 9600GT en is gebaseerd op de G96-gpu.

De kaart die Toms Hardware onder ogen kreeg, is gebouwd op het 65nm procedé en beschikt over een core die zijn werk op 650MHz doet, terwijl de shaderklok op 1650MHz draait. De betreffende referentiekaart, die over een 128-bit geheugenbus beschikt, is voorzien van 256MB ddr2-geheugen met een snelheid van 900MHz, maar het model zou ook overweg kunnen met sneller gddr3-geheugen. Verder blijkt de kaart ondersteuning te bieden voor DirectX 10.0, Opengl 2.1, Purevideo HD en pci-express 2.0, en dankzij Hybrid SLI kan bovendien een sli-opstelling gemaakt worden in combinatie met een igp.

Onbekend is nog hoeveel streamprocessors de G96-kaart mee gaat krijgen. Eveneens is onduidelijk wanneer de kaarten precies moeten gaan verschijnen, behalve dat dit in de eerste helft van dit jaar moet gaan gebeuren. De verwachting is dat de lowend-kaart de Nvidia Geforce 8600GT gaat opvolgen, aldus Toms Hardware Taiwan.

Eind december verschenen al gegevens over het eerste midrange-model uit de Geforce 9-serie, de 9600 GT. In de eerste week van 2008 doken daarop meer details en de eerste foto's op van het komende vlaggenschip van Nvidia: de 9800GX2.

Nvidia Geforce 9500gt.
Moderatie-faq Wijzig weergave

Reacties (36)

Als deze 8500GT ongeveer even snel als een 8600GT die weer ongeveer even snel is als een 7600GT. Zie ik hier een kleine markt voor, zeker als je bedenkt dat een 7600GT DDR3 in sommige games sneller is dan een 8600GT.
De 7600GT is nu tweedehans te koop voor 50 euro, dan moet de 8500GT minstens rond deze prijs gaan zitten.

Ik begrijp niet waarom je vorige generatie high-end niet gewoon omgezet word in nieuwe generatie mid-end en het zelfde voor de mid ends naar de low-ends.

In de jaren na 7600GT moet er toch wel van alles gebeurd zijn bij Nvidea.
De 7600GT kan wel sneller zijn dan de 8600GT, maar hij mist DX10 en andere features voor bijvoorbeeld een HTPC (hoewel ik daar geen 8600 voor zou nemen). De 7600 is een ''oude'' kaart, die natuurlijk nog steeds heel goed is, maar over een jaar niet meer. Dan heb je meer aan de 8600, omdat die met de nieuwste technieken is gemaakt.

Voor iemand die games speelt is een 7600 mischien interressant, wanneer hij alleen maar wat oudere games speelt. Wie de nieuwste games toch nog een beetje mooi wilt spelen, zal toch echt voor de 8600 moeten gaan.

(Het is trouwens niet raar dat de 7600 soms sneller is dan de 8600. Om even een scheve vergelijking te trekken: Soms is de E6850 sneller dan de Q6600, ookal is de laatste een quadcore ;) ).
Ehm, die volg ik niet helemaal. 7600GT en 8600GT zijn praktisch even snel, 8600GT is alleen een pak duurder. Waarom raad jij gamers op budget dan toch de 8600 aan?
Ik vraag me eigenlijk af waarom de snelheden van de geheugenbussen vaak beetje hetzelfde blijven, terwijl er wel steeds meer ram,processors en Hz op zon kaartje zitten?

@brute51
het valt mij op dat op bijna alle kaarten een 128 of 256 bit geheugenbus zit. Voor zover ik weet was dit vroeger ook al zo. Ik vond het dus raar dat voor de rest alles meer/beter wordt, maar die geheugenbus 128/256 blijft steken. Maar dit is kennelijk dus niet een beperkende factor.

[Reactie gewijzigd door Elypsion op 14 januari 2008 20:51]

Ik denk omdat de kaart daardoor warmer wordt en dat dan de kleine/passieve koeling groter gemaakt moet worden, en men wil eigenlijk een zo klein mogelijke bugetkaart. Dus: Minder Mhz = minder hitte = niet zo groot koelblok nodig = kleine bugetkaart :).

En btw = Minder stroom :P
En wat de geen hierboven zegt is ook niet onwaar :z

[Reactie gewijzigd door rickyy op 14 januari 2008 17:56]

geheugenbus heeft daar toch niet veel mee te maken dacht ik?

Jij bedoelt productieprocédé...
Een geheugenbus breder maken kost meer verbindingen van de chip naar het geheugen (of andersom) en soms meer geheugenchips. Er is een limiet aan het aantal verbindingen dat je op 1 print laag kunt maken dus met meer verbindingen kan het aantal lagen van je printplaat omhoog gaan. En daardoor wordt een kaart snel duurder en ingewikkelder om te ontwerpen. Verder, als je een bredere geheugenbus gebruikt moet je of meer geheugenchips er op zetten of andere geheugen chips nemen die met een grotere interface. Dat zal ook wel voor meer kosten zorgen. Het is al met al dus goedkoper om een printplaat te maken met zo min mogelijk lagen en dus een zo klein mogelijke geheugenbus en daar dan zo snel mogeljik geheugen op plaatsen.

Het is wel zo dat een printplaat die uit meerdere lagen bestaat over het algemeen meer energie opneemt (want over elk lijntje staat spanning en dus verlies je daar energie), maar het is vooral de GPU en in mindere maten het geheugen en het voedingscircuit van de kaart zelf die de meeste energie opnemen/verspillen.

@Elypsion:
Hoe bedoel je, de snelheid van de geheugenbus? De klokfrequentie van het videogeheugen ligt net zo hoog als dat van de geheugenbus. En een smalle geheugenbus betekent niet automatisch dat 'ie weinig bandbreedte heeft.
Even voor de vergelijking, het DDR geheugen (van je CPU) heeft een bus van 64 bits. Bij dual channel wordt dit verdubbeld tot 128 bit...

[Reactie gewijzigd door brute51 op 14 januari 2008 20:32]

Het is goedkoper om een kleinere geheugenbus te gebruiken en een snellere GPU en RAM dan andersom
Ze houden de snelheden een beetje hetzelfde omdat AMD/Nvidia van mening zijn dat het genoeg is voor de prestaties die de kaarten moeten leveren. Een hogere geheugenbandbreedte zou waarschijnlijk overkill zijn voor die kaarten en AMD/Nvidia onnodig geld kosten.
Ik blijf me toch iedere keer weer verbazen over waarom er zo ontzettend veel nieuwe budgetkaarten gemaakt worden, in plaats van dat de fabriekanten de topmodellen van oudere generaties nou op een efficienter procede zouden bakken, om op die manier geld en energie te besparen. Mn onlangs overleden X800XT doet t in de VGA tests van tomshardware toch nog steeds beter dan de meeste budget en zelfs midrange kaarten van de laatste 2 generaties (verslaat zelfs de 7900GTX in een test :S )

Ik snap natuurlijk wel dat DX 10 en HD ondersteuning niet zomaar op die oude kaarten geplakt kunnen worden, maar de consument die een budgetkaart koopt zal heus niet van plan zijn om dx10 games te gaan spelen
Dat heeft te maken met de volgorde van produktie.

Nieuwe core = volledig nieuw ontwerp, dus vaak in het begin zijn alleen maar lage kloksnelheden mogelijk --> 9600

Daarna verbeteren ze het ontwerp en optimaliseren de produktie ervan, zodat de kloksnelheden omhoog kunnen --> 9800

Op dat moment zijn ze meestal al weer bezig met de nieuwe core voor de volgende versie, alleen is het oude ontwerp dan zo geoptimaliseerd dat ze vaak nog een dual-GPU versie uitbrengen (ook vanwege voorraad). Alleen overlappen de specificaties elkaar dan, waardoor vaak al de nieuwe versie nummers gebruikt worden.

De 9800 GX2 die er dus volgende maand aankomt is een dual-GPU van de oude generatie (G92 core).

Je hebt dus constant een overlapping, wat bij nVidia gaande is sinds de Series 6 kaarten. Intel doet exact hetzelfde, en AMD/ATi hebben een soortgelijke curve.
Dat ze bij deze generatie niet meteen met een high-end kaart komen dat is voor nVidia en Ati voor het eerst. Bij de 8ste generatie was het eerst de 8800 GTS en GTX en voor Ati de x2900. Daarna kwamen pas de mindere modellen (8500 en 8600, en X2600 en X2400). Bij de 7e generatie was het eerst de 7800GTX en de X1800XT voordat de mindere modellen kwamen. En ook bij de 6e en 5e generatie was het zo. Bij de 4e kwamen geloof ik alle Geforce 4's tegelijk uit. En bij de 3e generatie was het wel zo dat de GF3 200 eerder uitkwam dan de GF3 500 (dacht ik iig). Ik ben neit helemaal zeker meer hoe het zat met de 2 GF en 2 TNT generaties ervoor (TNT, TNT2, GF1, GF2).
Dat ze een dual GPU uitvoering uitbrengen is tot nu toe ook eerder uitzondering dan regel.
Ik blijf me toch iedere keer weer verbazen over waarom er zo ontzettend veel nieuwe budgetkaarten gemaakt worden
Omdat de markt daar kennelijk om vraagt.. De meeste mensen geven denk ik gemiddeld maar zo rond de 100 euro uit aan een nieuwe videokaart..
Omdat die 'oude' kaarten toch wel in het high-end segment zaten uit die tijd. Deze waren duurder om te produceren vanwege hun onderdelen. Om nou dit nog eens op een ander procede te zetten, lijkt me alleen nog maar duurder. Het gaat hier om een budgetkaartje. :)
Omdat ik nou net niet 200 euro aan mijn videokaart wil uitgeven maar toch een aardige game mee wil spelen. Het kan me eerlijk gezegd ook helemaal niet schelen dat ik de recentste games niet kan spelen zonder super videokaart. Crysis zal er voor mij over 1-2 jaar niet slechter uit zien/minder spelen terwijl het dan waarschijnlijk wel betaalbaar is om het spel goed te kunnen draaien.

Verder zijn features op een kaart ook een verkooptruc. DX10 en PCI-Express 2.0 zijn harde cijfers die het vast goed doen bij de wat minder ingelichte consument (die ook geen 200 euro voor een videokaart over heeft, maar toch meer de budget kant op gaat).

[Reactie gewijzigd door JohnAD op 14 januari 2008 19:47]

Een spel zoal Crysis ziet er inderdaad over 2 jaar hetzelfde uit. Echter ziet het er relatief wel slechter uit. Je zit bij wijze van spreken nu immers ook niet meer te kwijlen om de graphics van Far Cry.
"Onbekend is nog hoeveel streamprocessors de G96-kaart mee gaat krijgen."

Hé, dat is nou jammer. Als dat nou ook bekend zou zijn zou je vrij precies kunnen inschatten wat de prestaties van dit beestje zijn/gaan worden.
vind de nieuwe "naamgeving" bij NVidia wel wat verwarrend: je zou verwachten dat de 9500GT de opvolger is van de 8500GT i.p.v. 8600GT zoals gesteld wordt in het artikel.

Wel vreemd dat deze uitkomt, net nu er een 1GB versie van de "oudere" 8500/8600GT op de proppen gaat komen...

http://www.hardware.info/...ert_1GB_8500GT_en_8600GT/
nVidia beslist niet dat er 8600GT kaarten met 1GB uitkomen, dat heeft Sparkle zelf gedaan om een extra verkoopsargument te hebben boven de concurrentie. "Wauw, een 1GB kaart voor zo weinig geld!" hoor je dan veel mensen (niet Tweakers) zeggen.

Ware het niet dat de 8600GT, en zeker de 8500GT, veel te sloom is om die 1GB te benutten. Maar sommige mensen kijken nog altijd vooral naar de geheugenhoeveelheid. Het is dan nog eens DDR2 terwijl de 8600GT standaard normaal GDDR3 heeft. Dan heb ik veel liever de standaard 256MB versie ;)

[Reactie gewijzigd door Admiral Freebee op 15 januari 2008 09:37]

voordeel is dat met een leuke mid rage - low budget kaart, ook de simpele gebruikers en bedrijven redelijk beeld kwalietei kunnen krijgen voor vista.

Er is veel vraag naar directx10 ivm vista, en men is niet geniegd 200 euro of meer voor een werk pc neer te leggen.
maar men wilt wel flekkeloos met vista werken
Ehm, dat kan een beetje onboard Intelletje ook hoor...
^^ met CubeFanatic

Een Intel GMA950 weet ook wel om te gaan met Vista Aero :)
DirectX10 betekent op dit moment voor eindgebruikers heel weinig. Vista zelf gebruikt het niet. De meeste effecten die zogenaamd DX10-only zijn, zijn meer marketing-trucs die eigenlijk ook al in DX9 zaten. Voor ontwikkelaars is DX10 wel een grotere stap voorwaarts heb ik begrepen.

In ieder geval zal deze kaart weinig hebben aan DX10 ondersteuning. Slechts in enkele spellen is het verwerkt, maar die zal deze kaart niet fatsoenlijk kunnen draaien.

Misschien is dit een grappig budgetkaartje, maar niet vanwege DX10 denk ik.
geen dx10.1?
Waarom zouden ze?
D'r is volgens mij nog geen game uit die DX10.1 ondersteunt, en de kaart is waarschijnlijk nauwelijks krachtig genoeg om games te spelen die het wel nodig zullen hebben.
DX10.1 is tot zo ver gebakken lucht, totdat er iemand op het idee komt om een speelbaar (maw niet a-la-Crysis) spel te maken welke het nodig zal hebben...
En zelfs dan nog is het vaak een extra optie, zoals de meeste nieuwe games nu nog DX10 features hebben, maar ook gewoon onder DX9 draaien, waarbij DX10 features vrijwel allemaal high-end opties zijn. (shaders, grotere textures, etc)

Dan kun je als nVidia zijnde beter een stabielere\goedkopere kaart uitbrengen, dan hopen dat je geen fouten hebt gemaakt in je DX10.1 ondersteuning, zij het in hardware of drivers..
(kennen we nog de Shader problemen van de eerste FX5xxx serie? )
Voor het gemak vergeet je wel even te melden wat nou de voordelen zijn van DirectX10.1

Ja er zitten vast wel wat uiterlijke verbeteringen in, maar het grootste voordeel is nou juist de performance winst.

Oftewel "en de kaart is waarschijnlijk nauwelijks krachtig genoeg om games te spelen die het wel nodig zullen hebben."
is onzin want juist door DirectX10.1 word het al sneller (niet naar de overige hardware gekeken) puur het ondersteunen van DirectX10.1 zorgt al voor een betere performance.

MAW als Crysis DirectX10.1 ondersteunde was de kans groot dat als een 8800GTX DirectX10.1 had (verder niets meer, alleen de 100% DirectX10.1 compatible) je nu Crysis met een 8800GTX kon spelen zonder problemen.
in tegenstelling tot nu waarbij 2 OC 8800Ultra's nog moeite hebben met crysis.

Ik weet niet precies hoeveel die winst is, dus of mijn Crysis voorbeeld helemaal zou uitkomen weet ik niet, maar het blijft beter presteren met DirectX10.1.

En er zijn op meerdere gebieden performancewinstens mbv DirectX10.1. Zo slurpt AA/AF minder GPU kracht en buiten dat is er sowiso nog een hogere FPS enz.

Bron

Daarbij is van een DirectX10 game een DirectX10.1 game maken heel makkelijk, en dat betekent dus dat je warschijnlijk wel patches zult zien gaan komen om de huidige DirectX10 games ook DirectX10.1 ondersteuning te geven (Denk aan Crysis, word die ook speelbaar op normale (DirectX10.1) kaarten).

Bron dat dat zo makkelijk is.
Ik weet niet waar gamez.nl die onzin vandaan haalt, maar DX10.1 is een point release die een paar nieuwe features toevoegt en wat standaarden vaststelt (elke kaart moet 4xMSAA ondersteunen). Meer niet, en zeker geen performancewinst. (bron)

[Reactie gewijzigd door Snoitkever op 14 januari 2008 21:29]

Als het verschil dan zo klein is, waarom ondersteunen ze het dan niet? Dat lijkt me dan een kleine moeite.
Omdat een aantal functies nu volledige hardware support moeten hebben: Realtime global illumination, cube map arrays, meere vertex shader inputs, etc, en er daarnaast enkele optimalisaties in 10.1 zitten, zullen directX 10 (en 10.1) games weldegelijk sneller draaien op 10.1 hardware...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True