Nvidia-videokaarten met nieuwe namen gespot

Een advertentie op de Duitste site van de Media Markt vermeldt de videokaarten die met pc's worden geleverd met hun nieuwe naam. De nieuwe naamgeving zou later deze maand officieel geïntroduceerd worden.

Geforce GT120In september werd al bekend dat Nvidia de benamingen van zijn videokaarten opnieuw op de schop zou nemen. Teneinde zijn Geforce-kaarten van eenduidige namen te voorzien, zouden de grafische kaarten uit de 9000-serie hernoemd worden om in lijn te liggen met de kaarten uit de 200-serie. Daarbij zouden videokaarten uit de 8000-serie worden uitgefaseerd. Een exacte introductiedatum van de nieuwe namen was nog niet bekend: Nvidia zou de verandering laten samenvallen met de overstap naar het 55nm-productieprocedé voor zijn gpu's.

De Duitse tak van de Media Markt bleek echter al met de nieuwe namen te adverteren: op zijn site verkoopt de winkelier drie desktoppc's met videokaarten van Nvidia uit de 100-serie. Het gaat om een instapkaart met 512MB geheugen die de Geforce G100 wordt genoemd, een Geforce GT120 met 1GB geheugen en een Geforce GT130 die van 1,5GB geheugen is voorzien. Volgens website TC Magazine zou het achtereenvolgens om een Geforce 9400GT, een Geforce 9500GT en een Geforce 9600GSO gaan. Die laatste videokaart bleek eerder een hernoemde Geforce 8800GS, maar waarschijnlijk is het ditmaal een nieuwe, op 55nm gebakken, kaart.

Oude naamNieuwe naamGeheugen
Geforce 9400GTGeforce G100512MB
Geforce 9500GT Geforce GT1201GB
Geforce 9600GSO Geforce GT1301,5GB

Door Willem de Moor

Redacteur

04-01-2009 • 10:54

92 Linkedin

Reacties (92)

92
86
22
14
1
4
Wijzig sortering
Mjah op zich vind ik de naamgeving wel een verbetering als ze er maar consequent in blijven. Het probleem zit hem in het constante rebranding van oude producten als nieuwe kaarten; echt om ziek van te worden hoe vaak ze dit doen. Ze schreeuwen echt om marge/winst daar en om het zo snel mogelijk met zo min mogelijk R&D te maken :r .

Anyway; de line-up nu bijvoorbeeld (fictief):

G100 (9400GT)
GT120 (9500GT)
GT130 (9600GSO)
GT140 (9600GT)
GT170 (9800GT, gerebrande 8800GT)
GT180 (9800GTX+, gerebrande 8800GTS en de oude wordt niet meer gemaakt)
GT190 (9800GX2?)
GTX265 (duidelijk maken dat het om een 55nm 216 core gaat)
GTX285 (de oude GTX280 wordt uitgefaseerd)
GTX295

Het feit dat er overal haakjes achter staan met kaarten is al een indicatie dat rebranding echt veel te ver gaat bij nVidia. Het zijn veel kaarten en het probleem dat ze volgens mij niet begrijpen is dat als je een product range hebt met meer dan 9 kaarten in de line-up (en die krijgen ze per serie altijd wel) dan moet je geen 3-cijferige type nummers hanteren. Want zometeen zitten ze alweer op GTX999 en moeten ze -weer- gaan klooien met hun naamgeving. ATi heeft dit wel begrepen en heeft een line-up als clear als het maar kan waarin ze over veel langere periode kunnen variëren.

4870 (4 = serie nummer, 8 is hoofdcategorie prestatie en 7 is subcategorie prestatie) waarin hogere nummers altijd sneller zijn. Zo makkelijk, zoveel beter. Ik ben geen fanboy en heb trouwens een nVidia kaart - maar ze hebben van naamgeven al een jaar geen kaas meer gegeten. Een ieder met verstand moet daar eens solliciteren; ik wed dat er een compromis te vinden is dus duidelijkheid voor de klant en dat continue ge-rebrand van nVidia :N .

[Reactie gewijzigd door Cassius op 4 januari 2009 12:16]

waarin hogere nummers altijd sneller zijn
Bijna waar. Hogere nummers binnen één serie zijn altijd sneller. Ik denk dat een HD3870X2 een HD4350 er wel uit trekt ;)
Volgens mij zou er ook nog GTS gebruikt worden toch? wellicht voor die 170 en 180? De 9800GX2 wordt volgens mij al niet meer gemaakt.
ik wed dat er een compromis te vinden is dus duidelijkheid voor de klant en dat continue ge-rebrand van nVidia
Verwarring is ook een vorm van marketing, of nVidia moet echt helemaal de kluts kwijt zijn met naamgeving.
Nou ik ben erg benieuwd hoe goed dit gaat werken. Gezien het feit dat ze nu dus gaan werken met een G, GT en GTX serie en dan zit het ene gedeelte in het 1XX vlak en de andere in het 2XX gedeelte. Gaat de volgende serie dan gelijk naar de 3XX en 4XX ?

Als ik hun was zal ik gewoon schaamteloos het idee van AMD kopiëren. Misschien niet de mooiste actie maar het is wel zeer overzichtelijk. Gewoon lekker duidelijk cijfertje voor de serie en de rest voor (grofweg) de prestaties.

edit: Zoals hieronder al wordt aangegeven begon ATI toen der tijd met deze structuur. Daarbij kwamen toen nog allemaal achtervoegsels alleen deze hadden bij ATI/Nvidia niet alleen onderling verschillen maar ook bij series. Ik heb geen exacte voorbeelden uit mijn hoofd.

Verder heeft Kul geheel gelijk dat ik doelde op het weglaten van niks zeggende achtervoegsels/voorvoegsel zoals GTX GT GS etc (ja het zegt ons wat maar niet de consument). AMD is hier heel helder in en bij hun geldt gewoon dat per serie hoger beter is. Einde verhaal. Nu komt Nvidia met hun "simpelere" indeling maar als ze nou gewoon alleen cijfers hadden gebruikt en geen letters was het zoveel simpeler!

[Reactie gewijzigd door SRI op 4 januari 2009 19:19]

AMD heeft juist dat principe van NVidia gejat. De naamgeving van NVidia kaarten zat altijd zo in elkaar:

Voorbeeld : 8800GTX

De eerste 8 staat voor de serie, in dit geval de 8 serie. Je hebt ook nog de 7 serie (7900 etc) en de 9 serie. Hoe hoger dit getal, hoe recenter de serie/kaart is, en weet je dus gelijk wat voor technologieën erin zitten (namelijk de technologieën van de 8 serie).

De volgende 8 staat voor de prestaties. Hoe hoger dit getal, hoe sneller de kaart is. Een hoger getal is altijd sneller dan een lager getal uit dezelfde serie. Let wel op, een 7900 kan sneller zijn dan een 8600.

Daarna komt de zogenaamde 'coolheids cijfers'. Deze geven wat meer body aan de naam. 88GTX is natuurlijk niet mooi. Eventueel kan de eerste 0 naar een 5 worden veranderd als het 2e cijfer een 9 is, wat dus het hoogste is. Zo kunnen ze nog een sneller model uitbrengen in de 7 serie, dan de 7900.

De laatste letters duiden dan nog aan hoe snel de kaart is ten opzichte van een kaart met hetzelfde nummer. Als er een letter (of 2) achter staat, is de kaart altijd sneller dan 1 met dezelfde cijfers zonder nummers. GT is altijd sneller dan een GS, GTX is altijd sneller dan GTS, waarbij GTS dan weer sneller is dan GT.

Soms staat er een M voor, bijvoorbeeld: M8600GT. Dit betekend dat het een notebook model is.

Het enige wat AMD anders heeft gedaan (AMD's naamgeving snap ik nog steeds niet helemaal) is de GTX, GTS, GS, GT etc. eruitgehaald.
Bijna helemaal goed, alleen klopt dit volgens mij niet:
Als er een letter (of 2) achter staat, is de kaart altijd sneller dan 1 met dezelfde cijfers zonder nummers.
Volgens mij is dit niet per definitie waar. Een GS is veelal langzamer dan een zonder cijfers. Een zonder cijfers wordt volgens mij ook wel GTO genoemd.
Dus volgens mij zit het zo (van langzamer naar sneller)
GS->niks/GTO->GT->GTS->GTX

Ook klopt dit weer niet altijd. De Geforce 8800GTS met 640MB kwam bijvoorbeeld eerder uit dan de 8800GT (met 512MB). De GT was in de meeste gevallen (iets) sneller, behalve in sommige situaties dat de 128MB extra voordeel gaf.
Anoniem: 220263
@TheJVH5 januari 2009 00:24
Juist dit hele rebrand gedoe is wat nVidia's naamgevingen erg ingewikkeld en onoverzichtelijk maakt. Je uitleg is in principe niet slecht, maar het is kort door de bocht. 8 staat voor prestaties? Ik denk het niet. 8 staat voor serie. Hoe hoger dit getal, hoe sneller de kaart klopt voor geen meter. Een 7900GTX (ja zelfs een 6800GT) is onvergelijkbaar met een 8400GS.

Een GTS is altijd sneller dan een GT, zeg je? Wat dacht je van de 8800GTS 320MB, is die sneller dan de 8800GT 512MB? Ik dacht het niet. En alle achtervoegsels, wat heeft de consument daaraan? NVidia had voorheen géén standaard gebruikte achtervoegsels. Met andere woorden, het was niet duidelijk welke lettercombinaties nou bestonden en gebruikt werden door nVidia. Eerst leek het duidelijk; GS, GT en GTX. Daarna kwamen ze met GTO, GSO, Ultra, +, LE, TC, wat dan niet.

Nou is het aannemelijk dat het duidelijk is dat een + betekent dat dat model beter is. Maar, wat als je bij een lager model een + zet, is dat model beter dan de hogere model zonder +? Of wat betekent het als de benaming van twee kaarten exact hetzelfde is, behalve de serie, zou de kaart met een hogere serie dan veel sneller moeten zijn? Neem 8800GTX vs. 9800GTX; de 9800GTX was op lagere resoluties niet eens sneller, en op hogere resoluties slechts ietsjes beter. Dat terwijl het ook maar een overclockte 8800GTS was, dus in sommige gevallen (OC 880GTS's vs. stock 9800GTX's) zelfs gelijk presteerde. Dit ondanks de hogere serienummer en de GTX achtervoegsel ipv GTS.

Daarentegen kwam ATi met zijn nieuwe methode om alles te nummeren ipv achtervoegsels te gebruiken. Het moge duidelijk zijn dat consumenten snappen dat een hogere cijfer betekent dat de prestatie ook beter is - waar bij een "hogere" achtervoegsel dus blijkt dat dit niet altijd het geval is, en waar soms ook niet eens duidelijk is welke achtervoegsel hoger is. Zoals meerdere mensen voor mij hebben uitgelegd, is binnen een serie een hoger getal altijd beter (4 serie - 870 > 850 > 670 > 650 > 550 > 350). Ik snap dan ook niet wat er niet aan te snappen is.
@ alle hierboven over de letters:

Inderdaad, de letters zijn een verhaal apart bij nVidia, en imo ook vrij raar. Maar ga er maar vanuit, dat hoe stoerder het klinkt, hoe sneller de kaart is :) .

En als er 'XXX' of 'Overclocker 1337' achterstaat, is dit niet van nVidia, maar van XFX of een ander merk ;) .
Geen zin om dit op Wikipedia te zetten, dit is de eerste keer dat ik een grondige uitleg van Nvidia heb gevonden in verband met hun modellen, hoewel het meeste al vrij duidelijk was. Tevens één van de voornaamste redenen waarom ik een beetje bij Nvidia blijf hangen, ik heb het hele model structuur van AMD nog niet kunnen decoderen. :/
Wat is er in hemelsnaam mis met de AMD/ATi naamstructuur?

HD2000 en HD3000 series zijn oud, ze worden nog verkocht, dus soms met forse kortingen kan het nog steeds een leuk kaartje opleveren (in de onder 100 euro groep), maar focus me nu op de huidige serie.

HD4350 = genoeg voor 1080p HTPC met 8 kanaals via HDMI voor rond de 35 euro
HD4550 = ietsje beter als je ook af en toe een spelletje wilt spelen rond de 50 euro
HD4650 = weer ietsje beter, maar moet je met rust laten (de HD4670 is veel beter)
HD4670 = prima beginnende gamer instapkaartje rond de 75 euro (dit is de eerste kaart waarmee speelbare framerates worden gehaald in vele moderne titels, zoals CoD, FarCry 2, etc)
HD4830 = ietsje beter rond de 100 euro
HD4850 = ideale kaart voor de budget gamer rond de 150 euro
HD4870 = zeer snelle gamer kaart rond de 200 euro voor 512MB en 250 euro voor 1GB versies

Nu is CrossFireX ondersteuning niet optimaal in alle spelletjes, en AMD is op dit moment stom bezig, ze pompen er elke maand nu bijna een nieuwe Catalyst driver versie uit, en er worden elke keer problemen opgelost, maar oudere games die stabiel draaide krijgen dan soms vaak nieuwe problemen. Opzich is dat te begrijpen als je ziet hoe complex drivers momenteel zijn, en liefhebbers van oudere titels kunnen de oudere driver gebruiken, maar van mij mogen ze elke 2 maanden een nieuwe driver uitbrengen en dan wat langer testen. Met de nVidia drivers is het ook geen zonneschijn, die doen er soms erg lang over voordat ze uiteindelijk met een goede driver komen en zouden wel eens wat sneller mogen, zoals AMD.

Echter wat ik ermee wil aanhalen is dat de X2 varianten met twee GPUs op één kaart gebruikmakend van CrossFireX, niet altijd het voordeel bieden waar je voor betaald. Dus in plaats van een HD4850 X2 kan je dan beter een HD4870 kopen.

Als je op dit moment echter de allersnelste single-slot kaart wil hebben dan is dat de HD4870 X2. De GTX295 is in staat hem te verslaan, maar is nog niet goed verkrijgbaar (nog geneens officieël gelanceert), dus feitelijk telt ie nog niet, en is de HD4870 X2 nog steeds de kroon houder.

Nu heeft nVidia wel een voordeel en dat is PhysX, omdat de AMD/ATi oplossing met Havok (licentie gekocht van Intel) niet zo uitgebreid ondersteund voor geweldige effecten als PhysX (kijk naar Mirrors Edge). De oplossing daarvoor zal in de Hydra chipset liggen (de nieuwere X58 moederborden voor Core i7 platform), of Windows 7 met DirectX11, die uiteindelijk door developers omarmt zal worden als vervanger voor zowel Havok als PhysX, zodat je een AMD/ATi en nVidia videokaart kan combineren in één systeem.

Een combinatie die ook werkt is die van een GeForce 9300/9400 moederbord met een AMD/ATi videokaart. Die maakt het in principe dan mogelijk om de GeForce chipset de PhysX berekeningen te laten doen, maar dat hangt van de implementatie af.
Ik heb nooit beweert dat het een slecht systeem is, ik heb het alleen nog niet doorgrond en jouw uitleg geeft niet meteen een duidelijker zicht op de zaak, poepkop doet dat echter wel ;-)
Goed dan, extra uitleg voor poepkop zijn manier (dacht dat het handiger was om werkende voorbeelden te laten zien dan analyse van de opbouw).

HD a b cc

a = inderdaad generatie
  • 4 = huidige top lijn gebaseerd op de RV770 core.
b = type gebruiker:
  • 3 = Office/Internet (en budget HTPC)
  • 5 = 3 + HTPC markt
  • 6 = 5 + casual gamer
  • 8 = 6 + gamer
cc = model binnen dat type:
  • 00 = onboard, snelste model momenteel is the HD3200 en HD3400 in de 780G chipset serie, die dan wel een a = 3 generatie benaming heeft, maar zeer veel is afgeleid van de RV770 core.
  • 30 = dedicated, langzaam
  • 50 = dedicated, sneller
  • 70 = dedicated, nog sneller
In zowel 'b' als 'cc' is er ruimte overgelaten voor extra modellen, het gebruik van een kleiner fabrikatie proces op hetzelfde ontwerp resulteert namelijk in een type kaart wat sneller geklokt kan worden en minder energie gebruikt. Dan kan AMD/ATi dus gemakkelijk beslissen om er bijvoorbeeld een cc = 90 bij te gooien of er 75 van te maken.

Het lastige probleem echter (teruggaand op het originele nVidia artikel) is dat de GPU zoveel verschilt tussen AMD/ATi en nVidia, omdat ze beide de nadruk op een ander punt hebben, dat het bijna onmogelijk is om ze exact naast elkaar te leggen.

Je moet daarom vaak eerst beslissen wat voor budget je wilt besteden, dan uitzoeken welke applicaties (wat voor type spelletjes meestal, en dan vooral kijken naar de engine) je het meeste gebruikt en dan benchmarks opzoeken die je een goede keuze laten maken.
De radeon serie is net zo helder als de oude geforce series, even 4850 ontleden:
4 | 8 | 50
Generatie | High end | Prestaties binnen doelgroep high end

Waar je mag verwachten dat een *6** model gelijk presteerd aan het *8** model van de vorige generatie. Het enige wat veranderd is is dat ze nu 00, 50 en 70 gebruiken ipv Pro, Xt en Xtx. Daarnaast hebben ze nog 'gt' gebruikt om de consument in verwarring te brengen met de snelste kaarten (gt) van nVidia en deze als langzaamste te verkopen.
Ik vind het heel helder...

Relabelde videokaarten vind ik daarentegen waardeloos en daarnaast kan ik geen touw meer vastknopen aan de nummering, want hoe gaat de volgende low-end kaart dan heten van nVidia? gt300? Welke dan een stuk langzamer is dan een gt280?
Niet helemaal..

Met de ATI 8xxx serie (2002) is ATI met een dergelijke benaming begonnen (de 7xxx tel ik niet mee ,dat was nl altijd een 7000), terwijl nvidia dit pas sinds de FX serie doet (GeForce FX5xxx) uit 2003. Daarvoor heette het GeForce 1, GeForce 2 etc.

Daarbij bedoelde SRI volgens mij vooral op de uitgangen van nvidia (GTO, GT, GS, GSO, GT, GTX etc)
ATI werkt, als poepkop beschrijft zonder deze uitgangen.
Ik vind het wel knap dat je nVidia's naamgeving wel snapt, maar AMD's naamgeving niet. Ik zal als voorbeeld even de latere generatie's pakken. AMD's naamgeving is namelijk vele malen simpeler dan die van nVidia. Bij AMD heb je geen GeForce 8800Ultra Overclocked+ ofzo. Bij AMD heb je gewoon een HD4870 en die is dan hoogstens factory overclocked en wordt dan HD4870 OC genoemd. Zeg nu zelf, wat is duidelijker?
Om even verder te gaan, de 8800GT en de 9600GT van nVidia zijn in feite dezelfde kaarten, maar dan op een ander procedé. Ja, heel overzichtelijk :N
Het hele punt is, dat waar nVidia GT/GTX/GS/etc. had, AMD nu een **30/**50/**70 heeft en daaraan is makkelijker te zien welke sneller is.
Wat nVidia nu weer gaat doen met zijn namen weet ik niet, maar ik hoop dat het nu eindelijk een beetje overzichtelijk wordt en een beetje ricting AMD gaat, want dat systeem werkt gewoon! _/-\o_
Weet je wat ik nog steeds niet begrijp? Waarom ze in 's hemels naam die namen hebben veranderd. Persoonlijk vind ik een 6, 7 en 8 serie met daarin bijvoorbeeld een 8800GT en een 8600GTS (hoe lager het tweede getal hoe minder de prestaties, en in de volgorde van GS GT GTS GTX wordt daarin ook nog weer onderscheid gemaakt) een stuk duidelijker, overzichtelijker dan dat we nu een 200GT, een 280GTX hebben, dan daarna weer een GT100, GT120, en een GT130... Zo zien we door de bomen het bos niet meer :P
Het nadeel van die achtervoegsels is dat ze er bij elke serie weer een hoop bij verzinnen. De laatste jaren hebben we gehad: GT, GTS, GTX, GTO, LE, SE, XT, XTX, Ultra, Pro, GS, FX en ga zo maar door om nog maar te zwijgen van Turbocache. Ergste is nog wel dat bij de ene serie de GT sneller is dan de GS terwijl dat bij de volgende serie weer net andersom is. ATI heeft dit begrepen en is sinds de nieuwe naamgeving gewoon redelijk duidelijk geworden. Als nVidia slim is gaan ze dat vanaf de volgende serie ook doen, 1 lijn trekken en daar aan vast blijven houden. Nu zijn er DRIE series nVidia kaarten op de markt waarvan enkelen al met twee, drie namen. Sterker nog, er zijn verschillende kaarten in omloop met dezelfde naam, gewoon niet bij te houden als je een kaartje wilt kopen..
Inderdaad, NVidia lijkt echt verzot te zijn op de X in hun naamgeving :P Er moet vast een mogelijkheid zijn om bestaande (oude) series te omzijlen (ze gaan in de richting van de 400, denk aan de 440MX enzo) en toch 1 lijn te trekken. Dat zou t wel zo overzichtelijk maken. Denk aan automerken die hun productie nummer (BMW, Peugot, Mazda, Audi etc.) tegen degenen die overal uit de lucht geplukte namen aangeven, waardoor je geen idee hebt met wat voor segment of type je te maken hebt (Renault, Toyota, Kia, Ford etc.)
Het verschil met een auto is dat een videokaart een stuk minder duur is. Bij een auto doe je meestal even vooronderzoek en een testrit, daar boeien mij de namen niet echt.
waarom zou je bij aanschaf van een videokaart geen vooronderzoek doen?
Ergste is nog wel dat bij de ene serie de GT sneller is dan de GS terwijl dat bij de volgende serie weer net andersom is.
Binnen de fabrikanten was dat nooit echt (enkele kleine uitzonderingen erbuiten gelaten) het geval. Tussen ATI en Nvidia echter wel. Zo gebruikte XT om snelle kaarten aan te duiden (X800XT). Later kwam Nvidia met de 6800XT, een veel langzamere versie van de 6800. Aan de andere kant heeft ATI dan weer GT gebruikt om langzame kaarten aan te duiden.
Gelukkig maar, het wordt er een stuk duidelijker op :) Hopelijk blijft het deze keer ook duidelijk, dat ze niet weer gaan lopen rommelen want daar worden we niet echt vrolijk van.
Ben ik trouwens de enige die 1GB op de 9500GT GT120 en 1,5GB op de 9600GSO GT130 een beetje veel vind?
Is inderdaad een beetje vreemd, maar wel te verklaren. De doorsnee consument heeft niet echt een idee van GPU snelheid, shaders etc. en zal bij de aankoop van een videokaart (lees: meestal videokaart in aan te kopen PC) letten op de hoogte van het typenummer en het aantal MB geheugen, aangezien dat wel een eenheid is die begrepen wordt. De fabrikanten spelen daar opin door (relatief goedkoop) videogeheugen bij te plaatsen.

Dat zoveel geheugen totaal nutteloos is (zie hierboven), daar ben ik het niet helemaal mee eens. Je ziet dat GTA IV als eerste echt baat heeft bij 1GB grafisch geheugen; een mijlpaal en zoals meestal in de gamewereld zal men wel vooruit, maar nooit achteruit gaan in de benodigde specs. In de komende 6-12 maanden verwacht ik dan ook wel wat spellen die hier ook absoluut van profiteren. Aan de andere kant: voor deze kaarten zijn de prestaties dusdanig laag, dat ze sowieso niet fatsoenlijk zouden kunnen draaien op dat soort next-gen spellen, dus is zo'n hoeveelheid idd zwaar overdreven.
Zoveel geheugen op deze kaarten is dus wel totaal nutteloos. En daar gaat het om.
Zoveel geheugen op deze kaarten is dus wel totaal nutteloos. En daar gaat het om.
Iedereen zit dat hier te zeggen maar niemand zegt waarom...

Nu vraag ik me af, als de 256MB variant ideaal is, of de overige 768MB van de 1GB variant ongebruikt zullen blijven.

[Reactie gewijzigd door Blecchi op 5 januari 2009 18:57]

Nopes, ik zat er ook al raar naar te kijken.
Mijn HD4870 heeft "maar" 512 mb, en die is echt een heel stuk sterker.
Als ik met zo'n kaart genoeg heb aan 512, wat moet dan een veel zwakkere met 1,5GB?
nou is wel leuk om te gebruiken als goedkope quadro kaart....
waar dat extra geheugen wel nuttig kan zijn.
maar je heb absoluut gelijk.... voor 99.99% nutteloos....
misschien is het nog niet eens zo onlogisch om tragere kaarten wat meer geheugen te geven. De snellere kaarten kunnen immers hun geheugen sneller vullen, waardoor het wisselen van textures niet opvalt, maar bij de tragere kan dat wel een framedrop geven (als je geheugen vol was)
Sja ik denk eerder dat het toch baat heeft, je kunt textures dan sneller ongecomprimeerd opslaan in het geheugen. Vrijwel altijd worden textures gecomprimeerd opgeslagen in het geheugen, dat comprimeren en decomprimeren kost natuurlijk vrij veel tijd bij een langzame kaart. Neem die stap weg en sla het ongecomprimeerd op in het geheugen en de GPU hoeft wat minder te verwerken.

Nou weet ik niet of er spellen zijn die hier daadwerkelijk op letten of ze textures ongecomprimeerd kunnen aanbieden of niet. Maar het is wel een techniek om langzamere kaarten sneller uit de verf te kunnen laten komen.

Hier kunnen ze natuurlijk ook bepaalde benchmarks op los laten waardoor deze kaarten beter uit de bus komen dan concurrenten en dan krijg je weer een nieuwsbericht: NVIDIA verslaat ATI op de low-end reeks.

Geheugen is een stuk goedkoper dan een gpu, dat blijkt maar weer.
Hier wil ik toch iets aan opmerken:

In de jaren dat ik nog tweakte ;) heb ik eens met quake 3 benchmarks gedaan met en zonder gecomprimeerde textures. Textures zonder compressie waren iets mooier, echter was (en is) het met texture compressie aan een stuk sneller.

De logica is eenvoudig: textures zonder compressie zijn een veelvoud groter en het kost veel geheugenbandbreedte van de videokaart om de textures te verwerken. De decompressie van de textures gebeurt door de gpu welke er een speciaal stukje hardware voor heeft zodat dit zonder enige vertraging gebeurt (voor de gpu).

Het enige voordelen met compressie uit zijn ietwat mooiere textures en sneller laden van de game levels (stap om textures eerst te comprimeren wordt overgeslagen, het zou echter kunnen dat deze stap al niet meer bestaat omdat de textures al met compressie op je hdd staan, weet iemand dit?).

De snelheidswinst is ook logisch, met compressie is een texture 3-4 keer kleiner en zal dus ook 3-4 keer sneller naar de gpu verstuurd worden. :)
Anoniem: 188583
@DutchKel4 januari 2009 20:20
Heel veel geheugen aan die kaarten geven is puur marketingtechnisch bedoeld. De 'leken' die een computer kopen zien staan dat hun videokaart 1gb aan grafisch geheugen heeft. Afgaande op dat aantal denken ze een goede koop te sluiten. De performancewinst zal minimaal zijn.
Het enige interessante performanceverschil dat ik kan bedenken, is wanneer een niet-gamer een dual monitor setup gaat bouwen met 2x 20+ of groter.
Heb je met zeg 2x 1920x1200 dan meer dan 32MB nodig (bij 32 bit per pixel) als je alleen 2D draait?
is wel handig als je bepaalde high res (hubble achtige) afbeeldingen als achtergrond gebruikt, maar kan ook zijn dat die alsnog naar je ram gaan
2 schermen * 32 bpp * 1920 * 1200 * 2 double buffering = 294912000 bits = 35,15625 Megabyte.
Dit is dan enkel voor de framebuffer, je zal dus tenminste een kaart met 64 MB nodig hebben.
Double buffering is het proces dat 1 afbeelding die af is op je scherm staat en de andere (volgende) door je videokaart gefabriceerd wordt, mocht je geen double buffering hebben zou je veel op je scherm zien flikkeren, maar zoek zelf maar eens op. :)
Zoals Icec al suggereert is er hier nogal sprake van klok/klepel. Het heeft niet meer of minder zin om een snellere of langzamere kaart meer geheugen te geven. Zolang je genoeg geheugen hebt om alles dat je 3d applicatie je door de strot duwt op je videokaart op te slaan, gaat je kaart maximaal presteren. Zodra jij te weinig geheugen hebt moet je videokaart dingen gaan ophalen van het werkgeheugen of zelfs de hardeschijf, en dan ga je harde performance hits oplopen.

Dat snellere kaarten sneller hun geheugen kunnen vullen weegt helaas niet op tegen de langzaamheid van je geheugen vullen. Het blijft het aller langzaamste wat een videokaart kan doen en je wilt gewoon niet dat het hoeft.

Als je aan 512MB genoeg had, dan heb je nooit iets gedaan met je videokaart dat (tijdens het spelen/gebruiken) meer dan 512MB aan videogeheugen nodig had. En dat is best aannemelijk (hoewel spellen misschien hun textures downscalen adh je geheugen)
Als ik met zo'n kaart genoeg heb aan 512, wat moet dan een veel zwakkere met 1,5GB?
De meeste mensen helemaal niets.

Sommigen weer wel. Je kunt bijvoorbeeld in modbare games (bijvoorbeeld: Oblivion, Fallout3, etc, etc) de texture kwaliteit dusdanig verhogen dat 512MB echt niet toereikend is. Al kom je dan met een zwakke kaart zoals 'n 9500GT/GT120 ook niet echt ver.. Dus marketing.

Daarbij, veel MB's is natuurlijk wel handig als je een tijd vooruit kijkt. De meeste mensen upgraden zo eens in de 3-4 jaar als ze weer eens een compleet systeem kopen. En 4 jaar geleden werden er ook nog mid-high end kaarten met 256 MB verkocht. Niet dat je nu en straks met een kaart van 4 jaar oud veel prestaties zal halen, misschien dat de extra MB's net genoeg zijn om de minimale vereisten te halen mat zo'n relatief zwakke kaart, als je geluk hebt.. Dus marketing.

Imho puur marketing dus. Maar veel mensen trappen er in, verreweg de meeste mensen zien enkel "Geforce 1024MB" waardoor ze gevoelig zijn voor deze marketing. Daarbij komt dat deze kaartjes relatief erg goedkoop zijn en daardoor aantrekkelijk, dus zelfs tweakers willen ze nog wel eens halen omdat ze net binnen hun budget passen.

Mijns inziens zijn al die MB's eigenlijk pas nuttig als de kaart in verhouding krachtig genoeg is er het nu/straks ook daadwerkelijk nodig te hebben. Maar ik kan niet in de beurs van anderen kijken.

[edit.]
Typo

[Reactie gewijzigd door houseparty op 4 januari 2009 14:26]

Och, ken nog lui die een 8500GT met 512MB en zelfs 1GB kochten. Dat dat maar DDR2 was zagen ze niet, je wil niet weten dat er nog volk is dat de snelheid van een videokaart enkel op het geheugen af leest...
Precies. Juist nu geheugen relatief goedkoop is (ook de snellere video-varianten), kan er gemakkelijk worden geïmponeerd met zoveel-komma-zoveel gigabyte, zonder dat dit de prijs van de kaart drastisch doet stijgen.
Echter stijgt de winkelprijs hier wel mee, kassa kassa voor nVidia ;)
nvidia verdient niks aan videogeheugen hoor.
Nvidia verdient wel door de nieuwe namen. Klanten die niet bekend zijn dat Nvidia nieuwe namen heeft bedacht voor hun reeds bestaande kaarten zullen denken dat nVidia een nieuwe videokaarten reeks op de markt heeft gebracht. Hier kan een winkel weer 'misbruik' van maken door de prijs een klein beetje op te schroeven en het als een verkooppraatje te presenteren.

[Reactie gewijzigd door Zeror op 4 januari 2009 13:37]

Klanten die niet bekend zijn dat Nvidia nieuwe namen heeft bedacht voor hun reeds bestaande kaarten zullen denken dat nVidia een nieuwe videokaarten reeks op de markt heeft gebracht.
Volgens mij sla je de spijker op zijn kop :P Als ze niet bekend zijn met de nieuwe benaming waren ze het waarschijnlijk met de oude ook al niet. Het zal die groep mensen waar het om gaat ook maar weinig uitmaken hoor.

[Reactie gewijzigd door pcgek op 4 januari 2009 14:15]

Dit is niet iets van nu hoor. Je had Nvidia TNT2 M64's met 32 MB geheugen terwijl de Voodoo 3 met 16 MB veel betere performance had.

Die fout heb ik maar 1 keer gemaakt :)
Waar, ik had een VooDoo3, maar op den duur werd de beperkte resolutie (max 800x600 als ik het me goed herinner) en de kleurlimiet van 16bit kleur wel een beetje saai. Daartegenover stond het feit dat praktisch alle games toen Glide ondersteunden. En dat was MOOI en SNEL! Diablo 2 was smooooth en mooi!

[Reactie gewijzigd door Umbrah op 4 januari 2009 12:44]

voodoo3 en maar 16 bit an 800x600? hoe kom je daar bij?
ik heb jaren gegamed met een voodoo5 5500 (zelfde chip als het goed is, maar dan 2) op 1600x1200 en ik weet zeker dat ik wel 32bit had. heel zeker.

edit : voor de Unreal 1 engine (unreal1, ut99) was er niks beters als voodo5. en daar heb ik jaren lang nog mod's voor gespeeld.
tot ik een ATI 9700pro kocht was er voor mij niks beters op de markt, zeker ook niet qua gfx kwaliteit (op de unreal 1 engine) ze waren zelfs de enige die FSAA fatsoenlijke konden doen.

en laat maar eens zien wat je bedoeld met wat screenshots wat volgens mij klopt daar echt niks van wat je zegt.

[Reactie gewijzigd door Countess op 4 januari 2009 14:01]

Anoniem: 73840
@Countess4 januari 2009 13:23
tja had hem maar eens gehangen naast een pc met een echte grafische kaart...

ik heb dat wel eens gedaan... jemig... van een blokkedoos achtig uitzicht op de voodoo

naar een fantastische mooi landschap op de normale videokaart
(@ matrix)

Een voodoo is een echte grafische kaart hoor, en als je hem met een 7800gtx of iets dergelijks gaat vergelijken ben je fout bezig :(

Ten tijde van de voodoo was deze heer en meester, zeker als je er 2 in sli had, dat was toen high end, ati en nvidia konden hier niet aan tippen toendertijd.

Helaas bestaat 3dfx niet meer, ze liepen echt voorop qua techniek...

[Reactie gewijzigd door Anoniem: 263922 op 4 januari 2009 13:49]

Nee ze sprongen toen in een gat in de markt. 3D acceleratie. Met nadruk op acceleratie want 3D was er al. Hun competitie was de zwakkere Rendition. Ook add-on. Ik zou eerder zeggen dat ze door hun performance voorop liepen.
En dat is makkelijker als je eigen lean @ mean Glide API op je hardware afstemd.
En daarmee voor een poos de competite afblocked. Zit je met pure glide games dus gebeiteld.
Dus geen DX abstractie layer geen standaard API. Maar glide die toen heerste.
Dan liep 3DFX toch al snel achter waar de competitie al T&L integreerden toen Dx en openGL door kwamen en ook voor 32bit gingen.

3DFX ging op de fless omdat ze in tegen stelling tot nV en Matrox en ATI helemaal afhankelijk waren van retail game markt. Dat is hun core bussness. Terwijl de anderen meerdere markten bediende zoals Matrox meer professioneel en nV en ATI in de OEM markt sterk staan. Kunnen dus flexibler tegen slagen incasseren.

Dan is Quad SLI op één kaart 'n nog grotere productie kosten fiasco dan de GT200 nu, plus de noodzaak van een apparte voedings blok wat mee geleverd moest worden in die 250Watt tijdperk. Die VSA100 chips werden toen ook op een procedé achterstand gemaakt dacht 0,35.

Ja met Voodoo 1 en 2 addon hun begin tijd hadden ze door glide de markt voor zich alleen. Maar dit ligt ook deels door hun alleen recht op glide. Dus onatuurlijk markt overheersend. Terwijl nV opkwam met de opkomst van DirectX en openGL.

Die Addon's samen met 'n 2D kaart ook een vermogen was.

De eerste en laaste voodoo was voor mij de banshee.
Betaalbaar en je kon ermee ook glide games mee spelen.
Voodoo 4 en voodoo 5 waren dezelfde chip, Voodoo 3 was een generatie eerder. Deze kon nog geen FSAA en ondersteunde ook geen 32bit rendering. Het was eigenlijk de eerste kaart waarbij 3DFx de mist in was gegaan door niet over te stappen naar 32 bit waar de concurrentie dat wel al deed. Naast dat de concurrent veel mooier beeld gaf, was de gelijkgeprijsde TNT2 ook nog eens sneller (als je CPU maar snel genoeg was).

Met de VSA-100 chip waren ze een tweede keer de mist in gegaan, met een veel te dure oplossing, die te veel energie verbruikte, en alleen maar DX6 ondersteunde terwijl 7 (met als zeer belangrijke toevoeging T&L) al een poosje uit was. Daarnaast had hij moeten concureren met de Geforce 1, maar door de vele vertragingen was de Geforce 2 zelfs al uit, en deze maakte hem qua performance en features van alle kanten in.

Tevens konden de Geforce 2 en 3 ook perfect FSAA doen in alle spellen (2 moest flink inleveren qua perfromance maar dit was bij 3 al flink verbeterd).

[Reactie gewijzigd door knirfie244 op 4 januari 2009 21:15]

800x600 was voodoo 2 (doorluskaart net als de eerste), voodoo3 kon prima 1024x768 (misschien ook wel hoger). Heb er nog steeds een liggen, heb er zoveen plezier van gehad (quake2 tijd) dat ik het niet over mijn hart kan krijgen hem weg te gooien ;))
Weet het wel zeker, een grote 3dfx fan en vóór nvidi's opmars met gpu's altijd 3dfx voor gaming. De Voodoo3 3000 had support tot 2048x1536.

*googled even benchmark*

28.3 fps in Unreal op een Celeron 416 met 1280x1024
http://www.pcstats.com/ar...cfm?articleid=1182&page=6

Features (resolutie) bron:
http://www.sharkyextreme.com/hardware/3dfx_v3_3000/d.shtml

@Duke, heb hem ook nog Voodoo3 3000 en een voodoo2 "museumstukken" ^^
800x600 was Voodoo 1 en mogelijk ook de ik geloof 8mb versie van Voodoo 2. De Voodoo 2 met meer geheugen kon al 1024x768. Ik weet dat vrij zeker, aangezien dat voor mij een reden was om de dikste kaarte te kopen die toen uit was (de Voodoo2 met het meeste geheugen) tegen advies van de verkoper in.
heb een voodoo2 config gehad toendetijd icm een p2 450
Zover ik weet kon je pas 1024*768 draaien met 2 kaarten in sli.
Je had toen 8mb en 12 mb kaarten en ik had er toen 2 van 12 mb
Anoniem: 166187
@Andros4 januari 2009 12:54
Beetje hetzelfde als het volk wat camerakwaliteit relateert aan het aantal megapixels...
Is toch niet hetzelfde hoor. Een groot aantal megapixels is bij een camera (en dan vooral de compacts) eerder een nadeel dan een voordeel. Het heeft er mij van tegengehouden om een compact te kopen genre coolpix/powershot. Dat er excessief veel geheugen op een videokaart zit heeft voor zover ik kan zien geen nadelen. Het is gewoon marketing.
Wat is er daar mis mee? Dat zijn gewoon heel degelijke kaarten. Ik heb zelf de 256MB variant en ga binnenkort de 512MB variant aankopen, dit is trouwens de enigste die nog vlot beschikbaar is van de twee. De 1GB variant langs de andere kant is dan weer zijn geld niet waard. Algeheel vind ik het zeer goede kaartjes. Imo de beste price/performance ratio op de markt. (De 512 MB variant koop je al voor iets meer dan €50) Je kan er vlot nieuwe games mee spelen. Trouwens in die prijsklasse is DDR3 ook nog niet zo algemeen. Wat is er dan mis mee als mensen die dat kopen omdat ze die prijs willen uitgeven of dat maar nodig hebben dat jij er zo een ongefundeerde negatieve reactie op geeft?
Heeft Nvidia of ATI ook een build tree om te snappen welke wat is door al de jaren heen?
Zou wel makkelijk zijn! Beantwoord een hoop misverstanden en vragen door de naamgevingen die niet altijd duidelijk zijn. Daar zal iedereen wat aan hebben. Ook de minder ervaren tweaker! Het moeilijke is natuurlijk de fabrikanten die hun eigen naamgevingen hebben. maar je zou de referentie modellen kunnen splitsen en de speciale een aparte tree geven :)
het meest duidelijke overzicht dat ik tot nu toe ergens gevonden heb:

http://www.tomshardware.c...orce-graphics,2086-7.html

elk begin maand komt er een nieuw artikel uit op tomshardware. en dan wordt deze lijst weer geupdate met de nieuwe kaarten.
Maar dat is het hem ook, ze willen niet dat het te duidelijk wordt. De consument moet geloven wat er op de mooie doos staat, super snel, beter dit en dat.

Dan ga je er niet op zetten midrange, of wat dan ook, wat het voor doet als slechter of beter als een andere kaart. Nvidia wil dat de consument van elke kaart zou kunnen denken dat het een hele goede is, of de beste.

Voor de insider is het allemaal redelijk duidelijk, maar de gemiddelde consument houdt zich er totaal niet mee bezig.

De nieuwe naamgeving zal dan denk ik ook niet echt er zijn om Jan met de pet te laten weten wat het nou precies is. Het gene wat ze gebruikte zat gewoon aan zijn limit.
Je kan na 9900 alleen nog maar 10.000 nog wat gaan bedenken, of met letters verder gaan kloten.

Maar ze gaan nu dus gewoon weer helemaal terug, naar 130 etc.
Ik zie het eigenlijk meer als hetzelfde maar dan van voor af aan.

Het zal nu alleen in het begin wat duidelijker lijken, omdat ze alleen de huidige kaarten gaan hernoemen en dat er niet zoveel zijn. Ik denk dat ze gewoon weer flink gaan knoeien met extensies, alleen al marketing technisch, om , om de zoveel maanden met een nieuwe extentie benaming te komen, om het nieuws weer te behalen.

same shit different day.
Waar gaat dit nou over :( voor de 3e keer dezelfde kaart hernoemen. En er zullen consumenten zijn die denken dat de kaart sneller is maar wat niet het geval is. Het lijkt er op dat nVidia alleen nog maar kan rebranden. Dat je dat een keer doet oke. Maar dit is al de 3e keer dat ze hetzelfde gaan rebraden. Toen ATi de HD3870 in het leven riep was het meer dan een op 55nm geproduceerde chip. Deze had namelijk ook nog DX10.1 support gekregen. Maar bij nVidia verandert er na genoeg niets. Clocks worden 10 MHz opgeschroefd en tata nieuwe kaart.
Waar gaat dit nou over :( voor de 3e keer dezelfde kaart hernoemen. En er zullen consumenten zijn die denken dat de kaart sneller is maar wat niet het geval is.
Denk dat de gemiddelde consument niet eens van naamsveranderingen afweet. Ze stappen de winkel pas binnen op het moment dat ze een bepaald spel niet kunnen spelen, of als de oude kaart het begeven heeft.
Daarna laten ze zich 'voorlichten' door een verkoper, en kopen op basis van die informatie een videokaart. ;)
Maar dan nog vind je het zelf netjes ? Of gaan we met z'n alle dit soort praktijken goedpraten en dus zorgen dat nVidia ziet dat het werkt en het dus nog vaker zo gaat doen ?
Voor ons is het wat verwarrend , omdat wij wel alles van begin tot eind bijhouden.

Maar wat maakt het voor de kenners nou uit, die kopen toch een kaart aan de hand van specificaties, en niet op type of naamgeving. ;)
Een kenner koopt geen kaart aan de hand van specificaties, omdat iedereen wel weet dat specificaties niet alles zeggen. Een kenner weet sowieso wel in welke richting hij moet zoeken, en gaat dan op zoek naar reviews van betrouwbare sites, en nadat hij het hele net heeft afgepluist koopt hij de kaart die het beste bij hem past.
Anoniem: 79727
4 januari 2009 12:57
Ik wilde eigenlijk even wachten tot de nieuwe 55nm gebakken kaarten uitkwamen, met de hoop dat de oude kaarten in prijs zouden dalen. Maar kan ik nu begrijpen dat dit niet het geval is en dat ze de andere m odellen ook op 55nm gaan bakken ?
Ik snap de G100 even niet.
Voor zover ik weet had Matrox een kaart met de naam G100 vroeger. Raar van nvidia om dat over het hoofd te zien.
Denk niet dat daar veel mensen over gaan vallen. Vergeet niet dat ATI jaren geleden de Radeon 7000, 8000 en 9000 series had. Veel mensen hebben indertijd nog een Radeon 9800pro gehaald, is er iemand in verwarring geweest toen nVidia met de Geforce 7000, 8000 en 9000 series kwam?
Anoniem: 254773
@Andros4 januari 2009 13:44
Inderdaad, slecht weinig mensen zullen bij G100 direct aan de Matrox (Millenium) G100 denken. Als ze rekening moeten houden met de nummering van de productiemodellen van andere fabrikanten, blijft er weinig over. Zo had je natuurlijk de Trident 8800 (en bekender de Trident 8900) of de Tseng Labs 3000, 4000 en 6000 VGA-compliant grafische kaarten.
Nou ja... je moet niet weten hoeveel mensen niet met de vraag komen of ze beter kunnen gamen met een andere videokaart.
Dan hebben ze dus een 9600-kaart. Van ATI.... (als je verder doorvraagd)
Misschien niet helemaal de tweakers-doelgroep. Maar verwarrend kan het best zijn.
Ze kunnen bij het uitbrengen van een kaart toch veel beter meteen er bij zetten om wat voor kaart het gaat (welk sigment). Niet een nieuw nummer verzinnen maar iets wat herkenbaar is b.v. kloksnelheid en dan high-end of zo.
Iets zoals:

899HE -> 899Mhz en high-end
677MR -> 677Mhz en Mid-range
480LB -> 480 Mhz en Low-Buget.

Dan moet het toch veel duidelijker worden denk ik. :*)

Ik wordt er al een paar jaar niet meer wijs uit wat nu de goede kaart is voor mijn systeem die binnen mijn buget valt tegen de tijd dat ik er uit ben zijn er altijd al weer nieuwe kaarten op de markt en dan kan ik weer opnieuw beginnen met vergelijken.

[Reactie gewijzigd door Pulpje1974 op 4 januari 2009 14:00]

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee