Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: IT.com.cn

Op de Chineestalige site It.com.cn zijn enkele slides verschenen waaruit blijkt dat nVidia aan het eind van deze maand en halverwege september twee nieuwe videokaarten zal introduceren. De GeForce 7900 GS en de 7950 GT zijn twee middenklassers met een adviesprijs van respectievelijk 199 en 299 dollar. De GeForce 7900 GS zal 30 augustus geïntroduceerd worden en biedt een 450MHz core, geheugen op 1,32GHz en 20 pixel pipelines. De kaart is uitgerust met 256MB geheugen en kan optioneel HDCP-ondersteunen. De GeForce 7950 GT zal 14 september geïntroduceerd worden en biedt een 550MHz core, geheugen op 1,4GHz en 24 pixel pipelines. Verder is de kaart uitgerust met 512MB geheugen en HDCP-ondersteuning is standaard aanwezig. Hiermee wordt de kaart gepositioneerd tussen de GeForce 7900 GT en de GeForce 7900 GTX die standaard op respectievelijk 450/1320MHz en 650/1600MHz lopen.

nVidia-slide met informatie over de GeForce 7950 GT
Moderatie-faq Wijzig weergave

Reacties (78)

299 dollar middenklasse?
Nah, wat je zegt.
Mijn eerste high-end kaart was een GF1 DDR (toen het beste van het beste). Kostte me 675 gulden (ongeveer 300 euro). Dat deze prijsrange nu middenklasse wordt genoemd is redelijk zorgelijk.
Ik vind het een hoop geld voor een videokaart....

Mijn definities
0-100 euro = low end (en onboard)
100-200 euro = middenklasse
200+ = highend
300+ = "krankzinnig"
er zit ook nog wel een x jaar aan inflatie tussen, het is niet duurder geworden, de prijzen zijn hoger :P
300 gulden is geen 300 euro geworden in 10 jaar. inflatie is ongeveer 4 % per jaar.

50 tot 60 % zou na 10 jaar dan logischer zijn
Oh ja? Een mars koste 1 gulden...max fl.1,25. Wat kost een chocloade mars reep nu? Juist...dus echt wel 200% inflatie.
Nou, mijn GeForce256 kostte nochtans echt wel 20000BEF hoor (500 euro)
ik weet nog wel dat ik zat te kwijlen op een geforce2 ultra in een PC blad, en dat ding zou 900 gulden kosten. dat is wat meer in de richting van hedendaagse high-end prijzen.
Ik denk dat het erg samenhangt met de games. GarBaGe had vroeger voor ¤300 een geweldige kaart waarmee hij alle games met alle settings aan / alles op het hoogst / ongekend de resolutie gewoon met de maximum framerate kon spelen zonder framesdrops. Wanneer men echt voor laten we zeggen het dubbele (¤600) een kaart koopt, dan kan je zeggen dat je alle games gewoon 'goed' kan spelen. ¤300 ligt daar natuurlijk al ver onder, en deze kaarten behalen ook niet al te veel FPS in de nieuwere games, wanneer men ook nog een mooie effecten wil hebben. ¤200 is dan ook absoluut nog ergens bovinin de lage klasse / lage middenklasse.

Vroeger kocht je voor 5 cent een ijsje...
Sterker nog: Ik kocht nog zoethout voor 1 cent dat lukt je tegenwoordig ook niet meer ;)
ach, mijn 7900gt van 300 euro draait alles prima hoor.

1600x1200, full kwaliteit bij bf2
ietsje minder bij alle nieuwste games, maar we moeten nvidia natuurlijk ook een beetje blijven pushen om steeds betere kaarten te maken :)

verder als je echt veel gamed koop je maar fijn een SLI setup, dat werkt ook best aardig blijkbaar :)
Precies, m'n 7900GT draait Counter-Strike: Source op 1280x1024 met 8 x anti-aliasing, 16 x anisotropic filtering en HDR in de map Militia (=extreem zwaar) met gemak.
ik kocht destijds een OAK videokaart voor 159 gulden maar ik heb nog heel lang getwijfeld of ik toch niet beter die Tseng Labs ET-4000 gebaseerde kaart kon nemen van 299 gulden. die had namelijk 1MB geheugen en kon hoge resoluties non interlaced weergeven!

tegenwoordig koop je voor de prijs van een mid-range videokaart een game console (xbox 360) en moet je je kaart elk jaar verversen om de nieuwste spelletjes te kunnen spelen..
Het gaat tegenwoordig inderdaad wel héél wat sneller dan vroeger. Maar als je een high end kaart koopt, dan kan je wel een aantal jaar verder. Zo draait men X800 XT PE nog altijd praktisch alle games erg vlot en die is toch ruim anderhalf jaar oud, hetzelfde geldt voor de 6800ultra. Dat je elke jaar je kaart moet verversen is imho zwaar overdreven.

Van de mensen die in de tijd een radeon 9700pro hadden gekocht, hebben de meeste 2,5 jaar met de kaart voort gekunnen. Het hangt er gewoon vanaf wanneer je wat koopt.
he, bedankt he ;)

* whizzy81 heeft nog steeds een 9700pro
nVidia heeft gezegd geen AGP kaarten meer te gaan maken.

Maar ik baal wel als er nu een 7900 versie voor AGP uitkomt aangezien ik pas de Gainward Bliss 7800GS+ heb gekocht. :z
Waarop baseer jij dat deze GS een AGP-versie wordt? GS is een 'mindere' kaart, en aangezien AGP z'n beste tijd wel heeft gehad, wordt deze 'middenklasse' kaart dus een PCIe versie :)
AGP is het slachtoffer geworden van PCI, als PCI niet vervangen had hoeven te worden was AGP in de basis beter.
Link
Hmm, even in perspectief zetten

AGP is niet de opvolger van PCI. Het is meer een manier om meer banbreedte uit PCI te krijgen voor videokaarten. Behalve videokaarten past daar niets in.

PCIe is dan ook geen opvolger van AGP, maar wel van PCI.

Onlangs zijn er nog tests uitgevoerd om te zien of AGP 4x een pak trager was als AGP 8x voor de GeForce 7800GS. Het grootste verschil in performance was +/- 5%. Ga dan niet zeggen dat AGP 8x te krap is.

Ik herinner me nog voor de introductie van PCI-express dat men overal schrik had dat het niet ging aanslaan, aangezien er geen nood was om AGP te vervangen. Toms hardware had daar nog een uitbgebreid artikel over geschreven. Marketing + geen kaarten voor AGP meer uitbrengen heeft ervoor gezorgd dat we wel moesten overstappen, zelf al was er voor de performantie geen nood voor een overstap.

Vergeet trouwens niet, bij elke nieuwe DirectX-versie neemt de GPU steeds meer taken over van de CPU, wat resulteert in verminderde behoefte aan meer bandbreedte.
Vast wel, maar dat is nu niet zo.

Bovendien is AGP de opvolger van PCI, en PCIe de opvolger van AGP. Het feit is, dat PCIe een hogere bandbreedte heeft, en dus meer kan doorvoeren. Vast leuk dat niet alles gebruikt wordt, maar AGP wordt gewoon te krap. Je gaat toch ook niet zeuren dat er geen slot 1 CPU's meer te krijgen zijn, en dat ze slachtoffer zijn geworden van de socket :?
@nAFutro: Dat ASrock plankje heeft een tot 8x/4x beperkte PCI-e slot, niet echt een eerlijke vergelijking.
@needless to say: Ik kan me vergissen hoor, maar ik geloof dat de bandbreedte van een AGP-kaart naar de systeembus één of twee tikkeltjes abominabel klein is, vergeleken met PCI-express. (Het laten mee-encoden van je GPU aan films, anyone?)

Dus als je dat veel doet zou dat een punt kunnen zijn. Bovendien, als de GPU steeds meer taken overneemt van de CPU, zoals jij schrijft, moet er dan niet meer data naar je GPU en heb je dus meer bandbreedte nodig?

't Zal aan mij liggen hoor, maar dit komt mij nét iets logischer over ^^;
@The Widow Maker

Wel AGP mag dan wel "oud" zijn. Veel systemen hebben nog meer dan genoeg CPU/rekenkracht om een moderne videokaart van data te voorzien. Ik denk bevoorbeeld aan mijn overklokt Athlon XP2800+ machientje... Op de koop toe gebruiken de nieuwere videokaarten nog niet eens PCI-E 16x bandbreedte volledig. Tegenwoordig levert AGP nog voldoende.

En als ze nu eens van die PCI-E 16x connector zouden afstappen (gezien hij toch nog niet nodig is) kon ik misschien één van die kaartjes in mijn dual Xeon workstation (met PCI-E 8x sloten) steken. (De Matrox G550 op PCI-E 1x is de enige die ik erin zou kunnen pluggen op de moment)
Je kunt ook de achterkant uit het 8x slot zagen, als er achter dan plaats is voor het uitstekende gedeelte natuurlijk.
als je nu werkelijk denkt dat nVidia/Ati zich gaat bezig houden met kaarten maken voor die paar tweakers die willen upgraden... grappig
Toch meen ik dat vittunwasted gelijk heeft; er is nog behoorlijk wat vraag naar agp kaartjes, en een videokaart word over het algemeen veel eerder een bottleneck dan een cpu. Zat mensen dus met een p4 3.0 ghz en een agp bordje die nog prima de nieuwste spellen aan had gekunt mits er nog agp kaarten voor waren.

Als de 7800 gs extreme edition beter leverbaar was geweest had ik er in ieder geval zat van kunnen verkopen...
Wanneer er werkelijk zoveel vraag naar was, dan zouden deze kaarten wel bestaan. GPU fabrikanten doen daar echt wel onderzoek naar, want ze willen namelijk zoveel mogelijk geld verdienen.
@ hoztmaster

De enige vernieuwing van AGP naar PCI-E was niet alleen de bandbreedte, volgens mij is er veel meer veranderd (irq gedoe etc.) en nu is er 1 "standaard" voor zowel video als gewone kaarten namelijk PCI-E, alleen even kijken of je nog een slot met voldoende snelheid hebt.

Ook is je stelling niet waar denk, het zijn niet een paar tweakers, maar (bijna) elk nieuw moederbord word geleverd met PCI-E, zowel de AMD's (nForce 4) en de Intel's.

Ook is het upgraden van een computer met AGP meestal toch al een probleem omdat de CPU nu vaak de videokaart limiteerd, ik heb hier zelf een AMD 2400+ die mijn 6600GT toch wel limiteerd, dat merk ik door dat het oc-en van mijn videokaart me echt bijna geen snelheid opleverd, maar het oc-en van mijn CPU heel wat meer FPS.

met een 2800+ / 3200+ is dat misschien een ander verhaal.

Grtz
Wanneer komen ze nou eindelijk eens met direct X 10 kaarten. De kaarten die ze nu op de markt berngen zullen toch niet zo goed verkopen omdat veel mensen wachten op direct X10 en Vista voordat ze upgraden.
Geloof het of niet, maar er is meer onder de zon dan Windows, en lang niet iedereen zit op Vista te wachten...
Voor die paar games die niet op windows uit zijn hoef je niet zo'n kaart te kopen, en voor modellen/renderen is ook niet echt een mega markt he.

En Mac + Bootcamp wordt toch ook DX10.
DirectX 10 is nog niet uit. Wat wil je, dat ze kaarten maken op basis van een draft van DirectX 10? DirectX 10 wordt enkel gebruikt wanneer je kaart 100% van de features implementeert, wat niet gaat gebeuren wanneer je kaart gebaseerd is op een draf van de standaard. Dan heb jij een zogenaamde DirectX10-kaart gekocht die alles in DirectX9 moet renderen.
De voorwaarden om DX10 te ondersteunen zijn er alllang ik snap ook niet waarom er nog geen DX10 ready kaarten zijn.
de eerste kaarten van een nieuwe DX blijken vaak de uiteindelijke games voor die DX versie toch niet echt goed aan te kunnen, dus waarom dat probleem nog verder verergeren door dx10 kaarten nog vroeger uit te brengen?
De eerste ATI DX9 kaarten konden anders nog aardig mee in HL2
http://www.gamedev.net/reference/articles/article1775.asp

Dit artikel maakt hopelijk duidelijk wat een vreemde uitspraak je eigenlijk doet :)

ff wat quoten:
DirectX is only updated every year or so, which is a little slow considering how fast the graphics industry moves. They make up for this somewhat by working closely with graphics vendors and adding support for things aren't yet available. Also, when new features are introduced, Direct3D offers a standardized way of accessing them.
En dan dit uit deze pagina
In general, Direct3D is designed to be a 3D hardware interface. The feature set of D3D is derived from the feature set of what hardware provides. OpenGL, on the other hand, is designed to be a 3D rendering system that may be hardware accelerated. As such, its feature set is derived from that which users find useful. These two API's are fundamentally designed under two separate modes of thought. The fact that the two APIs have become so similar in functionality shows how well hardware is converging into user functionality.
Terwijl deze Wiki hem afmaakt:
Direct3D 10 will forego the current DirectX practice of using "capability bits" to indicate which features are active on the current hardware. Instead, it will define a minimum standard of hardware capabilities which must be supported for a display system to be "Direct3D 10 compatible".
Voor de eerste keer dus eigenlijk dat de hardware DirectX moet volgen i.p.v. DirectX de hardware.

@switchboy hieronder:
Microsoft gaat geen zut implementeren of verplichten waar de GPU ontwikkelaars niet allang mee bezig zijn. Misschien zijn de huidige/eerst-volgende generatie videokaarten alwel DX10 gereed. Punt is, niemand gaat jou dat vertellen tot nadat Vista uit is, samen met een nieuwe reeks high end (lees dure) videoplanken.
Ik zou nu al graag kaarten aangekondigd zien met het unified shader model en andere DX10 functies. dan weet je tenminste wat je moet verwachten en kan je je er een beetje op oriënteren.
Is de 7950 GT Nou beter dan de 7900 GT? kloksnelheden duiden er wel op en de 512 mb. Waarom introduceren ze hem dan voor minder dan de 7900 GT (die in mijn ogen toch wel een topmodel is na de gtx)
Die prijs zal dan ook wel gaan zakken. Hij zit iig tussen de 7900GT en de 7900GTX in
Hiermee wordt de kaart gepositioneerd tussen de GeForce 7900 GT en de GeForce 7900 GTX die standaard op respectievelijk 450/1320MHz en 650/1600MHz lopen.
Even lezen vriend ;).
Ze hoeven toch hopelijk niet bij ieder artikel van een nieuwe kaart te vermelden dat alle andere kaarten in prijs zullen dalen? das logisch.
Vraag me af of er ook een versie komt voor de "gewone"agp ........
AGP is oud, dat gaat eruit, waarom zouden er dan nog kaarten voor komen :P
Ach ...

De GeForce 7950 GT zal 14 september geïntroduceerd worden en biedt een 550MHz core, geheugen op 1,4GHz en 24 pixel pipelines. Verder is de kaart uitgerust met 512MB geheugen

Die heb ik al .... voor AGP. Het is de Gainward 7800 GSplus.

Die heeft een 7900 core met de volle 24 pipes (G71) en 512 Mb. Die kan zonder enige aanpassingen moeiteloos op de 7950-snelheden draaien. Alleen de HDCP ontbreekt.

De AGP poort is in het geheel geen enkele bottelneck ofzo. Dat laat maar zien dat AGP te grave wordt gedragen, terwijl daar nog prima dingen mee te doen zijn.

Dus AGP is helemaal niet zo oud als mensen willen geloven.
Het gaat ook niet om het feit of AGP wel of niet snel genoeg is.

Er is een opvolger voor agp die steeds meer marktaandeel inneemt en daar richt nvidia zich op.

Als ze ook AGP nog willen voorzien dan moeten ze weer een aangepaste pcb en bridge chip voor maken en waarschijnlijk is dat niet meer rendabel genoeg.

AGP wordt ten grave gelegd omdat PCI-Express gewoonweg meer voordelen heeft en AGP zal een bottleneck gaan worden, waarom zou je dan wachten met het gebruiken van nieuwe technologie terwijl die er al is en beters is?
Ik denk dat 7950gt met een hogere vcore zal komen, waardoor je dus geen voltmod meer hoeft uit te voeren om gtx snelheden te halen...
Voor upgraders? ik heb net nog een AGP 7600GS bij een van m'n vrienden er in gezet.
als je van socket 775 A64 af komt zijn agp kaartjes nog best intteresant om te kopen ipv nieuw mobo + cpu + geheugen...

goede inzet van nVidia, kan weer goed geld in het laatje brengen.

wanneer komt ATi met zijn nieuwe range?
Jammer dat ze geen AGP kaarten meer maken. Zo slecht presteert het niet.

Denk ook niet dat zo'n kaartje in PCIe uitvoering zoveel beter presteert dan als het een AGP uitvoering was geweest.

Dat AGP wat ouder is, is waar maar om nu meteen te beweren dat het afgeschreven moet zijn.

Er zijn nog vreselijk veel pc's met AGP op het MB waarvan mensen echt wel een keer willen upgraden.

Die paar tweakers die nu voorop lopen zijn echt niet belangrijk voor de vervangingsmarkt en de mensen die een nieuwe pc kopen met een PCIe kaart erin ook niet.

Dus ik snap eigenlijk niet waarom Nvidea deze markt laat liggen (Mischien een kans voor ander fabrikanten?).
Heel simpel: Nvidia maakt ook chipsets voor mammaplanken. Mensen die hun AGP videokaart willen upgraden hebben nu weer een nieuwe mammaplank nodig. Tel uit je winst.
Lees de 5e reactie van boven (van G_M_C)

Betreft: 7900 GT Core op een AGP kaart...
Hmm, wellicht als dezelfde core gebruikt wordt, kun je van de 7900GS misschien een 7950GT maken...(unlocken van pipelines en overclocken). Soort 6800LE --> 6800GT verhaal.
Bij de G70/G71 kaarten zijn de pipelines lasercut, dus dat zal je niet gaan lukken.
Bijna juist: men gebruikt zogenaamde 'fuses'. Die worden elektrisch opgeblazen ipv met een laser. Dat is een stuk goedkoper en heeft ook het voordeel dat je ze kan opblazen nadat de chips al in hun verpakking gestopt zijn. Zo hoef je pas laat in het productieprocess beslissen welke functionaliteit geactiveerd wordt (desnoods zelfs pas al de chip op de PCB staat.)

Laser cuts worden eerder gebruikt in analoge componenten om vb. weerstanden te trimmen. Maar het is een dure oplossing die in de praktijk weinig populair is.
Misleidend... Je zou denken dat een 7950gt beter zou zijn dan een 7900gtx. Misschien doen ze dat om met ati mee te gaan met hun nieuwe 1950xtx.

Ik dacht overigens dat de 7600 meer middenklasse was.
De 7600GT is nu middenklasse, maar zoals er steeds snellere high-end kaarten uitkomen, wordt ook de middenklasse steeds sneller, wat niet meer dan logisch is. In het begin zal de kaart tussen de midde- en hoge klasse in hangen, maar hij zal na verloop van tijd middenklasse worden.

Vergeet ook niet dat de kaart eind augustus pas gelanceerd wordt, en dus begin oktober o.i.d. pas goed te krijgen zal zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True