Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 100 reacties

Zoals verwacht lanceren fabrikanten van videokaarten vandaag hun eerste producten die zijn gebaseerd op nVidia's 8600- en 8500-videochip. Gigabyte, MSI en Leadtek bijten de spits af bij de introductie van de midrange-kaarten met ondersteuning voor DirectX 10.

Gigabyte 8600 GTS GV-NX86S256HGigabyte combineert bij de GV-NX86S256H een 8600 GTS met Silent Pipe 3. Deze nieuwe variant van de Silent Pipe-technologie introduceert een koelingstechniek die Gigabyte 'Inner Turbulence Fluid Mechanics Design' noemt. Dankzij meerdere lagen van lange en korte vinnen zou statische airflow transformeren tot een turbulente luchtgolf in de heatsink, wat bevorderlijk is voor de warmteafvoer. De GV-NX86T256D die de 8600 GT meetorst moet zijn verkoeling nog bij Silent Pipe II zoeken. Beide planken zijn wel voorzien van hdcp en ondersteunen de physics-technologie Quantum Effects en nVidia’s Lumenex-engine, die 16x anti-aliasing en 128-bit floating point hdr rendering brengt.

MSI 8600 GTS NX8600GTS-T2D256EZ-HDMSI introduceert naast de NX8600GTS-T2D256EZ-HD ook een overclockersversie van deze kaart. De fabrikant heeft daarvoor de core clock verhoogd van 675Mhz naar 690MHz en de geheugensnelheid in plaats van op 1000Mhz, op 1050Mhz gezet. Zowel de standaard- als de overklokkersversie beschikken over hdcp, in tegenstelling tot de planken die MSI baseert op de 8600 GT-chips. Alle kaarten bieden daarentegen wel ondersteuning voor Lumenex en 128-bit floating point hdr rendering. Bovendien kunnen ze overweg met PureVideo en Hardware Decode Acceleration, voor het vlekkeloos afspelen van onder andere H.264 en VC-1.

Leadtek PX8600 GTS TDH Extreme Leadtek heeft nVidia's midrange-chips verwerkt in de WinFast PX8600 GTS, PX8600 GT en de PX8500 GT, waarbij de PX8600 GT en GTS ook in een extreme-variant verschijnen. Bij Leadtek houdt dit in dat de core clock van de GTS op 710MHz draait in plaats van op 675MHz, bij gelijkblijvende geheugenfrequentie, en dat bij de GT de kloksnelheid van de gpu verhoogd is van 540MHz naar 590MHz en de memory clock van 700MHz naar 900MHz. Ook bij Leadtek geldt dat de kaarten met de 8600 GT-chips het zonder hdcp moeten doen.

Reacties (100)

Reactiefilter:-1100099+154+210+30
Moderatie-faq Wijzig weergave
Toch wel een beetje ontgoocheld wat betreft prestaties. Het is overduidelijk dat wanneer je deftige FPS wil halen (en zeker met de komst van DX10 games) je direct gokt op de 8800 GTS.

http://www.anandtech.com/video/showdoc.aspx?i=2970

http://www.tomshardware.c...7/geforce_8600/index.html
DX10 is een stuk minder zwaar dan DX9, en dat heeft verschillende oorzaken.maardat kan je allemaal vinden via google. ;)

Kan je er wel 1 geven

DX10 heeft minder "zij wegen" dan DX9 om het zelfde te doen, daarom is dx10 code al een stuk schoner en sneller uit te voeren dan DX9 code.
Dat is grotendeels niet juist.

Het is wel zo dat DX10 een aantal nieuwe batching modes die het aantal CPU->GPU calls drastisch naar beneden kan halen. Voor games die massa's verschillende objecten renderen, kan dat een groot verschil geven qua load op de CPU en het voorkomt dat een GPU zonder werk valt.

Daar staat tegenover dat de Vista driver een stuk analer is wat betreft manipulatie van de commando buffer en daar worden heel wat meer CPU cycles verspeeld dan bij DX9.

Op de GPU is DX10 net even zwaar dan DX9. Het heeft wel extra features, zoals de Geometry Shader en dat laat een aantal extra effecten toe die vroeger niet konden, maar dat is een ander verhaal.

Kortom, voor eenzelfde game met dezelfde engine is er weinig verschil tussen een DX9 en DX10 versie, tenzij dus wat betreft instancing en batching, al maakt dit de GPU niet sneller.

Wat betreft de zijwegen: absoluut geen idee wat je hiermee bedoelt. Het klinkt nogal populair wetenschappelijk (=veel geblaat en weinig wol.)
< offtopic >

"dat de Vista driver een stuk analer is"

Doet me toch denken ;(

< /offtopic >
ja maar net daarom stoppen ze er meer code in zodat dx10 uiteindelijk veel zwaarder wordt.
Voor extra functionaliteit zit die code erin. Als je dat niet gebruikt, zal de boel simpelweg vlotter draaien.
Ik vind 't nog goed meevallen hoor. In tegenstelling tot de verwachtingen scoort de GTS beter dan de X1950pro, ook 't upscalen naar hogere resoluties gaat zeer goed, ondanks de krappe geheugenbus. Ook AA aanzetten geeft een lagere performancehit dan verwacht.

Kortom: Voor DX9 is de goedkopere X1950pro idd een betere keuze, maar als nVidia hun marketingmachine op DX10-support gaat richten (en dat gaan ze zeker, nVidia is koning in gpu-marketing) wordt deze kaart een even grote hit als de 7600 en 6600GT.
valt mij ook best wel tegen,
ik vind het vooral opvallend overigens dat de 8600GTS overal onder de 7950GT staat behalve in oblivion! ook is het helaas goed te zien dat de performance impact bij het inschakelen van AA in battlefield 2 op hoge resoluties relatief groot is, de 7950GT neemt meer afstand en de X1950GT en 7900GS komen langs zij.

ik ben benieuwd of hier echt de oorzaak in de geheugen bus, welke nog steeds maar 128Bit is, waar de top DX9 kaarten nog 256Bit hebben of de 512bit ring.
ook is het verschil in de geheugen bus groter gegroeid tussen de top en de mid-range. (384bit voor de GTX, 320 voor de GT en 'maar' 128 voor de 8600 kaarten)
De 7950GT is dan ook 25% (50) duurder dan de 8600 GTS! (Alternate)
En vergeet ook niet de drivers waarschijnlijk nog niet alles uit de 8600 halen, of in ieder geval relatief minder dan ze uit de 7950GT kunnen halen.
De 1950pro is goedkoper, sneller en heeft op dx10 na alle voordelen. Waarom doet Nvidia dit. Waarom brengen ze hem uit? De enige reden zou zijn zoals hierboven gezegt word dx10 heeft minder nodig als dx9. Maar waarom zou je dan een hele nieuwe core maken. Pak dan gewoon een 1950pro core en werk terug vanuit de basis en voeg dx10 toe, scheelt je veel ontwerpkosten. Verder is het gat van 32 naar 96 ook veel tegroot, het was slimmer geweest om de 8600gts meteen 96 shaders/enz te geven :s
Ik denk niet dat Nvidia de 1950 core zal pakken en daar dx10 aan gaat toevoegen. Mogen ze het gelijk weer afstaan aan AMD :+
De 1950pro is goedkoper, sneller en heeft op dx10 na alle voordelen.
De Radeon 1950 Pro zit aan z'n bodem qua prijs, terwijl de GeForce 8600 GTS nog een hl pak kan dalen. Momenteel is er gewoon nog geen concurrentie bij de mid-end DirectX 10 kaarten. Dat de Radeon sneller is, is zeer betwistbaar. Ze lijken elkaar waard in de benchmarks. En terwijl voor de Radeon de drivers er intussen wel het maximum uit halen, kan NVIDIA nog wat verbeteringen aanbrengen. Ze hebben het even lastig gehad met hun Vista drivers, maar blijken nu weer op de goede weg en kunnen ze zich ook over de prestaties buigen...

Dus hoewel NVIDIA niet shockeerd met deze kaarten zijn ze denk ik wel goede opties voor wie op zoek is naar een goed presterende kaart voor een eerlijke prijs. Wanneer AMD z'n arsenaal bovenhaalt kan je een heuse prijzenoorlog verwachten.
@ Parabellum

Sorry, maar volgens mij weet jij echt niets van halfgeleiderprocessen (ik namelijk wel :+ )

Een onverpakte chip testen (dus zonder het zwarte doosje en bondpaden naar de pinnen) is quasi onmogelijk, laat staan voor massa productie zoals hier
probes aansluiten op een bond-vlak van enkele m is namelijk een utopie

een chip die wordt versneden is ofwel goed, ofwel slecht. punt
de eigenlijke functionaliteit is pas te testen wanneer de boel in zijn behuizing zit en er pinnen aan zitten

aangezien 1 masker voor bvb het C07CMOS proces ongeveer 50.000 (1 masker = 1 laag van de chip!!!) kost, zou het maar al te gek zijn een nieuwe maskerset te laten processen voor een lager geklasseerde versie
wat wel gedaan wordt, is het uitschakelen van bepaalde functionaliteit (op een chip uit de top-reeks) via software of externe aansturing
Mijn god, wat een onzin.

Je kent misschien wel iets van halfgeleider processen, maar duidelijk helemaal niets van ATE testing. Ik denk niet dat jij ooit al 1 testprogramma geschreven hebt...

Met uitzondering van heel kleine chips die zo'n goeie yield hebben en zo'n goedkope package that die testing duurder is dan de package, worden alle chips twee keer getest:
1 keer pre-packaging en 1 keer after packaging.

Een bond vlak is helemaal geen 'enkele' um2: een typisch bondvlak heeft afmetingen van 40umx40um +-5um, ofwel 160um2: ruim voldoende om een deftige probe op te zetten.

(Om je een idee te geven: in het lab is het geen enkel probleem om een micro-probe te zetten op baantjes van 0.5um breed.)

En dat testen gaat net even snel met dan zonder package, daar zorgt een ultranauwkeurige handling robot wel voor. (Er is een reden waarom een tester $2M kost.)
De eerste zijn al te koop in nederland, de goedkoopste is
klik hier.
Ik denk dat de prijzen wel zullen dalen als ATI met haar DX10 kaarten op de markt komt. Maar zoals je hier kan zien zullen ze makkelijk hun slag kunnen slaan door gewoon een 256bit midrange op de markt te brengen (wel in de dezelfde prijsklasse dan)

Edit) was de goedkoopste, de prijzenslag is begonnen :)
Azerty had al een paar dagen geleden de Peak GeForce 8600GT voor 114 euro staan.
Ik heb die 8600GTS even mogen testen, het gaat hier om de 256MB versie van club3d:

Systeem: Core2Duo E6600, 1GB RAM, Asus P5B:
8600GTS 256MB: 4710marks
7900GTX 512MB: 5921marks
8800GTS 640MB: 8414marks

Voor het geld dus een prima videokaart wat mee kan komen met de nieuwste spellen.
Deze synthetische benchmark laat het heel erg afweten. In real-world situations is de 8800 GTS toch een stuk sneller dan de 8600 GTS.
Kijk ik verkeert of is 4710 een stuk langzamer dan 8414?
Zo'n 45%.....
Dus hoe die Synthetische benchmark in deze situatie het zo laat afweten mag je me vertellen .
Zie http://www.firingsquad.co...600_gts_preview/page5.asp

De scores voor de 8600 GTS OC edities zijn rond de 6K in die review, terwijl er 8500 behaalt is door de 8800 GTS 320 MB. Echter in spellen zie je veelvuldig dat de 8800 GTS 320 MB praktisch 2x zo snel is als er veel GPU/shader(?) actie is.
Gezien de specificaties van de kaart zijn de prestaties ronduit fantastisch! Alleen gezien de prijs wat minder, maar daar brengt DirectX 10 straks wel verandering in denk ik.
Toch denk ik dat nVidia er beter aan gedaan had om een 192-bit geheugenbus te nemen, zeker gezien hun ervaring met 'rare' bussen (320 bit en 384 bit). Misschien een mooie kans voor ATi?
Dankzij meerdere lagen van lange en korte vinnen zou statische airflow transformeren tot een turbulente luchtgolf in de heatsink, wat bevorderlijk is voor de warmteafvoer.
Kan iemand mij uitleggen hoe dat in z'n werk gaat? Hoe kun je zonder flow een flow fabriceren?
Flow is er zowieso, is het niet door een casefan dan gaat de lucht wel stromen door temperatuurverschillen.

Statische flow is een beetje een onzin woord, waarschijnlijk bedoelen ze laminair, wat het dan toch al weer niet is door de ruwheid aan alle kanten. Door echter lange en korte vinnen toe te passen zal de luchtstroom nog iets meer verstoord worden, waardoor het iets turbulenter zal zijn, en is de luchtstroom turbulenter dan zal de koude en warme lucht misschien iets beter mengen en zodoende bij het koelblok wegkomen.
statsche flow is prima hoor. De flow veranderd niet en is dus statisch, als er echter een verandering in de flow optreed (versnelling, afremming etc.) is er sprake van dynamische flow.

Dus als de flow niet in de tijd veranderd is er sprake van statische flow..
Nee, dan is er sprake van constante flow. Het is allemaal een kwestie van het juiste woord te gebruiken.

En verandert is met een t.
Dat is een kleine misvatting die iedereen voor waar aan neemt :) Warme lucht stijgt niet op. Lucht met hoge druk(warm) verplaatst zich naar lucht met lage druk(koud).

Binnen in een PC behuizing hoeft lucht dus niet perse op te stijgen. Het is niet ondenkbaar dat de lucht die van je CPU af komt koeler is dan de lucht die van je GPU af komt om maar wat te noemen. Of wat dacht je van warme lucht die van een HD afkomt. Zal die naar een warme DVD brander erboven gaan, of naar de relatieve koelte onder de HD? In zo'n geval zal de lucht dus juist dalen tenzij er een mechanisme is die lucht afzuigt zoals bijvoorbeeld je voeding of een casefan.
Interessante theorie, maar heb je daar meer info over?

Warme (tov omgeving) lucht stijgt omdat deze lichter is dan de (relatief) koude lucht er omheen en dus omhoog wordt gedrukt door de koude lucht.

Maar volgens jou is dit anders en daar wil ik dan alles over weten. :)
Dit is wordt beschreven door de wet van Bernoulli zie http://en.wikipedia.org/wiki/Bernoulli's_principle
niet helemaal juist.
In het weer is het zo dat een hogedrukgebied met mooi weer samengaan. In de lucht is dat echter niet direct het geval: als de afstanden klein zijn, dan is de druk vrijwel meteen na de verwarming weer overal gelijk.

Omdat de druk gelijk is, maar de temperatuur hoger is geworden, is het aantal deeltjes in de lucht die warm is minder groot. Hierdoor stijgt warme (lichtere) lucht op.

Als er nog lichtere lucht boven zit, dan zal de warme lucht wachten met stijgen totdat die nog licheter lucht naar boven weg is gestroomd.
@gve
Je maakt hier een kleine fout.

Jouw "theorie" stelt dat het overal even warm is (of boven warmer, net hoe je jouw theorie leest), of je nu 10meter of 20 meter boven de grond zit.

Dat is niet waar, druk is lager naarmate je verder boven de grond komt en dus ook de temperatuur.

Warme lucht verspreidt zich over de koude lucht, en aangezien deze meestal erboven kouder is (vanwege de lagere druk) stijgt deze dus op

Simpel voorbeeld: Een ijsklontje smelt ook door het verdelen van warmte.
maar "statische airflow" lijkt me toch een contradictie.
als je een door warmte opwaartste airflow hebt, is ie niet meer statisch (8>
in dit geval zullen ze met statisch wel een zeer gelijkmatige stroming van warmte bedoelen. de verbetering zou dan liggen in het idee dat deze opstelling een stroming heeft met meerdere versnellingen, gecreerd door verschillende hoogtes in de koelvinnen waardoor de warmte op plekken sneller zal afkoelen.
het spijt me maar ik vindt dit echt bagger als we van een 8800 gts 96 stream processors hebben en nu ineens 32 dan krijg je dus echt een gigantische performance gat had dan de 8600 64 shaders gegeven en de 8400 32 en de 82/8300 16 dan had jee een veel betere prestatie/prijs verhouding ik ga dus geen kaart kopen die 2x minder presteert en 40-50% goedkoper is ( 300 en 200 euro) dit vind ik heeeel dom van nvidia
amd vult dat performance gat voor ook 200 euro en iedereen koopt een r6x0 of HD 2x00
loze actie.
Vergeet niet dat de 8600GTS veel hogere clocksnelheden heeft. Zowel de core, SP als de geheugenclock liggen maar liefst 100mhz hoger dan die van de 8800GTX, en respectievelijk 175, 250 en 200 mhz hoger dan de GTS. Dat maakt een heleboel weer goed.

Daarnaast is het aantal SP's dan wel maar 1/4e van wat de 8800GTX heeft, het aantal ROP clusters is maar 1/3e van de 8800GTX, dus dat scheelt ook nog weer iets in de performance.
Ik voorspel een 8700 serie met spec hier tussenin. over een half jaartje of zo :Y)
Nou, dat valt toch wel vies tegen! Ik denk dat we verwend zijn geraakt met bijvoorbeeld een 8800GTS 320. Deze is gewoon in alles 2x zo snel, voor maar een gering bedrag meer.
Gemiddelde prijs 8600GT: 130
Gemiddelde prijs 8800GTS: 260

Dubbele prestaties, dubbele prijs. Niets wereldschokkends dus.
Hij doelt waarschijnlijk op het verschil tussen de 8600GTS die rond de 200-230$ kost en de 8800GTS die van 260$ te krijgen is. De 8600GT zit trouwens rond de 150-160$ wat ongeveer evenveel of iets minder in euro's zal zijn.

Ik vind dat de kaart ook redelijk zwak presteert,vooral als AA wordt ingeschakeld.

Als je dit vergelijkt met wat een snelheidsverschil er was tussen de 6600 en de 5600 serie of tussen de 7600 en de 6600, dan had ik eigenlijk iets meer verwacht. Misschien presteert hij onder direct x 10 toch nog redelijk sterk...
Telkens het laagste uit de Pricewatch genomen en afgerond :)

De eerder magere prestaties zullen wel een procent of 2 omhoog gaan met finale drivers, gis ik, samen met de beeldkwaliteit.
Ik zie dat ze op Alternate ook al te koop zijn! Meteen maar gooien met een geklockte versie van de 8600GTS.. 730/2260mhz }> Nu die snelheden zo hoog zijn, zou hij dan veel onder doen voor zijn grotere broertje de 8800GTS 320mb @ stock speed??

Kan iemand hier misschien wat duidelijke info over geven?
Ik weeet dat ik ook moet wachten op benchmarks, maar ik ben nogal enthousiast over deze variant van de 8600GTS
Denk dat 't nog heel wat zal schelen hoor. Vergeet niet dat de 8600GTS maar 32 shaders heeft, tov 96 voor de 8800GTS. Dat los je niet zomaar even op door 'm 200mhz hoger te clocken.
"hmm, ik ga denk ff een budget kaart kopen om de nieuwste dx10 spellen te spelen."

ik zie er de logica niet van in, je koopt tog minimaal een 8800gts als je het nieuwste van het nieuwste wilt spelen.
Je koopt minimaal een 8800GTS ls je die kan betalen. Niet iedereen legt zo maar eventjes 280 neer voor een videokaart ...

Op dit item kan niet meer gereageerd worden.



Microsoft Windows 10 Home NL Apple iPhone 6s Star Wars: Battlefront (2015) Samsung Galaxy S6 Edge Apple Watch Project CARS Nest Learning Thermostat Microsoft Windows 10 Pro NL

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True