Specificaties GeForce 8600 bekend

De Chinese site Beareyes beweert dat nVidia de eerste 8600-kaarten al in productie heeft genomen. Bovendien weet de site te melden wat de definitieve specificaties van de 8600 Ultra en de 8600GT gaan worden.

Met de besproken 8600-kaarten zal nVidia de aanval op het middenklassesegment openen. De kaarten zullen als vervangers van de 7600 GT en de 7900 GS fungeren, waarbij de belangrijkste wijziging de ondersteuning voor DirectX 10 zal worden. De specs van de met behulp van 80nm-technologie geproduceerde kaarten komen goeddeels overeen met de verwachtingen, al zou het prijskaartje van de 8600 GT met 149 dollar wel twintig dollar hoger uitvallen dan werd vermoed. Dat zou zijn reden vinden in de voorraad 7600-kaarten, die nVidia eerst wil kwijtraken.

De 8600 Ultra, de snelste van de twee, zou voor 179 dollar een coreklok van 500MHz meekrijgen, wat vergelijkbaar is met de klok van de 8800-modellen. Omdat het aantal shaders met 64 stuks lager ligt dan dat van de high-end familieleden - de 8800 is met 96 of, in geval van de GTX, 128 shaders uitgerust - blijven de kosten binnen de perken, al heeft de G86-core nog altijd 300 miljoen transistors aan boord. Ook de 256bits geheugenbus en een geheugenklok van 1400MHz beperken prijs zowel als prestaties. De Ultra kan verder maximaal 512MB meekrijgen, dat op 1400MHz draait. De 8600 GT heeft 48 shaders, maximaal 256MB geheugen dat op 1200MHz is geklokt en een coresnelheid van 350MHz, waardoor de prijs relatief hoog lijkt: volgens de Chinezen wordt de GT met een prijskaartje van 149 dollar slechts dertig dollar goedkoper dan de Ultra. Uiteraard zal er op de benchmarks gewacht moeten worden alvorens duidelijk wordt welke van de twee kaarten de beste prijs-prestatieverhouding biedt.

nVidia GeForce 8600-kaart

Door René Wichers

Eindredacteur

24-01-2007 • 13:37

95

Submitter: We Are Borg

Bron: Beareyes

Lees meer

Reacties (95)

95
95
30
9
2
51
Wijzig sortering
Zeer mooi nieuws. Hiermee ligt de DirectX 10 markt meteen wat meer open voor de doorsnee klant.
Ik vrees enkel voor nog meer verschillende versies dan we nu hebben. Nu kunnen ze naast, GPU/mem speeds, hoeveeheild geheugen en geheugenbus ook nog eens het aantal shaders en de snelheid ervan aanpassen. Hopelijk krijgen we geen situaties als 8550LE ed.
Wat je nog vergeet te melden is dat op deze afbeelding geen PCI-Express voeding connector te bespeuren valt. Dus de Ultra zou bij mensen met een relatief zwakke voeding ook goed moeten kunnen werken (maximaal 75W gaat door het PCI-Express slot). Ben benieuwd naar het stroomverbruik en de geluidsproductie, misschien een interessante upgrade voor mijn 7800GT.
wat ook weer als voordeel heeft dat hij minder warm wordt en mogelijk passief te koelen is (wat ook weer een fijne bijkomstigheid is).
een interessante upgrade voor mijn 7800GT.
Prachtig :) Ik draai nu drie jaar met een 9800Pro, en ik dacht hetzelfde toen ik dit stukje las.

Sommigen mensen moeten echt TE VAAK upgraden van zichzelf :)
Het is uiteraad maar wat je eisen zijn.

Ik speel nieuwe games op een 6800gt @ ultra op 1280resolutie.
En toch moet ik aardig wat dingen op med gaan gooien.
Jij hebt een 9800 pro, Daar kun je mee gamen maar de mooie effeckten kun je dan niet meer draaien he.

Toch denk ik wel dat personen die een
7900gtx-gto etc hebben achteruit gaan met dit soort kaarten.
Aangezien ze wel dx10 draaien maar trager zijn.

Dus voor die personen: gts/gtx
wat noem jij een zwakke voeding??

er is toch geen PC die full load meer dan 400 Watt slurpt.

Dat gezeur ook altijd... Mijn PC (serieus High-End) idled al op ~90 Watt en verbruikt maximaal 250 Watt, wat zelfs tijdens gamen niet gehaald wordt.

De 600W>-voedingen zijn dus al zo en zo waardeloos. |:( |:( |:(
Ik twijfel niet dat je een goeie PC hebt, maar 250W is lager dan de meeste high-end game pc's. Om te beginnen kunnen er twee videokaarten in zitten, en is de energiebehoefte de afgelopen jaren flink gestegen.

Gooi je daarbij nog een CPU van 70W, dan komt je systeem toch al snel over de 300W te liggen. Daarnaast moet je natuurlijk nooit een voeding kopen die maximaal kan leveren wat maximaal verbruikt (dit systeem zou dus minstens een 500W voeding nodig hebben).

Ik ben bang dat dat bij deze kaartjes de trend van een steeds hoger energieverbruik voor zullen zetten..
@gamepower2005

Lees je wel eens vaker tweakers.net? dan ben je wellicht dit artikel tegengekomen:

'Moeder aller voedingen' levert twee kilowatt

uit dit artikel de volgende quote:
De extreme voeding zorgt in elk geval wel dat er een hele trits hardware in de computer gehangen kan worden. De 12V-rail levert bijvoorbeeld een verbluffende 150 ampère, genoeg voor elf GeForce 8800-videokaarten. In onze recente test van high-end voedingen bleek dat een systeem met slechts twee van deze stroomvreters en een overgeklokte Prescott aan minder dan 350W al meer dan genoeg had.
@gamepower2005
een moderne voeding wordt gemaakt om z'n beste efficientie te halen tussen de 70 en 80% belasting

aangezien je uiterst zelden het echte maximum verbruikt, ga ik ervan uit dat je het maximum op +/- 80% legt
om een 500W voeding te rechtvaardigen heb je dus een systeem van +/- 400W nodig, wat dus (bijna) niemand heeft (zie ook bapemania hierboven)
Ik ben het er direct mee eens dat er vaak word overdreven met voedingen. Ik heb jaren lang een systeem gehad met een 200W voeding waar een radeon 9700 pro en een P4 en 2 HD's zaten zonder voedingsproblemen. Maar wat je niet moet vergeten is dat sommige mensen die een 600W voeding kopen, bijvoorbeeld een sweex oid nemen om de kosten te drukken. Dit zijn geen 600W voedingen, maar halen misschien hooguit 300W aan output, dat ze daarbij in totaal dan misschien 600W trekken uit je stopcontact is een heel ander verhaal.
Zegt het tijdstip van deze nieuwspost dat het een 1337 kaartje is? :P
de architectuur verschilt weinig qua hardware implantatie.
alleen de software zijde van het geheel is radicaal vernieuwd als ik het goed voorheb.
Juist omgekeerd. Geunificeerde architecturen zijn een zeer grote aanpassing qua hardware. G80 lijkt in niks op G70 bijvoorbeeld.

DirectX 10 biedt echter weinig nieuws tegenover DirectX 9. Tussen shaders versie 3.0 en 4.0 zit nauwelijks verschil. De interfaces zijn wel 'opgekuist' en ook is de wisselwerking met Windows vlotter. Maar niks radicaals daar.
hmm :) waneer licht die pracies in de winkel ? ik wil hem gelijk kopen kandie in de nieuwe pc :) voor dat ik een 7900gt koop is deze 8600 ultra tog beter
Koop je er dan ook gelijk een cursus Nederlandse taal, grammatica en spelling bij? ;)
Ja..misschien kan hij wat andere klinkers kopen (welkom bij het rad van fortuin), interpunctie, hoofdletters.

Waneer -> Wanneer
Licht -> Wat voor licht? Zonlicht? Doe maar ligt.
Pracies -> Precies
Kandie -> Kandijsuiker?
Tog -> Toch echt gewoon toch..kap is met dat breezer tog-je..inkorten om een letter te besparen.

Of ben je gewoon dyslectisch...?

Hoofdletters aan het begin van een zin en een punt of ! of ? aan het einde.

En wanneer ie in de winkel ligt? 29 februari :Z
"togje", zonder koppelteken ;)
Volgens een eerder bericht op Tweakers kunnen we ze verwachten in maart.
is er al iets bekent over stroom verbruik?
want ik zal wel blind zijn, maar ik zie geen aansluitingen op de afbeelding, of vermeld in de tekst
Stroom verbruik ben ik ook benieuwd naar.
Mischien toch maar wel wachten op een dx10 kaart, eigenlijk wel zonde om nu nog een midrange dx9 kaart te kopen :+
ik weet niet zeker maar, ik zie wel een soort van aansluiting aan de bovenkant van de kaart
zou dat het kunnen zijn/nieuw soort aansluiting?
SLi connector bedoel je? ;)
das dus de SLI aansluiting, bestaat al tijdje
edit: sneller leren typen :P
en dat links van de SLI connector ..op het plankje zelf.. kzie daar een aantal solderingen naast elkaar zou de voedingsconnector aan de andere kant zitten ?
Het lijkt een beetje op een tweede niet-afgesoldeerde SLI-strip voor quad systemen.. 't is iig geen voedingsconnector gezien het aantal pinnetjes.
Gezien de relatief bescheiden koeler, zal het stroomverbruik denk ik wel meevallen. Stroomverbruik is meestal nauw verbonden met de hitteproductie van die kaarten.

Daarmee zal dit hopelijk ook een goede kandidaat zijn voor passieve koeling.
hier een leuk grafiekje met prijzen erbij.

http://www.guru3d.com/newsitem.php?id=4834

edit: tabel ja dank je :)
Dat noemen ze een tabelletje en die zag je hier ook al.

@hieronder: de meeste mid-range kaarten doen het gewoon met de stroomvoorziening via de pci-e bus. Deze blijkbaar dus ook.

@hierboven: DX10 is inderdaad een voordeel en blijkbaar dus ook het stroomverbruik tov. je 9550.

EDIT: en natuurlijk unified-shaders... Al vindt niet iedereen dat een vooruitgang. Ik persoonlijk wel. Want als het goed is kun je ook deze kaartjes gebruiken voor allerhande reken-meuk.
als ik dat tabelletje zo zie, kan ik dan concluderen dat ik met de 8600 Ultra in SLI een 8800GTX benader qua prestaties voor 599 - 2*179=241 euro minder?
Zo. Dit wordt mijn toekomstige kaartje. Ik koop altijd de GT versie van de één na beste kaart van de vorige generatie. :P M.i. is dat altijd een voordelige keus want:

- Zeer goede prestaties voor een lage (gezakte) prijs
- Drivers zijn dan goed doorontwikkeld

Dit keer sla ik de 7600GT echter over (ik heb een 6600GT) met het oog op DX10. Dan kan ik als ik overstap op Vista (over 1-2 jaar) gelijk fully supported mijn nieuwe OS verkennen. Dat wordt dus de 8600GT.
Zou je voor 30$ echt geen betere 8600 Ultra willen? Er wordt al vermeld dat de Ultra betere prijs/kwaliteit heeft.

Ik kan wel begrijpen dat het zo 180 euro hier in Nederland wordt, maar nog steeds is dat niets voor een DX 10 kaart die (misschien) wel even goed scoort als een X1950Pro in DX 9 (voor hetzelfde geld!)
2x 8600 ultra is nog altijd goedkoper als de 8800 GTS en helemaal als de 8800 GTX fap-fap-fap ( :P ) uitvoering.

Heb je in ieder geval evenveel shaders, klein beetje overclocken en dan benader je met een beetje geluk toch een 8800 GTX fap-fap-fap!

Even wachten op de benches dus!
Het niveau hier wordt echt een beetje bedroevend hier.

(fap-etc gedoe)
Dus je wilt ontkennen dat de 8800 GTX een opwindend kaartje is?

Mijn tong hangt op m'n knieën!
Zolang je maar geen fap fap fap op mijn beeldscherm doet vind ik het goed...

Vraagt z`n vriendin "schat, zullen we een lekkere porno film kijken vanavond", zegt hij "nee ik weet iets beters", en schroeft z`n 8800xxx uit z`n PC... :Y)
fap-fap-fap staat in dit geval voor "XXX" welke je ook wel achter de 8800GTX ziet staan...

Hij assosieert schijnbaar de X met fappen (ik denk nooit aan een X tijdens het fappen, maar goed...ieder z`n eigen ding).
one word - WOW :Y)

hier kan je dan eindelijk betaalbaar nog een flink aantal jaartjes op gamen :)

voor veel mensen spaart dit (gezien wat velen nu al zeggen) waarschijnlijk niet alleen €150 ofzo voor de kaart, maar ook nog eens iets van €75-€100 voor een nieuwe voeding. ik weet in ieder geval dat dit over een paar maanen voor mij ruimte overlaat toch aardig wat meer leuke dingen in mn aankomende nieuwe PC te steken :+

alleen ben ik nou de enige die informatie over releasedates mist?
Wel een gedurfde uitspraak, in de ICT zeggen dat je ergens jaren mee vooruit kan ;)

Voor de rest: Inderdaad erg mooie introductie prijs
Dat wordt weer de hele zomer binnen zitten en over je toetsenbord kwijlen voor veel mensen :9~
poeh ik speel hier BF2142 met veel plezier op een FX5700, dus ja by my standards houdt dat ding het MINSTENS 2 jaar uit :P tenzij k opeens geld over heb en die 8800s zakken, maar wss niet

niet iedereen heeft het geld om op het nieuwste van het nieuwste te gamen he ;) ik bedoel dat je zonder verminderde gameplay met veel plezier en veel FPS nog alles kan spelen :)

(FEAR bijvoorbeeld wil heir niet echt meer :P en das wel jammer :P )
Hoezo World Of Warcraft ?? :?
Zoals in het artikel vermeld staat op Guru3D:
The launch date for these cards is about the same as for when ATI will launch R600, that is, around CeBIT at the second week of March.
Ik ben meer nieuwsgierig naar goede driver ondersteuning voor zowel Vista, Win XP 32& 64 Bit en wat backwards compatibility met DX7-9.

Op dit item kan niet meer gereageerd worden.