Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties

Dailytech heeft meer informatie weten te bemachtigen over de Geforce 9600GT. Deze kaart, het eerste lid van de Geforce 9-familie, zal halverwege februari geïntroduceerd worden en is gericht op de mainstreammarkt.

De kaart is gebaseerd op de D9M-core die door TSMC gebakken wordt met een 65nm-procedé. Volgens de documentatie, die van Nvidia afkomstig is en die Dailytech onder ogen kreeg, krijgt de kaart de beschikking over een 650MHz core en shaders die op 1625MHz werken. Het geheugen zal op 1,8GHz draaien en via een 256-bit brede bus met de gpu communiceren: samen goed voor een bandbreedte van 57,6GB/s. Hoeveel shaderprocessors de gpu krijgt werd niet onthuld door Nvidia, maar oudere geruchten spreken over 64 rekeneenheden.

BFG Nvidia GeForce 8600 GTS

Volgens nVidia zal de kaart bijna tweemaal zo snel zijn als zijn voorganger, de GeForce 8600 GT. De kaart heeft echter wel een 6-pins pci express-stroomaansluiting nodig. Nvidia raadt een 400W-voeding aan die 26A kan leveren op de 12V-lijn. Verder heeft Nvidia publiekelijk bevestigd dat de GeForce 9600GT DirectX 10.1-ondersteuning krijgt.

De specificaties van de andere telgen uit de Geforce 9-familie blijven voorlopig onduidelijk. Naast de D9M zullen ook de D9P en D9E verschijnen die op respectievelijk het performance- en enthousiastsegment gericht worden.

Moderatie-faq Wijzig weergave

Reacties (96)

DirectX 10.1 zit er niet op, laatste interne slides van NVIDIA bevestigen dit. Dit kan ook in het NVIDIA Nieuws Topic op GoT gevonden worden, en natuurlijk VR-Zone, Fudzilla e.d.

Even bron toegevoegd:
http://www.tcmagazine.com...Force_9600GT_specs_01.jpg
http://www.tcmagazine.com...hp?shownews=17443&catid=2

[Reactie gewijzigd door Phyxion op 4 januari 2008 11:28]

Volgens het artikel heeft NVIDIA het echter publiekelijk bevestigd dat het DX10.1 is. Zowel in het tweakers forum als op VR-Zone (Fudzilla lees ik uit principe niet) kan ik niet iets anders vinden, mag ik een link? :)
that's a pitty, dat is eigenlijk wel waardeloos als dat zo is, de kaart zal dus niet futureproof zijn en dat zal betekenen voor de "gewone consument" of "niet-diehard-tweaker" dat zij dit jaar misschien een 9600GT kopen en dat jaar daarop misschien weer een nieuwe kaart moeten kopen omdat de kaart geen directX 10.1 ondersteunt. Wat voor sommige "normale" consumenten toch wat teveel van het goede gaat worden.

Overig is dit geen goede reclame t.o.v. Ati, ik neem aan dat die namelijk wel DirectX 10.1 zullen gaan gebruiken omdat ze dat al eerder ge-implementeerd hebben op hun HD38** serie.
Ik snap je 'futureproof' argument wel, maar praktisch gezien is dit geen enkel bezwaar. Als je kijkt naar de huidige DX10 ondersteuning in spellen levert dit weinig op (zelfs Crysis draait op DX9 met de extra 'Very High'-patch al bijna net zo mooi). Verder is DX10.1 een (kleine) uitbreiding op de DX10 specs.

Of zoals Sam Glassenberg van Microsoft het zegt:
It's strictly a superset. It's basically an update to DX10 that extends the hardware functionality slightly.
It's a minor update, so we don't expect any developers to say, 'oh, this game is DX10.1 only.
Waarom ondersteunen ze het dan niet, al is het maar voor marketing redenen? Als het zo'n klein verschil is lijkt het me vrij simpel om ondersteuning ervan toe te voegen.
DirectX 10.1 zit er niet op, laatste interne slides van NVIDIA bevestigen dit. Dit kan ook in het NVIDIA Nieuws Topic op GoT gevonden worden, en natuurlijk VR-Zone, Fudzilla e.d.

Even bron toegevoegd:
http://www.tcmagazine.com...Force_9600GT_specs_01.jpg
http://www.tcmagazine.com...hp?shownews=17443&catid=2
En dit dan:
Verder heeft Nvidia publiekelijk bevestigd dat de GeForce 9600GT DirectX 10.1-ondersteuning krijgt.
Uit de bron van t.net's artikel:
NVIDIA publicly confirmed other details of D9M: DirectX 10.1 support, Shader Model 4.0, OpenGL 2.1 and PCIe 2.0 support just to name a few.

Further documentation from NVIDIA claims the 9600 GT will also support the Quantum Effects physics processing engine.

Like all NVIDIA processors, the GeForce 9600 is also HDCP compatible, though final support still depends on vendor implementation.
Denk niet dat nVidia zichzelf schade aan zou willen doen, aan hun image... ;)

[Reactie gewijzigd door CH40S op 4 januari 2008 14:11]

Je bron is wel tegenstrijdig: Met DirectX 10.1 hoort ook Shader Model 4.1
Je zou toch verwachten net zo als bij de CPU's dat hoe lager het bak procedé, in dit geval 65nm dat dit ook ten gunste zou komen van het stroom verbruik. En hoe lager het stroom verbruik hoe minder warm de gpu wordt natuurlijk.

De afgelopen 2 jaar zijn de kaarten niet minder gaan verbruiken. Ja ok de 2900XT had een excessief verbruik. Het was volgens mij bijna onmogelijk om een kaart te maken die NOG MEER stroom verbruikte dan de 2900 serie.
Maar goed 400W /26a voor een mainstream kaartje vind ik nog steeds veel te veel.
Dat is een manier hoe je het kan bekijken.

Echter door het toepassen van technieken die zelf minder verbruiken en daarbij minder warmte produceren dan hun voorganger kan je dus meer van diezelfde blokjes kwijt. En daarmee dus de algemene reken prestaties verhogen.

Dus meer berekenigen per Watt.

en die 400W/26A slaat natuurlijk op het totaal vermogen van de Voeding niet voor datgene wat de kaart daadwerkelijk gebruikt.

Mijn 8800GT doet het ook prima bij mijn 300Watt voeding. Deze voeding is alleen kwalitatief beter dan al die meuk die in standaard kasten worden verkocht en dus bij het merendeel van de "gewone" consument in de computer te vinden is. Bij een mindere voeding wordt altijd meer Watt geadviseerd omdat dat wat op de voeding staat dan meestal piek vermogen is.

[Reactie gewijzigd door Steefph op 4 januari 2008 08:59]

Tuurlijk zijn kaarten niet minder en minder gaan gebruiken, ze zijn immers sneller en groter geworden. Mainstream kaarten worden gemaakt voor wat de doorsnee gebruiker acceptabele performance voor een acceptabele prijs met een acceptabel stroomgebruik vind.
Dat ze sneller en groter zijn geworden wil niet zeggen dat ze niet minder stroom kunnen verbruiken natuurlijk. Dat is ook precies de vergelijking die Tmaster26 maakt, namelijk met CPU's. Die zijn over de laatste decennia ook veel en veel sneller geworden, terwijl het verbruik grotendeels gelijk is gebleven, of zelfs flink gedaald (er zijn veel 'zuinige' processoren tegenwoordig voor laptops e.d.).
Dat ze sneller en groter zijn geworden wil niet zeggen dat ze niet minder stroom kunnen verbruiken natuurlijk.
Meer transistors, hogere kloksnelheid. Ja, transistors worden iets zuiniger naarmate ze kleiner worden, maar je concludeert zelf al dat het 'mogelijk' is om een zuinigere GPU te maken, terwijl je niet in gaat op de redenen om dit niet te doen.
Dat is ook precies de vergelijking die Tmaster26 maakt, namelijk met CPU's. Die zijn over de laatste decennia ook veel en veel sneller geworden, terwijl het verbruik grotendeels gelijk is gebleven, of zelfs flink gedaald (er zijn veel 'zuinige' processoren tegenwoordig voor laptops e.d.).
Je hebt het over de laatste decennia, maar de gemiddelde CPU van 15 jaar terug was nog passief te koelen en gebruikte zeer zeker niet meer dan 25 watt onder full load. Kortom, die stelling klopt echt niet.
Je hebt het over de laatste decennia, maar de gemiddelde CPU van 15 jaar terug was nog passief te koelen en gebruikte zeer zeker niet meer dan 25 watt onder full load. Kortom, die stelling klopt echt niet.
Dan heb jij natuurlijk ook het bewijs dat dit werkelijk zo is. Want zowel jouw uitspraak als die van Bosmaster hebben daarmee dezelfde niet gefundeerde waarde. Het lijkt zelfs sterk op slechts een mening.
Dan heb jij natuurlijk ook het bewijs dat dit werkelijk zo is.
Kennelijk gaat niet iedereens IT-kennis zo ver meer terug. Maar de eerste 486's waren nog gewoon passief te koelen. De eerste CPU fans die echt noodzakelijk waren kwamen rond de DX2-66 en verder. (Al heb ik ook passieve DX2-80's gezien). Eind 93 kwamen er ook de eerste pentiums op de markt en deze waren vrijwel allemaal van actieve koeling voorzien.

Verder kan ik je vertellen dat de heatsinks van toen er niet veel anders uitzagen dan de koelblokken die je tegenwoordig aantreft op een Northbridge van een lowend moederbord. En dat de warmte doorvoer van zo'n blokje rond de 10 Watt ligt bij acceptabele temperaturen.
Ik kan wat kalizec zegt bevestigen. Heb zelf nog is een oude PC (van HP) gehad van iemand met daarin een passief gekoelde Pentium 100. En wat gezegd wordt over het formaat van de koelertjes klopt ook, onze P233 (jaren geleden) had een koelertje niet veel groter dan wat nu een moederboord koelt en dat ging prima.
Kennelijk gaat niet iedereens IT-kennis zo ver meer terug. Maar de eerste 486's waren nog gewoon passief te koelen. De eerste CPU fans die echt noodzakelijk waren kwamen rond de DX2-66 en verder. (Al heb ik ook passieve DX2-80's gezien). Eind 93 kwamen er ook de eerste pentiums op de markt en deze waren vrijwel allemaal van actieve koeling voorzien.
Vreemd dat ik PC's met 'modernere' hardware (zoals P3 en P4) heb gezien die gewoon passief gekoeld werden... :) Zoals je het nu brengt, is het alsof nieuwere PC's helemaal niet passief gekoeld meer kunnen worden... ;) Wat dus ook niet waar is... :)
Verder kan ik je vertellen dat de heatsinks van toen er niet veel anders uitzagen dan de koelblokken die je tegenwoordig aantreft op een Northbridge van een lowend moederbord. En dat de warmte doorvoer van zo'n blokje rond de 10 Watt ligt bij acceptabele temperaturen.
Toen waren ze veel van aluminium, nu veel van koper... :) Op het oog misschien weinig verschil, qua prestaties wel!

[Reactie gewijzigd door CH40S op 4 januari 2008 10:36]

als je kijkt naar prestaties per wat zijn de huidige processoren veel zuiniger
Vraag me af wat zorgt nou voor het energieverbruik:
de miljoenen transistors of is het dan toch die fan ?

Schijnbaar is een passief gekoelde cpu voor jou per definitie energiezuinig of verbruiken deze in ieder geval minder energie dan een actief gekoelde cpu.

Vind de vergelijking overigens enorm krom. Als je een 486 cpu vergelijkt met een quadcore, ben je paard en wagen met een ferrari aan het vergelijken. Beiden leveren ze pks op.

Een 486 is eigenlijk een waardeloos apparaat als je kijkt naar de verhouding van het aantal berekeningen per Watt.
De miljoenen transistors zorgen voor het stroomverbruik inderdaad. En het stroomverbruik zorgt voor de warmte. Dus hoe meer stroom een CPU gebruikt hoe warmer hij wordt.

De kans is dus groot dat een actief gekoelde CPU meer stroom verbruikt dan een passief gekoelde CPU.

Aangezien Bosmonster zegt dat CPUs over de laatste decennia steeds zuiniger zijn geworden is het hier terecht om een 486 met een quadcore te vergelijken. Beiden veelverbruikers in hun tijd. Hiermee wordt zijn opmerking weerlegd dat CPUs steeds zuiniger zijn geworden de afgelopen decennia. Dit is dus NIET het geval.

Ik zou het trouwens knap vinden als je een quadcore passief weet te koelen...
Ik weet dat ik informatie uit m'n onderstaande post herhaal, maar volgens mij heeft het hier wel meerwaarde.
Het lijkt zelfs sterk op slechts een mening.
Ik kon er niet heel veel van vinden, maar op wikipedia staan onder andere het verbruik van AMD Athlons (1999) en ook de eerste (en latere) Pentium 4's.
Nu waren die laatste modellen wel energievreters, de eerdere modellen gebruiken minder dan de huidige Conroe chips.
Dat processoren en videokaarten minder gaan gebruiken op een kleiner procedé is alleen waar als je dezelfde architectuur hebt. Een Geforce FX 5200(130 nm) verbruikt dus niet meer stroom dan een Geforce 8800 GTX(90 nm). Een Geforce 8800 GTX gebakken met behulp van een 65 nm procedé is zuiniger dan eentje gebakken met een 90 nm procedé.
Die zijn over de laatste decennia ook veel en veel sneller geworden, terwijl het verbruik grotendeels gelijk is gebleven, of zelfs flink gedaald
De ZX Spectrum van twee decennia terug verbruikte in totaal 5W. De Z80 processor daarin had geen heatsink nodig, laat staan een ventilator. Nu zijn de processors inderdaad sneller geworden, maar van een daling van het verbruik is geen sprake.

Edit:
Vreemd - noem het feit dat 20 jaar geleden 5W een normaal verbruik voor een computer was, wordt je weggemod. En dat terwijl timonb om een bewijs vraagt. De bijdrage die stelt dat decennia geleden (dus minimaal 20 jaar) het verbruik hoger was wordt omhoog gemod.

[Reactie gewijzigd door Free rider op 4 januari 2008 12:49]

Maar goed 400W /26a voor een mainstream kaartje vind ik nog steeds veel te veel.
Euh.... de kaart verstookt geen 400W hoor ik denk zelfs nog geen 100...

Wat je vergeet is dat 't aantal transistors harder toeneemt dan de schaalverkleining. Heel leuk als je van 100 naar 50nm kan gaan, maar als je er dan 3x zoveel transistors in propt zal de kaart alleen maar meer verstoken....of ben ik de enige die opvalt dat ondanks alle schaal verkleining GPU's&CPU's alleen maar een grótere die size krijgen?
Als je van 100 naar 50 nm gaat en 3x zoveel transistors plaatst dan neemt de die size alleen maar af. Het stroomverbruik is wat lastiger te bepalen vanwege lekkage e.d. In elk geval moet je wel in 2D denken, dus een halvering van het procede maakt de die in principe 4 keer kleiner.
Als je een zuinige kaart wil moet je voor onboard graphics gaan, met een zuinige kaart zou je toch niet kunnen gamen.
Videokaarten hun prestaties stijgen veel sneller dan het stroomverbruik. Als je bijvoorbeeld de extra prestaties tegenover verandering in stroomverbruik vergelijkt tussen cpu's en gpu's zullen de laatste er als beste uitkomen.

Wist je dat NVidia voor bijvoorbeeld een 6800GT ook een PSU van 400W aanraadde? De 6800GT verbruiktte 55W onder full load en bijvoorbeeld een 8800GT verbruikt 110W full load. Dit terwijl de prestaties x6 tot x10 hoger zijn.
Je zou toch verwachten net zo als bij de CPU's dat hoe lager het bak procedé, in dit geval 65nm dat dit ook ten gunste zou komen van het stroom verbruik.
Als je gaat vergelijken met de laatste P4 modellen gaat stroomverbruik inderdaad omlaag. Maar vroegah gebruikten CPU's net zo veel of zelfs minder dan nu hoor. Ga eens kijken naar de TDP van bijvoorbeeld de Athlon serie, uit 1999. TDP tussen de 30 en 70 watt. Of wat dacht je van de eerste P4 processoren? Die hadden gewoon een TDP van 50-60 watt.
Imho, je hebt niet effectief 400Watt nodig.
Nvidia moet nu eenmaal meer watt aanraden dan nodig is omdat je nu eenmaal redelijk wat ***-merken hebt tussen de voedingen.
En dan heb je wel degelijk 400Watt nodig, omdat deze zo inefficiënt zijn.

En efficiënte 250Watt voeding is wellicht ook al voldoende.
Volgende generatie word al bijna geintroduceerd terwijl de huidige (8800GT) nog niet eens fatsoenlijk leverbaar is...
Ze zijn inderdaad erg snel met nieuwe generaties, maar ik zie het niet meer echt als een nieuwe generatie, eerder als een evolutie van de huidige, deze kaarten bieden niet echt iets speciaal meer, vroeger was een nieuwe generatie een mijlpaal nu is het slechts een lichte verbetering. DX9 -> DX10 dat was een generatiewisseling.
Ik vraag me af wat zoiets zal gaan kosten. Als de prijs/kwaliteitverhouding net zo slecht is als bij de 8600 serie dan schieten we er nog niets mee op.
Er is helemaal niks mis met de 8600GT ik heb hem zelf, voor een superprijs heb je een superkaart.

Ik weet niet waar je jou verhalen op bazeerd, je zal wel een ati-fanboi zijn. De nieuwe UT, WiC en natuurlijk WoW (met alles highest detail) draait mega soepel en heel stabiel. Bovendien heb ik nog nooit zon stille PC gehad met deze silencer versie (staat een fan op de zijkant van mn kast op het silencerkoelblok en hij hangt boven mij intel cpu fan. Hij is zelfs een tijd beste prijskwaliteit-verhouding geweest om te kopen (een van de redenen waarom ik hem wou, want de 8800 is gewoon overpriced.)

kortom, deze 9600GT verwacht ik hetzelfde van, perfect gameplezier voor mensen die gewoon op 1280x1024~ spelen, en een goed systeem hebben verder.

p.s. ik werk verder met intel core2duo E6750 en 3g intern geheugen op Windows Vista, mocht je je dat afvragen.
Hij was nauwlijks sneller dan de 7600GT en dus geen vooruit gang, maar wel duurder. Dus heeft niets met fanboys te maken.
http://www23.tomshardware...=716&model2=855&chart=318

Verder koop je nu een HD3850 voor iets meer, maar die is 2x zo snel. En zodoende een eeerg goeie bang voor buck heeft.

[Reactie gewijzigd door Reinman op 4 januari 2008 11:31]

Een 8600GT is trouwens nooit de beste prijs/kwaliteit kaart geweest. In hetzelfde prijssegment had je immers kaarten als de X1950pro en 7900GS die makkelijk sneller zijn.
Afgelopen zomer kocht je voor dezelfde prijs een X1950pro die rustig TWEE KEER zo snel was. 8600GT is nauwelijks sneller dan 7600GT en dus ook totaal geen interessante kaart...
De reden waarom die kaart net wél interessant is/was, is de ondersteuning voor directX 10. Toen ik eind augustus vorig jaar naar een laptop zocht die goeie prestaties neer kon zetten tegen een redelijke prijs en dan ook nog eens een beetje mee zou willen in de toekomst (windows vista) dan was dit echt wel de beste optie. Voor de desktop was dat net hetzelfde. Als je een beperkt budget hebt maar toch directX 10 wil dan kom je bijna automatisch uit bij de 8600. Dan is deze kaart zeker interessant.
Elke mid-range kaart (zoals de Nvidia: 8600GT/ 7600GT/ 6600GT - Ati: 2600XT/ X1600XT/ X700XT) heeft dezelfde prijs<->kwaliteit verhouding. Meestal rond de 150 euro en qua prestaties gewoon tussen de budgetkaarten en de laagste high-end kaarten in.. Als je meer voor prestaties gaat, dan moet je maar de hig-end kaarten kopen van meer de 200 euro..
Dat is niet helemaal correct. De 7600GT en 6600GT hadden een véél betere prijs/prestatieverhouding tov de high-end kaarten dan de 8600 en 2600 kaartjes. De X700XT was trouwens een gigantische flop.
Het is een budgetkaart, dus ik gok zelf op een zelfde prijs als de 8600 serie kaarten. :)
Het moet overigens ook wel een stuk minder zijn dan de 8800GT, anders koopt niemand de kaart.
2x zo snel als een 8600GT? Dat valt dan tegen imho, want dan is ie waarschijnlijk iets langzamer dan een ATI 3850, of hooguit net zo snel..

Dit wordt dus helaas geen mainstream kaart van een nieuwe generatie die net zo snel is als een highend van de vorige generatie.. Wil de 9600GT nu een beetje interessant worden moet ie ruim onder de 200 euro gaan kosten..

1 voordeel is er wel, iedereen die nu een 8800GT koopt kan weer rustig gaan slapen.. :)

[Reactie gewijzigd door Inflatable op 4 januari 2008 08:58]

1 voordeel is er wel, iedereen die nu een 8800GT koopt kan weer rustig gaan slapen.. :)
Nou eigenlijk...als mid-februari de eerste 9xxx kaarten gaan uitkomen zou ik daar maar mee wachten...de nieuwe generatie is sowieso sneller(en dus mogelijkerwijs interessanter) maar zeker gaan de prijzen van de 8xxx reeks dalen...dan snijdt je jezelf aardig in de vingers als je nu nog op de valreep een nieuw GFX-kaart koopt
Ehm, het is nog steeds geen G100 hoor. G94, wat wil zeggen een geupdate versie van de huidige G92, die weer afgeleid is van de G80. Dus van een echte nieuwe generatie, daar is nog niks van. Nvidia gebruikt hier hetzelfde trucje als ATi, een nieuwe generatienaam gebruiken voor een update van een huidige generatie. Dat die 9600GT maar 2 x sneller is dan de 8600GT zet hem ongeveer op 3850 speeds. Als hij goedkoper is dan de ATi is het interessant, maar verwacht dat ATi dan ook wel in de prijs gaat snijden.

G100 past beter bij 10800 GTS, of hoe ze hem ook gaan noemen. (10600 is een te lomp getal. Echter bij X800 GT word het wel helemaal ATi..)

[Reactie gewijzigd door JohnAD op 4 januari 2008 12:02]

Ik denk niet dat de 8800GT 512MB veel goedkoper zal worden dan ie nu al is.. Ik kan me iig niet voorstellen dat je een kaart met die prestaties snel voor ruim minder dan de +/- 210 euro wat ie nu kost zal kunnen kopen..

En de 9600GT zal dan wel goedkoper zijn, maar dus ook een stuk trager..

[Reactie gewijzigd door Inflatable op 4 januari 2008 10:10]

Voor competitie met de 3850 komt straks de 8800GS op de markt.
En als je kijkt naar wat een 8600 kost, denk je dan dat deze kaart veel duurder gaat worden? Het is gewoon hetzelfde doelgroep.
2x zo snel als een 8600GT? Dat valt dan tegen imho, want dan is ie waarschijnlijk iets langzamer dan een ATI 3850, of hooguit net zo snel..
Nee hoor, als je hier kijkt zou hij dan bijna 20% sneller moeten zijn. Met een prijs gelijk aan de 8600GT lijkt me dat een hele interessante kaart.
Die VGA charts zijn dan ook niet representatief voor de algemene performance van 'n kaart. Check de reviews waar ze 3850 tegenover 8600GTS zetten, meestal is de 3850 dubbel zo snel als je de reso of AA wat opschroeft. De GT is dan nog een stukje trager dan de GTS.
Erg leuk :D , als die de zelfde price range heeft als de 8600gt is dit een leuk 'budget' game kaartje :D
ik had ooit een ati 9600 'pro' en heb daar heeele slechte herinneringen aan. iets met veel geheugen weinig performance. De naamgeving vind ik dus niet erg handig.
Ohh ik heb de Ati 9600pro altijd een prima kaartje gevonden en deze zat tot een jaar geleden te pronken in mijn pctje, toen werd hij wat te oud wat ook normaal is na 3 jaar.
Heb ooit een 9500pro gehad en heb daar heel plezierige herinneringen aan, veel bang voor buck.
Wat vervelender is dat 2 fabrikanten nu dezelfde namen gebruiken voor totaal verschillende videokaarten, en 9000 serie kaarten van ATI zijn nog steeds te krijgen.
Heel verwarrend voor iemand die er niet zo diep inzit en een leuk kaartje wil kopen.
Want dit soort mensen is toch waar Nvidia op mikt met dit graka`tje
Slechte herinneringen? De ati 9600 pro was een van de beste budgetkaarten die ze ooit uitgebracht hebben. Heeft me destijds 160 euro gekost, anderhalf jaar later kwam Half Life 2 uit en die kon ik vlot in DX9 op high detail spelen. In totaal heeft die kaart bij mij het drie jaar uitgezongen.
En ik heb in deze pc nog steeds een 9800pro :) jaren later kon ik er nog steeds battlefield 2 mee spelen, maargoed dat gaat snel veranderen.
De 9000 serie is denk ik de beste serie die ati tot nu toe op de markt heeft gebracht...
ik heb crysis draaiende op een overgeclockte 9800pro dus een goeie kaart is dat zeker.
400 Watt PSU voor zo'n mid range kaartje is simpleweg gewoon diep triest :')
400 Watt PSU voor zo'n mid range kaartje is simpleweg gewoon diep triest :')
400 q-tec/sweet watts of 400watt is een wereld van verschil.

Daarnaast, als je nog een quad-core ernaast hebt draaien, een berg snelle HDD's dan zou ik dat zeker niet met een lichtere voeding doen....ik heb een 7900GT en die zou ik al niet eens op een 400w of minder voeding laten draaien..laat staan een kaart van 2 generaties láter :+
Ik vraag me eigenlijk af of dat zo'n groot probleem is, ja, misschien voor de electrisiteitsrekening. Maar een 600watt voeding is tegenwoordig al redelijk normaal in een pc, in standaard pc's zit soms al een 500watt voeding ingebouwd, en een echt goede 600 of 800 watt voeding is nooit een slechte investering omdat je die in de volgende pc gewoon weer kan gebruiken.
Kul. In 95% van de HP/Dell/Fujitsu bakken zit een 250-300 Watt voeding. Die dingen draaien perfect (of de problemen liggen toch niet aan de voeding).

Daarnaast is er 26A vereist op de 12V-lijn. Moet je weten dat zelfs een Antec 380 W 80Plus er "slechts" 27 kan leveren.

"Diep triest" is hier dan ook perfect op z'n plaats.
Valt wel mee. 400 watt is de eis voor het hele systeem. Dat is dus het maximale verbruik van het hele systeem. Als ie sneller is als de GTX kan ie best betere performance per watt gaan leveren.
werd er niet gezegd dat hij tussen de 8800GTS en GT zou presteren? mijns inziens is "dubbel zo snel als de 8600GT" niet echt dit nee, want ik herinner me dat de 8600GT zeer ondermaats presteerde en zo een grote kloof creerde in prestaties tussen midrange en high-end bij de geforce 8 serie.
Mwah, als ik het zo bekijk bij ome tom dan valt dat wel mee. De 8600 GT (G84) zet gemiddeld zelfs meer dan de helft van 8800 GTS 640 neer.
zou heel vreemd zijn, dan zou nvidia nog meer kaarten hebben die ongeveer het zelfde presteren, en de kaarten zitten elkaar nu al in de weg kwa prestaties.
Dit is goed nieuws voor de mid-end "normale-niet-diehard-tweaker-consument", de laatste jaren scoorden de Geforce *6**GT series niet extreem veel hoger als voorgaande *6**GT series. Nu echter presteert de nieuwe 600 serie echter 2x zo goed dat is een hele verbetering in vooruitgang, als ze dit ook bij de high-end kaarten gaan toepassen dan weten we straks niet meer wat ons overkomt met de nieuwe generatie beeldplanken.

Wat ook weer mooi is is dat de kaart redelijk futureproof is met de directX10.1, zodat de "normale-niet-diehard-tweaker-consument" niet volgend jaar weer een nieuwe hoeft te kopen.

Kortom het word tijd dat we uitgebreide previews, reviews en benchmarkjes toegestuurd krijgen. Ik ben ook zeer benieuwd hoe deze betrekkelijk mid-end kaart zal concureren met bestaande high end kaarten, dat kon nog wel eens knap goed gaan concureren voor een mid-end kaart. Nu maar wachten op Ati's nieuwe serie...
Das niet helemaal waar.

De 7600GT serie was echt een stuk sneller dan de voorgaande 6600GT serie.
Echter de 8600GT serie was niet of nauwelijks sneller dan de 7600GT serie.
Dat is correct, maar al met al is het volgens mij nog niet voorgekomen dat de kaart echt daadwerkelijk 2x sneller was of wel?
Kijk eens op http://www23.tomshardware...=716&model2=722&chart=275
Je zult zien dat een 7600GT echt wel ongeveer twee keer sneller is dan een 6600GT.
de 7600 gt is bijna 2x zo snel. en 2x zo senel moet je altijd met een korrel zout nemen.
ok had de 8600 gt eigk sneller moeten zijn ipv 25% sneller 60%. sneller.
en dan weer 60 %

1.6 *1.6 = 2,56
1.25*2 = 2,5

dus dan komt het weer aardig uit.
de 8600 is gewoon mislukt. ( net als de hd2600 overgens...)

ps deze cijfers zijn gewoon uit de lucht gegrepen naar wat ik dacht dat de performance sprong ongeveer was.
Dit is goed nieuws voor de mid-end "normale-niet-diehard-tweaker-consument"
Ik wens de mid-end "normale-niet-diehard-tweaker-consument" veel suc6 met 't spelen van spellen in 2008...hij zal 't nodig hebben :P

[Reactie gewijzigd door Rey Nemaattori op 4 januari 2008 09:26]

Dat zal wel meevallen. Niet iedereen zit te wachten op een resolutie van 2800x1900 met 16x AA en AF en dan graag nog 120 FPS kunnen scoren.
Genoeg mensen nemen genoegen met een resolutie van 1280x1024 met 4xAA en AF en dan heb je ook nog steeds een hele goede FPS score.
Alleen de DIE-Hard-tweaker/gamer (met de geldpest) wil de hoogste settings en zal dus dalijk meteen weer de 9800 GTX 1024 kopen om dat te kunnen halen. De rest van zal het allemaal niets uitmaken en kijkt gewoon wat ie eruit kan halen met minder op redelijke settings.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True