Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 135 reacties

Ruim een week voor de officiële introductie van de Geforce 9800GX2 is de prijs van nVidia’s nieuwste vlaggenschip uitgelekt. Amerikaanse winkels vragen tussen de 600 en 670 dollar voor de kaart, omgerekend ruwweg 400 euro exclusief btw.

De Geforce 9800GX2 bestaat uit twee Geforce 8800GT-kaarten die met elkaar verbonden zijn via een sli-brug. Vermoedelijk zullen de core’s op 600MHz geklokt worden en het geheugen op 2GHz. Hiermee zal de Geforce 9800GX2 net iets sneller zijn dan twee losse 8800GT-kaarten in sli-opstelling aangezien deze geleverd worden met 1,8GHz-geheugen.

De kaart zal 18 maart officieel voorgesteld worden door nVidia. Verschillende Amerikaanse winkels hebben de Geforce 9800GX2 al opgenomen in de prijslijsten met bedragen variërend tussen de 598 en 668 dollar. Omgerekend naar euro’s en rekening houdend met de btw komt dat uit op een bedrag tussen de 460 en 520 euro.

Geforce 9800 X2 Albatron 2 Geforce 9800 X2 Albatron MSI Geforce 9800 X2
Moderatie-faq Wijzig weergave

Reacties (135)

Ik ben benieuwd hoe de 9800 GX2 presteert ten opzichte van de HD 3870 X2. Absoluut gezien zal de 9800 GX2 het vrij gemakkelijk winnen van de HD 3870 X2, maar wat betreft de prijs/prestatie-verhouding zal het elkaar niet veel ontlopen. ¤ 325 voor de HD 3870 X2 en ¤ 450 voor de 9800 GX2, dat is toch nog een fors prijsverschil van ¤ 125. Als de prijzen zicht "settlen" en de benchmarks bekend zijn, dan kunnen we er pas echt iets zinnigs over zeggen.
Ik denk dat ATI meer vrees moet hebben voor de 9600 GT, die schijnen als warme broodjes over de toonbank te gaan. Hopelijk kan ATI nog terugvechten met de A12-revisie van de RV670, maar vaak zorgt het "uitmelken"/optimaliseren van een bestaande chip niet meer voor een significantie performance-boost. Misschien heeft ATI nog een verrassing in petto ...

[Reactie gewijzigd door Wilhelm11 op 10 maart 2008 19:04]

Je mag enkele factoren van beide kaarten niet uit het oog verliezen:
ATI 3870 X2
°ati heeft meer ervaring met crossfire
=>betere prestatie tegenover 1GPU
=>betere ondersteuning?/drivers
°goedkoper
°revisie onderweg(=>prestatie winst 5%?)

Nvidia 9800 GX2
°betere singlecore prestaties
°duurder
°hebben Crysis aan hun kant

Het is inderdaad waar dat ATI zich zorgen moet maken over de 9600GT:
Mensen geloven dat hij beter is dan de 8800GT :X en hij kost evenveel als de -iets slechter presterende- HD3850.
De 3870 profiteert dan weer van het feit dat hij vaak aangehaald wordt als high end terwijl hij net iets beter presteert dan de 9600GT(meestal).

Aan de andere kant mag je IGP's niet vergeten: op het gebied van moederborden is AMD ontzettend goed bezig en verast zowel intel als nvidia in deze! Iets wat voor OEM's niet onbelangrijk is! ;)

Ati heeft een verrassing in petto voor deze zomer verwacht ik: de R700(45nm) is on-track en presteert single core vs. single core 50% beter dan de R670, en zijn verbruik zal kleiner zijn tegenover de op 65 nm geproduceerde GT200 die naar het ontzettend veel verbruikt...
Je mag enkele factoren van beide kaarten niet uit het oog verliezen:
ATI 3870 X2
°ati heeft meer ervaring met crossfire
=>betere prestatie tegenover 1GPU
=>betere ondersteuning?/drivers
°goedkoper
°revisie onderweg(=>prestatie winst 5%?)
ATi meer ervaring met crossfire? Toen NVIDIA met SLI kwam moest ATI nog een crossfire beginnen. De rest is puur speculatie.
Aan de andere kant mag je IGP's niet vergeten: op het gebied van moederborden is AMD ontzettend goed bezig en verast zowel intel als nvidia in deze! Iets wat voor OEM's niet onbelangrijk is! ;)
Wat heeft dit nog met deze kaart te maken? Wat ATI met IGP's doet niets terzake.
Ati heeft een verrassing in petto voor deze zomer verwacht ik: de R700(45nm) is on-track en presteert single core vs. single core 50% beter dan de R670, en zijn verbruik zal kleiner zijn tegenover de op 65 nm geproduceerde GT200 die naar het ontzettend veel verbruikt...
Weer niet relevant en speculaties ...
Ik koop dit soort dure zooi niet meer. Ik heb me een budget vastgesteld van om en nabij de 200 euro voor een grafische kaart en dat is imo ook het beste wat je kunt doen. Dit soort kaarten komt altijd als eerste uit, vreet enorm, maakt een hoop herrie en pakweg 6-9 maanden later verschijnt er een kaart die hetzelfde/iets minder presteert, stil is, zuinig is en voor een normale prijs verkocht wordt. Kijk naar wat er gebeurd is met HD 2900XT en HD 3870, 8800GTS/GTX en 8800GT. Mensen die nu van hun ouwe XT, GTS of GTX af willen hebben een enorme afschrijving over een relatief korte periode. Als je high-end koopt is PC gaming idd duur te noemen. Slim shoppen en met net iets minder tevreden zijn is veel leuker voor je portomonnee imo...
Eén puntje uit je argumentering klopt niet. De 8800Ultra is bijna 1.5 jaar lang de topkaart geweest, iets wat nog nooit vertoond is sinds de allereerste GeForce!

Ik heb nog geen 2 weken geleden een artikel gezien op YouGamers die de stelling bevatte dat de 8800GTX/Ultra de beste high-end investering was die je de laatste twee jaar kon doen op vlak van GPU's, en dat vind ik nog steeds! Die 384bit-memorybus helpt de kaarten echt wel bij bv. Crysis op ultrahigh 1600x1200 met AAx8 tegenover een 8800GT 512Mb.

Maar goed, voor de rest ben ik het volledig met je stelling eens eigenlijk, dus ga dit nu niet als persoonlijke aanval zien ;)
Eens. 14 maanden geleden ook m'n buidel opengetrokken voor een 8800GTX. Beste investering ever! Nu (pas!) komen de kaartjes die 'm voorbij lopen, en dan nog alleen met SLI-achtige oplossingen.

Aan de andere kant is het ook weer merkwaardig dat we dus anderhalf jaar zo'n beetje stil staan. Ok, de 8800GT 512 is de absolute bang-for-the-buck, maar echte significante stappen qua performance zie ik niet (gezien over afgelopen anderhalf jaar). Een SLI-oplossing zie ik even niet als een stap, dat is gewoon (matig nogwel) opschalen.
Heeft wat te maken met overname AMD en ATI, alsmede de enorme vertraging die ATI opliep. Ik schat dat dat een uitzondering gaat zijn.
Okee, maar dan wordt het nu dus moeilijk om de kaart aan te wijzen die je nu moet kopen om ook weer anderhalf jaar van te kunnen genieten.
De GTX is nu al meer dan een jaar uit, G92 maar een paar maanden, dat is nou niet bepaald "na 2 maanden al een net niet betere, zuinigere en stillere kaart".
Sluit ik me helemaal mee aan. Ben altijd een GTS fan geweest (was nu even de gt)
Das een flinke pil zeg. Je kan goedkoper 2 losse GT's kopen. OK, je kunt geen quad SLI opzetten maar je bespaard jezelf wel een paar centen.
Wat ik niet snap is het ontwerp van de 2 PCB's. Waarom wijken ze af van voorgaande GX2's? Weken geleden doken er al foto's op van stickers die op de GX2 zouden komen met waarschuwingen over de mogelijk extreem hete buizing van de kaart zelf tijdens intensief gebruik. Iets wat aan geeft dat het ontwerp niet geheel zonder gebreken is. Was het oude ontwerp dan echt zo inefficiënt dat het dit rechtvaardigt?
Dit had ik eigenlijk niet echt verwacht van de 9800 serie.
Ik dacht dat dit gewoon een enkele PCB zou worden zoals de GTX en Ultra enzo.

En ik had de kaart ook een stuk sneller verwacht met DDR4 bijvoorbeeld en een dikke GPU chip die flink sneller zou zijn dan de Ultra van nu.
Maar als ik dit zo lees dan gaat de huidige G80 8800 Ultra deze kaart nog wel aardig bij houden in menig benchmark programma.

Ik ben blij met mijn pas aangeschafte 8800GTS 512 in SLI.
Deze waren toen ik ze vorige week kocht nog 229 Euro per stuk.
Dus deze prijs is dan misschien wel ongeveer gelijk aan de 9800X2 maar wel een stukkie sneller nog.
Alleen zoals al eerder werd genoemd heb je dan wel weer een SLI moederbord nodig als je die nog niet had en dat is dan wel weer wat duurder samen.

[Reactie gewijzigd door Sunbeam-tech op 10 maart 2008 22:35]

Ik lees vaker op deze website dat beroemde mensen uit de game industrie het erover eens zijn dat pc gaming zo goed als dood is.
Je vraagt je dan af waarom ze videokaarten van +500 euro blijven ontwikkelen.
Verkoopcijfers van pc games lopen altijd achter op de console versies, een recent voorbeeld is COD4. Het is dan echt een nichemarkt lijkt me, zulke videokaarten.
De verkoopcijfers van de games mogen dan andere dingen aangeven, maar ik denk niet dat de videokaartenbranche op dit punt een nichemarkt is...
Als ik alleen al naar mezelf kijk, in anderhalf jaar tijd, 2x een nieuwe kaart... eerst van een 5200FX naar een 7950GT, en 9 maanden later naar een 8800GT... en als die GT het had uitgehouden, was er nu geen 8800GTS aanwezig...
225,- voor de 7950, en 320 voor de 8800GTS... en das dus alleen maar voor nvidia.. niet te delen met een MS of Sony... :)

Kijk eens wat een gemiddelde high-end (onderkant van topsegment) kaart kost, en leg daar eens een Xbox360/PS3 naast....
Als je dan ook nog eens bedenkt dat de videokaartenbranche een bijna wegwerp-markt is...
Gezien het feit dat je om 'bij te blijven' elke 6 tot 9 maanden een nieuwe kaart kan kopen...

Dan denk ik dat Nvidia liever 10 PC-fanatics heeft, dan 100 consoles.... (Consoles gaan veel langer mee....)

Maar op een klein punt heb je wel gelijk, de top-of-the-line kaarten is bij introductie een niche... maar daar is 3 maanden na introductie weinig meer van te zien...
Elke 6 tot 9 maanden is echt overdreven hoor! Toen ik mijn 7900GT kocht twee jaar geleden was dat de op één na snelste kaart, en nu, twee jaar later, trek ik nog steeds Crysis met alles op medium 1280x1024 met 30fps, dus net speelbaar. Waar haal je het vandaan dat je niet meer zou meekunnen na 6 maanden???
Je geeft t antwoord zelf al, medium instellingen en nog net speelbaar. Dus voor alle eyecandy komt ie te kort. Of jij dat accetabel vind is een persoonlijke keuze. Mn pa is heel blij met een tnt2 64mb. Zwaar overkill voor zn potje patience ;p
De enigste kaart die zich na een behoorlijke tijd nog steeds staande houd is een 8800gtx (ultra). De nieuwe multigpu mogen dan wel een beetje sneller zijn, als je applicatie een probleem heeft met sli/x-fire zit je toch met een behoorlijk performance verlies.
Ken jij dan al een single-kaart die Crysis volledig trekt?
Ik heb mijn argument inderdaad niet sterk genoeg gemaakt, Crysis is nog steeds de enige game die ik niet volledig opengesmeten kan spelen, dus laten we dat aub als een uitzondering beschouwen. Want zelfs een 8800GTX trekt die niet op z'n eentje :o

Trouwens, mijn punt was eigenlijk dat ReLexEd overdreef door te zeggen dat je om de 6/9 maand een nieuwe GPU moet kopen. Jij weerlegt zogezegd wat ik probeer te weerleggen, maar je zegt exact hetzelfde als ik: dat de 8800GTX/Ultra nu al 1.5 jaar alles trekt. En die was 1.5 jaar geleden de high-end kaart! Dus als je 1.5 jaar geleden redeneerde als ReLexEd zou je die GTX/Ultra niet gekocht hebben omdat hij na 9 maand bijlange na niet meer waard zou zijn wat hij je gekost heeft, maar nu is ie zelfs na 18 maanden nog steeds zijn geld waard!

Haha ;)
Zolang je van AA ablijft trekt een Sinle HD3870OC Crysis anders prima @ DX10 alles max :) er zijn zelfs meerdere anti-zeik reviews op internet die laten zien dat het prima kan met hardware onder de 1000¤ om Crysis perfect te spelen (mijn pc was zelfs maar 900¤) Gewoon een leuke quadcore (Agena 9600) 4GB ram in Dual Channel en een leuke videokaart en die game is prima te draaien op Highest (+-35~45fps gemiddeld)
Op DX10 ??
Dat durf ik te betwijfelen.
Ik heb nog geen config gezien met een single card setup die Crysis soepel kan draaien helemaal maxed out. En een quadcore of 4gb geheugen maakt het verschil niet. 2 GPU's. die maken het verschil WEL.

Op DX9 lukt dat overigens wel met een enkele kaart.

[Reactie gewijzigd door lenny_z op 11 maart 2008 09:52]

misschien bedoelt hij op 1024x768?
want op 1920x1200 kun je het inderdaad schudden. Als je "maxed out" ook betrekt op de resolutie, en je bedenkt dat er schermen te koop zijn met max. reso van 2560xnogwat, dan zul je ZEKER niet in staat zijn om met een single-head graka Crysis met alles op Ultra te draaien.
Haha, de reden dat pc games dood zouden gaan is dat iedereen alles van internet plukt. Die piraten willen echter wel graag al hun games op high spelen, en een NVIDIA kaart haal je niet zomaar van thepiratebay.

Daarnaast is de dood van de PC als gameplatform een grote hoop FUD die ineens de laatste tijd heel erg opspeelt, vooral na die onvolledige cijfers over Amerikaanse retail games verkopen. Daarbij wordt dan voor het gemak even vergeten dat Blizzard 10 miljoen maandelijks betalende klanten heeft, dat er nog miljoenen gamers andere MMORPGs spelen, dat Valve enorm veel verkoopt via Steam en dat er ook nog talloze andere online winkels zijn.
Verder is er natuurlijk meer dan alleen Amerika. Zo werd er hard geroepen dat Crysis maar rond de 100.000 kopieen verkocht had in Amerika, maar volgens EA zijn er wereldwijd meer dan een miljoen exemplaren verkocht.
Vergeet niet, het gaat om een teruggang van de groei van PC games, niet een achteruitgang. De hele pc markt heeft jaarlijks nog steeds meer omzet dan alle consoles bij elkaar.
Inderdaad, iedereen praat elkaar maar na dat de PC markt dood is, maar dat valt allemaal wel heel erg mee. Zelfs de teruglopende PC-spelverkopen in Duitsland (ben ff linkje kwijt) doen daar niets aan af. Het zou zo maar een dipje kunnen zijn en geen trend... :)
Zo goed als dood is ook een beetje overdreven. Het loopt terug maar dood is het nog zeker niet.

Verder kun je ervanuit gaan dat het winstgevend genoeg is anders zullen zij ze gewoon niet maken! Het kan net zo goed zijn dat ze inderdaad geen winst maken op de verkoop van deze kaarten omdat ze er zo weinig verkopen (kleine aantalen = hogere kosten) maar dan is het alsnog goed voor je naam om van de daken te schreeuwen dat jij de snelste bent.
Zelfs het 'het loopt terug' is ietswat overdreven. In vergelijking met de console-markt is de PC-markt momenteel inderdaad een 'slechtere' markt. Waar de consolemarkt nog steeds grote groeicijfers toont, staat de PC-markt ietwat stil qua groei. Dit heeft naar mijn idee net zoveel te maken met het feit dat consoles momenteel heel veel 'goede' titels krijgen, titels die mensen willen hebben en bij de PC blijven deze 'must-haves' wat achter, plus de markt is een beetje gekrompen in de zin dat meer mensen langer bij 1 spel blijven (WoW bijvoorbeeld). In plaats van jammeren dat de PC-markt dood is, zouden de developers zich eens moeten richten op vernieuwende games die mensen werkelijk kunnen waarderen en waarvoor ze geld blijven uitgeven (Sims is niet zonder reden een uiterst populaire game).
Het is dan echt een nichemarkt lijkt me, zulke videokaarten.
Een nichemarkt is ook een markt en dus de moeite waard om iets voor te doen.
Wat mij opvalt aan de 1e en de 2e foto is dat er bij geheugen bandbreedte 512 bit staat. Nou vraag ik me af of ze simpelweg 2*256 doen, omdat hij 2 cores heeft met elk een 256 bit geheugenbus, of dat het betekend dat deze een 2 keer zo grote geheugen bus heeft als de normale 8800GT.
Volgens mij is het gewoon net zo'n verkooptruukje als het idee dat een 3870X2 1GB aan geheugen heeft, maar dat is alleen de fysieke hoeveelheid. Omdat het geheugen virtueel identiek is op beide kaarten is er maar (net iets meer dan) 512 MB bruikbaar voor programma's. In theorie zou er 1GB kunnen worden gebruikt, maar dan zit je enorm met bandwidth-problemen, gezien het feit dat de helft van het geheugen op een andere plek zit.

Edit: Alhoewel de 3870X2 wel een single-PCB design is. Ik zie in de toekomst nog wel meerdere GPUs hetzelfde geheugen delen, maar aangezien de huidige ontwerpen nog afhankelijk zijn van Crossfire/SLI drivers is dit vrijwel onmogelijk zonder een compleet nieuwe driver te maken. Plus zullen de dual-PCB kaarten hier simpel weg de bandbreedte niet voor hebben, en moeten er dubbele aansluitingen naar het geheugen moeten worden gemaakt wat ruimte en daarmee PCB-geld kost.

[Reactie gewijzigd door Toungy op 10 maart 2008 18:31]

2*256 blijft 256 bit
Heel opvallende specificaties op de foto's.
Er zijn toch wel een paar dingen die me opvallen, ten eerste is het een dus een X2, dus het heeft dubbele GPU, maar de vraag dan is, wat zouden de temperaturen hiervan zijn, zo'n krachtige GPU kan niet zo koel lopen als een oude videokaart.
Dan is er nog de vraag, wat zijn de benchmarks? Zijn ze beter dan pak maar 2x8800GTS(G92) in SLI, wat je wel zou verwachten, maar da's ook niet zeker.
Dan een andere opvallende detail is de DDR3 geheugen, ik dacht dat het met de nieuwe videokaarten toch een vooruitgang zou zijn net als bij ATI dat ze dan DDR4 geheugen zouden plaatsen.
Dan ook nog mijn belangrijkste opmerking is waarom het ook nog altijd DirectX10 is en niet zoals bij ATI DirectX10.1. Zo'n kaart koop je op dit moment voor gaming power maar ook om een jaar of twee in de toekomst te kunnnen kijken zonder zich zorgen te maken over de kracht.
Het zou natuurlijk wel afwachten worden voor de GT en GTS en de GTX en Ultra voor betere specificaties te hopen.
Welke chip zou deze kaart trouwens gebruiken en is het een enorme energievreter?
Toch wel heel wat vragen dat zich opstapelen.

[Reactie gewijzigd door Dima_2005 op 10 maart 2008 18:50]

Als je het artikel had gelezen en deze hele zwerm commentaar dan had je bijna alle vragen beantwoord gehad:
-Het zijn 2x 8800GT kaarten in SLI gekoppeld (volgens sommige in het commentaar zijn het 2x GTS kaarten)
-Deze heeft GEEN dx10.1 support want dat heeft de 8800GT/GTS niet. Als ze dezelfde chips gebruiken dan is dat dus niet toegevoegd.
-DDR4 word ook niet bij de 3870X2 van ATI gebruikt, dit geheugen is een stuk duurder dan DDR3 en is nieteens zoveel sneller als men had gehoopt, ze proberen de kloksnelheid van DDR3 juist te verhogen wat meer snelheidswinst oplevert.
-Benchmarks zijn er nog niet dus daar vind je dan ook niets van terug (zie eerder in dit topic).
-Het verschil tussen DX10 en 10.1 heeft niets met de snelheid te maken van de kaart. Wel moeten gamedevelopers hierbij opletten dat ze hun spellen ook compatible maken met DX10 als ze hem ontwerpen voor DX10.1. Dit hoeft voor de gebruikers niets uit te maken, ook over 2 jaar niet.
-De specificaties staan op de foto.
-Het energieverbruik: neem een 8800GT en vermenigvuldig dat met 2 dan heb je een redelijke schatting hiervan.

[Reactie gewijzigd door kfaessen op 10 maart 2008 19:09]

Ligt eraan, bepaalde berekeningen zijn in DX10.1 efficienter en sneller te berekenen dan in DX10, dus je kunt stellen dat DX10.1 sneller is.

Verder heeft een DX10 kaart Shader Model 4.1 en kan deze overweg met 32-bit floating-point operations wat de beeldkwaliteit ten goede komt.

:-) Dus ja het is wel een beetje jammer dat Nv dit niet heeft en ATI wel, maar voor Nv was het ook onmogelijk om in deze kaart te stoppen.
Er zijn geen dx10.1 games en in de nabije toekomst komen er ook geen. Er is dus geen voordeel om nu een dx10.1 kaart te hebben.

En dan nog, stel dat er dx10.1 games bestaan, je hebt hier de snelste kaart op markt, het boeit dan ook niet dat hij bepaalde berekeningen trager kan doen of niet. Hij zal nog altijd de snelste bijven omdat de dx10.1 functies maar beperkt zijn tot specifeke en zeldzame gevallen.
Ik ben het grotendeels met je eens maar wat ik denk is dat de meeste mensen die zo'n kaart kopen de max uit hun games willen halen en dan haalt zo'n kaart ook meestal de 2 jaar niet eens hoor :)
Volgens mij ben je goedkoper en beter uit als je nu een kaart tussen de ¤200 en ¤300 koopt en die dan over een jaar vervangt, in die 2 jaar ben je even duur uit en heb je waarschijnlijk nagenoeg gelijke of dat 2e jaar zelfs betere prestaties.
Vroeger... Was de nummering van nVidia lekker duidelijk; duizend erbij was gewoon een nieuwe serie met een nieuwe chip. Jammer dat ze dat nu los laten met de 9000 serie. een 9800 blijkt gewoon twee 8800GT's bij elkaar geplakt te zijn. Wanneer komen de echten nieuwe chips er aan, en hoe gaan ze die noemen?
Je kan het ook andersom zien, de 8800GT en de GTS512 waren eigenlijk van de nieuwe serie maar kregen nog een oude benummering. Verder om gelijk hun nummering af te kraken omdat ze even een uitzondering maken vind ik ook een beetje overdreven.

Wel vind ik dat het zeker wel duidelijker kan, dat vind ik ook zo mooi aan de nieuwe AMD nummering, daar geldt gewoon hoger is beter (vanuitgaand dat ze dat vol gaan houden, oke als er een nieuwe serie komt krijgen die natuurlijk hogere nummers maar het gaat nu even om de laatste drie getallen in de naam en niet de eerste).
Als ze nu ook een 9800 pro introduceren, kunnen ze op het succes van de oude radeon voortborduren :+
De 9800 pro, de laatste kaart van ATI die echt nog goed was.
Gelul. X1900 series, X1950pro en de huidege HD 38x0 kaarten zijn uitstekend. Vooral de X1950pro en huidige kaarten bieden/boden enorm veel waar voor hun geld...
Niet helemaal correct: de 8800GT heeft namelijk een G92 core, dus die had gewoon 9800 (of 9600, wat ze willen...) moeten heten. de 9800 heeft dus wel het goede nummer.
Voor de rest kan ik nog steeds heel goed mijn weg vinden in de GeForce-serie. Natuurlijk lijkt het op eht eerste zicht niet zo gemakkelijk (GS, GT, GTS, GTX, Ultra, GX2, en dan heb je nog verschillen met GTS 320, 640 en 512 :P) maar imo is het niet anders dan bij andere technologie productlijnen: je moet je gewoon goed informeren en met de ontwikkelingen mee blijven.

[Reactie gewijzigd door kiang op 10 maart 2008 19:07]

Nee hoor, volgens mij waren de 7 series ook gewoon opgefokte 6 series kaarten, zo'n beetje wat nu met de 8/9 series gebeurd.
6 en 7 serie waren toch echt verschillend in aantal pipelines en breedte geheugenbus.

Als voorbeeldd de 7600 die toch echt 50% sneller was dan een 6600. Idem voor een 7900 tov 6800.
Dat is nu ook zo, de 7600GT was 10% sneller dan de 6800GT, en de 9600GT is stukken sneller dan de 8600GTS. Alleen wel jammer dat de 9800GX2 twee 8800GT's is, Nvidia had het beter de 8800GT2 (of GX2) o.i.d. kunnen noemen.
Juist niet, trek even je vergelijking door.
7600GT > (10%) 6800GT
En nu:
9600GT < 8800GT

Dus het klopt niet meer !
De 9600gt is niet de opvolger van de 8800gt maar de 8600gt, de 8800gt was weer de opvolger van de 7800gt. en de 7600gt staat tegen over de 6600gt en niet de 6800gt.


best simpel eigenlijk.
Het waren toch twee speciaal (met ietwat afwijkende specs) GTS-512 cores? Of heb ik dat nu echt fout gehoord de afgelopen weken..
Met uitzondering van de GeForce 4 MX serie was het vroeger inderdaad logischer te volgen :)
Die 8800GT is net een nieuwe chip. Jammer dat ze die niet een andere naam gegeven hebben.
Dat deden ze om de verkoop van de andere 8800 kaarten niet te ondermijnen, want zeg nu zef: wie koopt er nu een dure 8800 ... als je een 9800GT voor minder geld krijgt? :)
Ik denk dat 9800 een goede benaming is, want die bevat de nieuwe G92 core. De oude 8800 hebben de G80 core maar de 8800GT de G92 core. Dus eigelijk klopt de naam 8800GT al niet meer.
Geef mij dan maar 2 opgefokte 8800's, een stuk goedkoper, EN Ik kan doorwerken als er 1 kapot gaat!
Ligt er maar net aan wat je goedkoper vind. Je vergeet de meerprijs van een SLI moederbord, als dat ding de nieuwere CPU's al vreet. Plus, je gaat het terug zien op het verbruik (nVidia's chipsets zijn alles behalve zuinig)...
Voor deze kaart heb je sowieso een SLI bord nodig ook al draai je maar met 1x 9800GX2.
De 9800GX2 zijn gewoon 2 kaarten in 1.
Ik denk anders niet dat dit een kleinverbruiker wordt: het zijn nog altijd 2 8800GT's, miaachien met enkele kleine tweaks, maar in essentie precies hetzelfde.

Begin je 600+W voeding maar klaar te zetten zou ik zeggen.
Hij bedoelt de chipsets, voor sli moet je een nvidia chipset hebben en die zijn niet zuinig, maar intel zijn zuinigers.
Het zal in de realiteit geen verschil maken maar: dubbel zoveel baanvakken!
Was het niet zo dat je voor deze opstelling sowieso een SLI-bord nodig had? ^^

[Reactie gewijzigd door mieJas op 11 maart 2008 08:29]

Bij deze kaart heb je ook een hdmi poort hé. En ik denk dat de koeling van deze kaart beter zal zijn dan van 2 gt's.
Dat zegt niet zoveel, DVI to HDMI connectors zijn er genoeg...
Maar hier kun je je geluidskaart met een kabeltje intern aansluiten op je videokaart, waardoor de output van het HDMI signaal ook geluid bevat. Handig dus als je vanaf je PC op je TV een filmpje wil kijken!
Koop een nieuwere ATI kaart en je hebt dat hele kabeltje niet eens nodig ;)
Die kan je ook beter koelen, grootste nadeel vind ik van die sandwich kaarten, heb zo'n 7950GX2 gehad en die werd erg heet en daar kon je niks mee verders.
Niemand heeft deze kaart nog geprobeerd, misschien heeft nVidia er wel een (ecc achtig) foefje in zitten dat een core uitschakelt als deze fouten geeft.

Ik snap trouwens niet wat jij goedkoper vind, 2x8800GT was bij introductie ook 400 euro. Het gaat hier alleen om advies/introductieprijzen.

Verder wacht ik toch liever op benchmarks tussen deze kaart en het nieuwe topmodel van ATi waarvan laatst al het een en ander verscheen.

Om maar even te vergeten dat SLI alleen met exact dezelfde kaarten werkt, en een duurder (zowel in prijs als stroomverbruik) moederbord nodig heeft.

ps: ik wil echt niet als een ATi fanboy overkomen, ik heb tenslotte nu ook een 8800GT, probeer objectief te blijven ;)
Jij hebt kennelijk nog nooit gehoord van RAID, want dat is daar nu juist het principe van.
Sjees , 500 a 600eurie's voor een grafischekaartje !!

Man daar heb je een console voor die gemiddeld 2 a 3 jaar mee kan !
Niet zo vreemd dat de markt voor pc-games terug aan het lopen is , oke piratenrij als Warenz enzo doen dat ook wel de das om.

Maar dit is een stukje hardware voor een pc om games te kunnen spelen.

Ben wel benieuwd of dit een snelle jongen gaat worden of die de 3870X2 laat verbleken ?
Bedoel 2x 3870X2 tegen een 9800GX2 zal ATI sneller zijn en ongeveer net zo duur als je 2 kaarten koopt van ATI.

Ik weet niet wat dit ding aan stroom gaat vreten , dan zijn 2x 3870X2 natuurlijk duurder in gebruik omdat dit meer stroom vreet.

Maar ik wil wel eens benchmarks zien van dit ding, ben bang dat die die 600euries niet waard zullen zijn en dat ik beter kan wachten of een nieuwe generatie grafischekaarten komend jaar.
Man daar heb je een console voor die gemiddeld 2 a 3 jaar mee kan !
Deze kaart veegt dan ook de vloer aan met alle consoles.

Maar even serieus, dit soort kaarten is gewoon vergelijkbaar met een dure sportauto, voor de liefhebbers, maar daar ook naar geprijsd. Op een gegeven moment betaal je gewoon twee keer zoveel voor een minimale performancewinst. Sommige mensen hebben dat er voor over, en anders kun je beter gewoon de veel redelijker geprijsde 8800GT of GTS kopen (die overigens nog steeds de vloer aanvegen met de consoles ;))

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True