Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 204 reacties
Bron: X-bit Labs, submitter: Ferry Kagchèl

In een forumpost op X-bit Labs is informatie geplaatst over nVidia's eerstkomende videocore die tot nu toe bekendstond als de G92. De chip, die de GeForce 8800 in november moet gaan opvolgen, zal het label GeForce 9800 dragen.

De GeForce 9800 moet volgens de forumpost ruim dubbel zoveel rekenkracht als de GeForce 8800 Ultra gaan leveren. Daarmee zou de videochipfabrikant wel eens heel dicht bij een rekencapaciteit van één teraflop kunnen komen, een grens die het bedrijf al langer claimt 'binnenkort' te zullen overschrijden. De nieuwe videocore mag naar verluidt in november verwacht worden en moet in een GTX-versie tussen 549 dollar en 649 dollar gaan opbrengen; de GTS-variant zal naar verluidt tussen de 399 en 449 dollar gaan kosten. De G92 zal op 65nm gebakken worden en opgebouwd zijn met meer dan een miljard transistoren.

Met een stroomverbruik dat lager ligt dan dat van de 8800-core zou de chip toch nog in staat zijn native gpgpu-toepassingen te draaien en de tweede generatie van de unified shader-architectuur te ondersteunen. Als de informatie klopt zal de geheugeninterface 512 bits breed worden en ondersteuning bieden voor 1GB gddr4-werkgeheugen. De rekenkern zelf zal zowel DirectX 10.1 als OpenGL 3.0 spreken. Bovendien wijst de aanwezigheid van een onboard geluidschip op het gebruik van een hdmi-interface. Tot slot wordt gewag gemaakt van edram-geheugen zodat tot viervoudige antialiasing mogelijk is zonder dat de framerates in elkaar zakken.

Moderatie-faq Wijzig weergave

Reacties (204)

1 2 3 ... 8
Als er een indicatie is dat deze specs pure fantasie zijn, dan is het wel de vermelding van eDRAM voor dit soort chip.

Ten eerste: eDRAM is duur, verbruikt veel en heeft nog altijd een veel kleinere densiteit van standaard DRAM.

Ten tweede: eDRAM is nuttig als de interface met het extreme geheugen is al te fameus is, zoals het geval voor xBox. Met een bus van 512-bit is dat weinig waarschijnlijk.

Ten derde: het gebruik van eDRAM in de render backend impliceert een radicaal andere architectuur dan de huidige PC chips van zowel ATI als Nvidia: omdat de hoeveelheid on-chip geheugen nog steeds veel te klein is om een volledige render buffer op te slaan, moet men gebruik maken van een tiling-based architectuur. Dit soort architectuur is zeer interessant voor chips die bandwidth limited zijn (vb. GPU's voor portables en Xbox), maar heeft ook serieuze nadelen, zoals sterke performance degradatie wanneer er teveel primitives gerenderd moeten worden. Dit kan opgevangen worden door een aangepaste API, maar DX9 of 10 zijn dat niet.
Op dit moment is er geen enkele DXn chip die zoiets ondersteunt. De Kyro hebben de meesten al lang vergeten. Het is zeer onwaarschijnlijk dat een bedrijf als Nvidia slechts 1 jaar na het uitbrengen van een radicaal nieuwe architectuur plots nog iets radikaler zou doen en naar een tiled render overstapt. Slechts 3 chips (G80, G84 en G86) uit een design waar men 3 of 4 jaar aan gewerkt heeft?

Ten slotte: dit Xbitlabs bericht is de posting van een lezer. Het is weinig meer dan de wish list van een weinig technisch aangelegen fan boy.

[Reactie gewijzigd door newinca op 26 juli 2007 09:08]

Op dit moment is er geen enkele DXn chip die zoiets ondersteunt.
De geintegreerde Intel-chips maken gebruik van tile-based rendering (ironisch genoeg heeft Intel nu problemen met het toevoegen van hardware T&L/vertex shaders aan de drivers, iets wat destijds Kyro2 heeft genekt in de strijd met de GeForces en Radeons... Zoiets is in een tile-based renderer natuurlijk ook veel lastiger te integreren).
Intel heeft ook wat technologie van PowerVR (de mannen achter Kyro) in licentie genomen.
Maar inderdaad, daarvoor geldt in principe ook dat het een bandwidth-limited systeem is (hoewel tile-based deferred rendering natuurlijk naast bandbreedte ook rekenkracht kan besparen, omdat je geen overdraw hebt).

[Reactie gewijzigd door ddbruijn op 26 juli 2007 11:40]

Absoluut correct! (Ik had die Intel dinges over het hoofd gezien. My bad.)

De geintegreerde Intel GPU's zijn eigenlijk nog niet eens zo slecht... ... ... als je rekening houdt met de extreem lage memory bandwidth waarin ze moeten functioneren. Hier heeft een tile based design wel degelijk zin. Dat de helft van de spellen nauwelijk werkt is naast de kwestie voor 99% van de kopers.

[Reactie gewijzigd door newinca op 26 juli 2007 17:57]

Wat betreft tile based rendering: niet vergeten dat Nvidia één en ander van 3dfx heeft aangenomen en dat 3dfx Gigapixel-tech onder de vleugels had (die waren bezig met TBR). Nu is dat wel al een tijdje geleden, maar als men daar sindsdien mee doorgewerkt en getest heeft en men ziet de tijd rijp ervoor...
ja tenzij nvidia weer gaat voor een one generation ahead

het eDRAM verhaal lijkt op het randje van de afstand die een gemiddelde (buitenlandse?^^) tweaker vooruit kan kijken dus het zou ook kunnen kloppen

de geloofwaardigheid is misschien beter te testen door bvb te kijken naar opengl3, is dat (in november) wel klaar? (zelf heb ik daar geen zicht op atm)

[Reactie gewijzigd door Esthero op 26 juli 2007 09:36]

De spec voor Longs Peak (de officiele naam is nog niet vrijgegeven) is beloofd voor eind deze zomer. Voor zover ik weet is dit vooral een serieuze API optimizatie zonder additionele features die nieuwe hardware noodzakelijk maken.

OpenGL is een redelijk conservatief consortium en dat hebben de engineering SW bedrijven graag.

In feite is de vermelding van OpenGL 3.0 een andere weggever dat het hier om een fantasie gaat van iemand die niet weet waarover hij het heeft! :)
+2!
Ik kon nergens een link naar NVidia vinden in het geheel, het kan heel goed (deels) verzonnen zijn. Door een paar aannemelijke dingen erbij te zetten lijkt het toch een geloofwaardige post.
Die 4x aa is niet de maximum.. dat is de maximum waarop je geen perf hit hebt ;). Je kunt dus wel hoger.. maar dan krijg je gewoon perf hit.
You're going to need some insane sources to back up those unbeliavble claims.
Dit bovenstaande is een quote uit het X-bit labs forum. Hierbij wilde ik mij graag aansluiten, want ik wil eerst zien en dan geloven.

/edit: ben ik nou de enige die zijn vraagtekens bij deze forumpost zet hier op t.net...? Want meestal als het mooi is om waar te zijn, is het ook meestal niet zo.

[Reactie gewijzigd door Smithers.83 op 26 juli 2007 01:35]

Helemaal mee eens... zo'n gerucht is uiterst onbetrouwbaar. Vooral omdat het totaal niet past in de normale ontwikkeling van NVidia en ATI's. Beiden fabrikanten hebben de afgelopen jaren steeds een compleet nieuw design, die dan gevolgt wordt door een ge-upgrade versie, maar die weliswaar sneller is, maar niet zo enorm anders.

De 8800 was het compleet nieuwe design... Dus je verwacht in November wellicht zo'n verder ontwikkelde variant van de huidige 8800, maar niet een compleet nieuw ontwerp, met verdubbeling van de prestaties.
de 8800 is modulair opgebouwd juist om verbeteringen door te voeren bij nieuwe generaties zonder een compleet nieuwe chip te ontwerpen
Tsja. Misschien is het handig om bij het artikel in hele grote hoofdletters het woord GERUCHT te zetten want echt betrouwbaar is een "forumpost" op een willekeurige website niet. Dan lees ik liever de inquirer.
Precies, ik zie nergens een bron en 2x zo snel in november lijkt iets te mooi om waar te zijn. Ook al zouden ze over de technologie beschikken, dan zou je toch minstens verwachten dat ze een tussenliggende kaart eerst uitbrengen om ook daar nog even mee te cashen.

[Reactie gewijzigd door hattorihanzo op 26 juli 2007 10:09]

Dat staat er toch ook? Wat denk je dat die 'haakjes' betekenen?

En het gaat toch altijd zo? Ik heb nog nooit een fabrikant (als dit al van Nvidia komt btw) horen zeggen...nou wij gaan nu eens precies hetzelfde maken als vorige keer.
ik heb al gestate in een van men comments dat het allemaal best wel mooi is ALS ze het voor mekaar krijgen want daar geloof ik toch maar de helft van dat dit nu ineens allemaal kan op zon "korte" tijd
De geheugeninterface zal 512 bits breed worden
Lekker, maar wanneer wordt de standaard voor mid-end nou eens 256 bit? Hopelijk bij de Geforce '9600', want zelfs oude Geforce 5800 of Radeon 9800 hadden al een 256 bit bus
(de GF 8600 beschikt slechts over een 128 bit geheugenbus, wat echt dramatisch is voor de prestaties bij het inschakelen van AA / AF!)

Edit: Ik zie het al helemaal voor me, de 9600GT:
Passief gekoelt, HDMI interface, 256bit geheugenbus, prestaties als een 8800GTS voor minder dan 125 euro :z

[Reactie gewijzigd door Shadow op 26 juli 2007 00:55]

Bredere geheugeninterface is gewoon duur. Ten eerste moet je naar meer layers gaan voor je PCB (duur), ten tweede moet je package meer pinnen hebben (duur). Zolang de extra kosten niet opwegen tegen het voordeel zal dit dus niet gebeuren.
Wat maakt de breedte (het aantla bits) van de geheugeninterface uit dan? Het gaat uiteindelijk om de bandbreedte naar het geheugen toe. Breedte (aantal bits) x klokfrequentie = bandbreedte. Als het met een 128 bits bus en een hoge frequentie lukt om de benodigde geheugenbandbreedte te halen, wat maakt het dan uit of de bus 128 of 256 bits is? Het maakt wel heel erg uit in de prijs van het uiteindelijke ding...
betekend 2x zoveel bandbreedte.
geheugen met 128 bits op 1.5 ghz is slomer dan
geheugen 256 op 800 mhz...

aka meer power
Je gaat even voorbij aan het feit dat die 128bit dingen meestal niet op een 2 keer zo hoge klok lopen.
Fout, die heeft een 128-bit geheugeninterface.
Fout!, ligt aan de fabrikant, sommige fabrikanten zoals Powercolor stoppen in de meest wrede kaarten een 128bit geheugeninterface omdat mensen toch niet weten wat dit is. (jaja ze hadden bijv. een radeaon 9800 met 128bit.. 8)7 )

Zelfde geld dacht ik ook voor de 8600Serie (de 8500 is dacht ik altijd 128bit)


*googled voor bewijs*

:/ wtf je hebt wel gelijk!
Een stroomverbruik dat lager ligt dan dat van de 8800 cores?
Als dat waar is schuift nVidia of de 8800 snel geheel uit het assortiment of zal er een vernieuwde versie uit komen met lager verbruik. Die nieuwe versie zal natuurlijk wel worden toegepast worden in budgetkaarten vermoed ik.

Benieuwd wat de serie hierna word. nVidia Geforce 10k. :P
Dit is inderdaad wel goed nieuws. Maar ik hoop nu met de komst van pci-e 2.0 dat SLI een open platform word zoals Crossfire. Zoals je nu al kan zien zijn vele P35 chipsets uitgerust met 2 pci-e sloten en supporten ze crossfire out of the box. Terwijl je een nforce chipset nodig hebt voor SLI.
Dat zou een stomme zet van nvidia zijn. Dan is er werkelijk geen enkele reden meer op chipsets van hen te kopen. De concurrentie is even snel, maar verbruikt minder stroom en is veelal stabieler.
Dit had ik niet verwacht van tweakers, het overnemen van een forumbericht, met als datum 06/03/07. Kijken we dan helemaal nergens meer naar voordat we 'nieuws' posten? Het feit dat dit gerepost werd op vr-zone wil nog niet zeggen dat het nieuw is :P

Voor de rest wordt de geloofwaardigheid van de post door anderen hier helemaal afgebrand, edram, de prijzen waar de kaart voor uit zou komen, enzovoort. En daar sluit ik me graag bij aan.
Erg leuk hoor, weer een snellere serie kaarten. Maar wat hebben we er nou eigenlijk aan? Doom 3 spelen op 1920-x200 met 16xaa etc. op 400 fps? Of weer twee keer zoveel punten in 3dmark? Tuurlijk ik overdrijf wel een beetje nu, maar laten we eerlijk zijn het is behoorlijk stil rondom de PC als het gaat om games. Er komt amper iets uit, zeker als we de multi platform spellen van EA niet meetellen. Vooral de laatste tijd was er bar weinig te bekennen, STALKER had al veel eerder moeten uitkomen en verder misschien nog Colin Mcrea Dirt. En het enige boeiende wat binnen nu en 1/2 jaar uitkomt is Unreal Tournament 3, Crysis en op strategie front dan starcraft 2. En het meerendeel daarvan en veel meer kan ik straks ook spelen op mijn 360. Sorry hoor maar totdat er weer eens genoeg goede games uitkomen voor de PC lijk ik wel gek om weer een paar honderd euro uit te geven aan een nieuwe videokaart. Maar aangezien zelfs developers als ID steeds meer de kant van de consoles uitgaan denk ik niet dat dat ooit nog zal gebeuren(maargoed met al dat gekopieer geef ik ze ook geen ongelijk, kost ze onderhand alleen maar geld).Heb nu een 7900 gt en het ziet ernaar uit dat die nog een hele lange tijd in mijn pc blijft zitten...
@thedukemaster: Meh wat dacht je van games als CoH ? Supreme Commander ? Je noemt alleen maar FPS games. Ze zijn wel duur, geef ik toe, maarja ik heb liever een PC dan een console.

@deeltje, heb je een 8800gts of beter? Ik hoor mijn kaart niet, alleen als ik de ventilator met rivatuner opschroef naar 80% en hoger wordt ie pas hoorbaar. En tijdens het gamen komt ie eigenlijk nooit hoger dan 65%, en ook al was dat wel zo, hij komt toch niet boven het geluid van me boxen uit, tijdens het gamen :P

@rickyy, voor zover ik weet worden de kaarten gewoon backwards compatible met pci-e. Zelfs de snelste videokaarten van nu hebben vaak al genoeg aan pci-e x8, ipv 16x wat bijna op elk moederbord zit, pci-e 2.0 zal wel de standaard worden, maar voorlopig nog geen vereiste.
Oke, dan ben ik twee strategie games vergeten die de afgelopen 1-2 jaar uitgekomen zijn. Maar jij wilt dus zeggen dat je bereid bent ieder jaar honderden euro's uit tegeven voor een videokaart, om daar dan tenslotte 2 of 3 games op te spelen?
Nee, ruwweg een jaar geleden kocht ik voor 130 euro een 7600gs, en die heeft mij een jaar lang goed vermaakt en draaide een hoop spellen nog steeds op speelbare framerates.

Nu had ik iets meer te besteden en heb ik een 8800gts 320mb voor 270 euro gekocht, en me 7600gs voor 50 euro verkocht. 200 euro dus ongeveer, waar ik weer minstens een jaar mee wil doen :)
Dus deze zullen oop op PCIe x16 werken?
Als het goed is wel, dat is in ieder geval wat nvidia zelf zegt. Je kunt het ook anders bekijken. PCI-e 2.0 moederborden komen over enkele maanden uit, preciese datum kan ik zo niet geven. Dat zou betekenen dat de nieuwe nvidia videokaarten niet gebruikt kunnen worden door mensen met een moederbord ouder als 3 maanden :P Wat natuurlijk belachelijk zou zijn ^^
Ik wed dat ze de chip net over de teraflop grens heen pushen. Maakt mooie reclame. En staat ok wel zo mooi.
Erg vet dat de chip gratis viervoudige antialiasing kan leveren. Dit zal behoorlijk schelen in de frames per second. De xbox 360 chip van ATI heeft dit ook. De 360 heeft gewoon een klein 2de gpu'tje langs de grote die gratis 2xAA kan leveren.
Als je leest hoe AA werkt dan zal je zien dat je niet een apparte gpu voor AA kan hebben.
Full-scene anti-aliasing by supersampling usually means that each full frame is rendered at double (2x) or quadruple (4x) the display resolution, and then down-sampled to match the display resolution.
De AA moet dus gedaan worden door de gpu die de scene rendert.

De xbox360 (en volgens dit nieuwsbericht de G92 ook) kan snel AA doen door het edram geheugen, dit heeft een erg grote bandbreedte en AA vergt een hoop bandbreedte.
Het gaat om het stukje "Full-scene anti-aliasing by supersampling", dat betekent dat er ook andere manieren van AA bestaan. Het hoeft dus niet altijd de GPU te zijn die de scene rendert.
Behalve dan dat dit gaat over supersampling, die juist WEL met aparte GPUs kan. In feite render je gewoon op een hogere resolutie... je kunt het beeld opdelen in zoveel GPUs als je hebt. Verder zou je dan 1 van de GPUs het beeld kunnen laten downfilteren terwijl de anderen alvast verder gaan met het volgende frame (de downfiltering kost doorgaans veel minder tijd dan het renderen van de scene zelf).

De standaard-manier van AA op een moderne GPU is echter multisampling, niet supersampling (wat handig dat Wikipedia dat helemaal niet noemt), en dat ligt wat lastiger. Alleen de z/stencilbuffer zijn supersampled, en aan de hand daarvan wordt bepaald of een pixel geheel binnen een polygon valt, of op een rand. Alleen de randen hoeven gefilterd te worden, dus alleen daar wordt een vorm van supersampling toegepast. Dit is erg lastig op te splitsen, maar wel vele malen efficienter dan supersampling in de meeste gevallen.
lang niet alle games op de 360 hebben 2x AA, ik heb het nog nergens daadwerkelijk gezien. ten minste met PGR3 Kameo en Oblivion niet, alleen COD2 had 2x AA
Ik was al een tijdje aan het klagen dat men altijd maar grotere kaarten maakte die meer en meer verbruikte, dus dit klinkt alvast zeer goed in de oren dat deze zuiniger gaat zijn als de vorige serie, zeker nu dat men tegenwoordig toch wel fel naar het milieu kijkt. Nu nog hopen dat ze dit kunnen waarmaken.

dubbel zoveel rekenkracht als de 8800 vindt ik wel een gewaagde claim (maarja wie zegt dat dit .100% waar is). Als ze het niet kunnen waarmaken dan zal de teleurstelling natuurlijk groot zijn.

Qua prijzen zitten ze weer lekker hoog :'D zoals anders wat de "underdog" ati alleen nog maar eens aantrekkelijker maakt imo ookal zijn hun kaarten atm iets minder goed maar wel bijna dubbel zo goedkoop....
Qua prijzen zitten ze weer lekker hoog :'D zoals anders wat de "underdog" ati alleen nog maar eens aantrekkelijker maakt imo ookal zijn hun kaarten atm iets minder goed maar wel bijna dubbel zo goedkoop....
Wat een redenatie zeg. nVidia komt met een betere chip dus ATi wordt aantrekkelijker :'). Natuurlijk ligt de prijs van het topmodel hoog, maar wat denk je dat er gaat gebeuren met de prijs van de 8800 als de 9800 uit is? En wat denk je dat de 9600- en 9400-series gaan doen? Want die komen er natuurlijk ook. ATi zal de R700 hard nodig hebben om hier tegenop te kunnen.

[Reactie gewijzigd door Wouter Tinus op 26 juli 2007 00:47]

het verschil in prijs komt niet overeen met het verschil in frames : >... en zeggen dat 10 frames meer of minder een prijsverschil van 250 tot 300 euro waard is is absurd in mijn ogen. En dat enkel om te zeggen van wooptidoo ik heb top of the bill stuff... Want zoveel verschil merk je haast niet tussen de twee...
10 fps of 20 fps op 1600*1200 @ 8x FSAA is idd amper verschil volgens jouw redenatie?

ik geef je gelijk als het om 140 of 150 fps gaat, maar bij de nieuwste generatie games mag je van geluk spreken als je +30fps haalt op max settings
dan maakt et al helemaal niks uit als je met de nieuwste kaarten niet eens alles uit de spellen kan halen die gelijk of voor de bepaalde kaart zijn uitgkomen. Dan is het al helemaal belachelijk om hardware tegen zulk hoge prijzen te verkopen terwijl het niet eens de nieuwste spellen aankan.

En ik wil jou wel eens een spel met volle enthousiasme zien spelen met 20 fps. Dan maakt het me niet uit of het 10 of 20 is dan trekt het nog helegans op niets... Dan lag je iets minder hard maar je lagged nog steeds....

Dus conclusie zoals je zegt "bij de nieuwste generatie games mag je van geluk spreken als je +30fps haalt op max settings": wrm dan al helegans 500+ euro betalen voor een high end kaart die het niet eens op max gedraaid krijgt. Dan koop ik wel een iets minder goede kaart, die me veel geld uitspaart, en zet ik de gfx gewoon wat lager net zoals de mensen moeten doen met een high end kaart alleen betalen zij er het dubbele voor....
je kan dan natuurlijk ook de resolutie ( of settings) omlaagschroeven ...

ook een optie
( en dus kan je dan vloeiend gamen op 1600 ipv 1920 met je uber kaart
waar e anders met 1200 had meoten doen. echt evil joh...
Tsja, sommige vinden het verschil in prestaties tussen een Fiat Panda en een Ferrari ook niet de moeite waard. Toch zie ik best nog aardig wat Ferrari's rondrijden.

Voor sommige mensen zijn die 10 frames wel degelijk het geld waard. Niets mis mee wat mij betreft. Ik maak mijn eigen afweging (en koop dus never nooit niet een nVidia 9800)
Nooit een nVidia 9800 kopen? Over drie of vier jaar zijn dit de budgetkaarten van 125 euro...
De vergelijking van Fiat Panda en Ferrarie is het zelfde als een Mobility radeon 9000 tegenover een geforce 8800 GTX te zetten...... Dus mensen moeten daar eens mee stoppen :P.

Het is eerder een Bugattie Veyron (8800GTX) tegenover een Mclaren F1 ;) (2900xt)
Totaal offtopic, en ik ben niet meer op de hoogte van de videokaart nummertjes: Fiat en Ferarri zijn beiden van zelfde bedrijf, dus een Ati vs nVidia vergelijking zal ik iig niet maken ;)

OpenGL 3.0, wordt dat nog vaak gebruikt? Vroeger waren er nog bergen OpenGL games (en dat draaide bijna altijd lekkerder dan D3D, al was het maar voor mijn gevoel misschien). Nu is het D3D wat de klok slaat.

Waarschijnlijk alleen bij MultiOS games nog?

Lijkt me wel een sexy kaart iig, maar ik wacht nog wel even af, heb tegenwoordig niet meer zo nodig een monsterkaart nodig, voor af en toe een potje Guild Wars ;).
all games van ID en blizzard zijn in OpenGL.
en OpenGL 3 is de nieuwe standaard. beetje zoals DX10
mclaren f1 ownd de veyron hard hoor...
zeker bij bochetn of acceleratie werk..

persoonlijk vind ik hem ook mooier maar dat is subjectief..
( beide leuke karretjes btw...) :+
ferrari is van fiat :+

Enne de Ford GT (mussel V10) is wel ietsie mooier dan een Ferrari (babaygeluidje V12).

[Reactie gewijzigd door loodgieter op 26 juli 2007 20:58]

Zoals altijd zal de dan "verouderde" hardware in prijs kelderen, top kaartje rond de 600 euro en na een jaar koop je hetzelfde ding voor een dikke 300 euro's
Na een jaar kan je ze niet meer vinden in de nieuw-handel bedoel je. Smerige truukjes van de marketeers, jawel.
Ik snap niet waarom iedereen dat altijd denkt. Dat is helemaal niet waar. De 'verouderde' serie wordt gewoon uitgefaseerd. Zoals Devil al zegt, je kan ze gewoon niet meer vinden op een bepaald punt.
@Wouter-Tinus

wat er gaat gebeuren met de 8800 als de 9800 uit is?...

die blijft nog steeds rete duur kijk nu maar is naar de top kaarten van de 7 serie. zijn nog steeds duuur

[Reactie gewijzigd door Sinester op 26 juli 2007 13:03]

Kun je beter ineens een 9800 kopen ... lijkt me dan ?
Qua prijzen zitten ze weer lekker hoog :'D zoals anders wat de "underdog" ati alleen nog maar eens aantrekkelijker maakt imo ookal zijn hun kaarten atm iets minder goed maar wel bijna dubbel zo goedkoop....

Ten eerste:
Die prijzen zijn een maand of drie na release al flink gedaald. Net zoals het met de 8800's en al z'n voorgangers was. (zowel bij AMDTI als nVidia)

Ten tweede:
AMDTI verkoopt z'n kaarten atm goedkoper, maar ze zitten met hun prijspeil ongeveer op 'n gelijk niveau met de concurrentie. Tenminste, als je naar de prijs-prestatie verhouding kijkt.
Daargelaten, nVidia's Ultra's zijn altijd al schofterig duur geweest.
1 2 3 ... 8

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True