Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: The Inquirer, submitter: Wouter Tinus

The Inquirer weet ons te vertellen dat nVidia haar veelbesproken NV30 videochip officiŽel zal voorstellen tijdens Comdex 2002, een evenement dat van 18 tot 22 november van dit jaar plaats zal vinden in Las Vegas. Dit werd eerder ook al geroepen, maar daarna dook een groot aantal geruchten en speculaties op, waarmee de indruk werd gewerkt dat nVidia het antwoord op ATi's Radeon 9700 Pro pas begin 2003 zou kunnen geven. Hiervoor werden diverse verklaringen aangedragen, zoals design-tweaks en yield-problemen. nVidia is echter vastberaden om de chip nog voor de feestdagen uit te brengen, en daarmee de eerste te zijn met een 0,13 micron grafische chip. De kloksnelheid van NV30 wordt geschat op 350 tot 400MHz, en vanaf december zouden de eerste kaarten leverbaar moeten zijn. Er is trouwens ook nog nieuws over de AGP8x versies van GeForce4, deze zullen hoger worden geklokt dan hun AGP4x broertjes:

nVidia logo The NV28 in its weakest implementation -- the TI 4200-8X -- will be clocked at 275MHz on Nvidia's recommendation, while partners, as always, can clock their own versions even higher. Usually, they never let anyone clock lower but we know that at least one manufacturer will clock at 270, five megahertz lower than recommended.

Nvidia, using a 0.15 process, managed to squeeze a few more megahurtz from its chips. So these chips could be seen as some kind of update or increase in speed compared to the six-month-old original daddy, the NV25.

Lees meer over

Gerelateerde content

Alle gerelateerde content (36)
Moderatie-faq Wijzig weergave

Reacties (55)

De kloksnelheid van NV30 wordt geschat op 350 tot 400MHz
De Ati Radeon9700 haald al 350MHz-400MHz op 0.15micron. Waarom kan Nvidia dan niet de 450MHz halen op 0.13micron?
Omdat er nog 0.13 GPU's moeten komen op 0.13 micron. Denk maar aan de NV35. Als de NV30 nu al 450 MHz heeft, op wat moet de NV35 dan draaien? 500 MHz? 0.13 micron heeft ook zijn limieten.
0.13 micron heeft ook zijn limieten.
Ja, dat zal ergens in de buurt van de 3-4GHz zijn, zie de P4 Northwood :)
Dat de kloksnelheid niet ver boven de 400MHz uitkomt heeft te maken met het ontwerp en het feit dat het een GPU is, niet omdat 0.13u de beperkende factor is. Een GPU kan gelukkig veel meer in ťťn klokculcus doen dan een CPU, dus vergis je er niet in: 400MHz is erg vlot voor dat ding.

Alleen hoop ik wel dat de GPU-fabrikanten niet dezelfde marketingtruc als Intel gaan toepassen: Het ontwerp zů aanpassen dat ie veel hoger geklokt kan worden maar wel veel minder doet. Ik hoef geen tweede strijd met MHz-en...
Alleen hoop ik wel dat de GPU-fabrikanten niet dezelfde marketingtruc als Intel gaan toepassen: Het ontwerp zů aanpassen dat ie veel hoger geklokt kan worden maar wel veel minder doet. Ik hoef geen tweede strijd met MHz-en...
Dat zie ik niet zo snel gebeuren, de gemiddelde klant kijkt niet eens naar de specs van een VGA kaart, maar heoveel geheugen onboard is. 128MB is in hun ogen automatisch ook sneller. Bovendien beoeite de MHz'en de meeste ook geen ruk. Alleen de benchmarks tellen. Bovendien hebben de meeste GPU makers niet zo'n grote naam als Intel zodat ze eerder een verkoper om raad vragen bij het aanschaffen van een dergelijk product. Nu alleen wel hopen dat de verkoper te vertrouwen is.
De Ati Radeon9700 haald al 350MHz-400MHz op 0.15micron. Waarom kan Nvidia dan niet de 450MHz halen op 0.13micron?
De Radeon 9700 is standaard op 325MHz geklokt. Dus als de NV30 met 350 - 400MHz daar boven zit, zie ik het probleem niet. 0.13 Micron heeft natuurlijk veel mer te bieden. Misschien dan volgende generaties van de 0.13 boven de 500 of misschien wel 600MHz geklokt kunnen worden. De NV30 is de eerste GPU op 0.13, en dan is het onmogelijk om meteen het maximaal haalbare uit de techniek te halen.

GeForce 4 4600 - 300MHz (OC-baar tot 350MHz)
Radeon 9700 - 325MHz (OC-baar tot 400MHz)
NV 30 - 350 - 400MHz (OC-baar tot 425 - 475MHz) <<--- schatting
Als je op het internet over al de problemen hebt geleden die nVidia gehad zou hebben met development en de daarop volgende delays dan zou het me niet verbazen als het om een 'paper launch' zou gaan.

Enkel de grote hardware sites krijgen een sample (met de belofte dat de drivers nog verder ontwikkelt moeten worden) en doen een test. Als de resultaten goed zijn dan gaat iedereen zijn kerst aankopen uitstellen totdat de nv30 in de winkels ligt. Maar het zou me niet verbazen als dat niet voor kerst is...
Daarmee zouden ze zichzelf alleen maar in de vingers snijden. Als ze NV30 aankondigen gaan ze immers ook veel minder uit de GeForce4 serie verkopen tijdens de feestdagen.
De nv30 wordt niet gekocht door mensen die twijfelen of ze een GF4 gaan kopen. Door een paper launch brengen ze enkel de mensen die een 9700 pro willen kopen aan het twijfelen.
De nv30 wordt niet gekocht door mensen die twijfelen of ze een GF4 gaan kopen.
Ohnee? Dat durf ik toch te betwijfelen. Niet dat het uitmaakt, want nVidia verkoopt toch geen kaarten aan klanten. Het gaat om de fabrikanten, denk je dat die nog grote hoeveelheden GeForce4 gaan inkopen/produceren als NV30 ieder moment kan verschijnen? Bovendien betekent een generatie ook prijsdalingen in de hele markt, dus niet alleen potentiŽle NV30 / 9700 Pro kopers zijn op hun hoede na zo'n aankondiging.
Af en toe krijg ik het gevoel dat ze dit forum beter schitzofreen.net kunnen noemen.
Dat ganse agp X 8 gedoe hangt mijn voeten uit... Ik denk dat de meesten onder ons wel een 17 of 19 inch hebben hee, wel wat zijn daarop de meest gangbare resoluties, 1024*768 /1280*1024 , op deze resoluties zal je nooit de bandbreedte bereiken van AGP x4. Dus die invoering is wel leuk maar nuttig niet, de bottleneck van graphics ligt dezer dagen nog niet ter hoogte van uw agp bus. Dus die AGP x 8 zal je nog minder snelheidswinst geven dan een nieuwe driver. In tegendeel , in het begin van deze nieuwe technology alleen maar vastlopers ! Kijk maar hoe moeilijk de Xaberen de 9700 het hebben...
Alhoewel dit gehele gedoe over de AGP8x gaat, wordt de core en mem ook meegetweaked dus het is toch beter, we moeten maar op de resultaten (overclock+performance) van de kaarten letten.
Volgens mij hebben ze ook express de core en de mem getweaked, omdat de tweakers het anders niet gaan kopen als er niet veel verschil in zit.
Nu heb je als nog een betere kaart met een AGP4x mobo, zelfs als je geen AGP8x hebt........
Als AMD nu nog met de Hammer in december zou komen, dan zou dat een mooie upgrade zijn.
Waarom? de huidige hardware zorgt al voor veel gameplezier. Dus waarom nog sneller nog beter als er geen eens software uitkomt die dit allemaal gaat benutten.

We wachten nog steeds op DOOM III die special voor de GF3 geschreven zal worden maar je ziet het we krijgen nu al de NV30 tja hoezo loopt software achter op de hardware.
Je kunt er veilig van uit gaan dat Carmack op z'n ontwikkelsystemen werkt met Radeon 9700 Pro en GeForce4 Ti4600. Die gast is net zo'n tweaker als sommige mensen hier, en ook uit commercieel oogpunt wil hij gewoon de nieuwste technieken in z'n engine hebben zitten (iD verdient het meeste geld aan het verkopen van haar game-engines). Doom III wordt niet ontwikkeld voor de GeForce3, maar zal minimaal een GeForce3 nodig hebben om redelijk te kunnen draaien. Dat wil niet zeggen dat je niets aan een GeForce4 of NV30 hebt: hogere resoluties, meer effecten, groter detail etc.
Draaien of draaien zoals het bedoelt was? Daar zit een groot verschil in. Het is zeker dat Doom 2 draait op GeForce 4 systemen maar als je van alle eye candies gebruikt zult willen maken en het spel wilt spelen zoals het bedoelt was dan zul je toch met een nv30 of r300 moeten komen aanzetten.

Daarnaast denk ik dat je gelijk heeft. Carmack is zo'n freak dat hij weinig compromissen maakt zodat het spel er minder uit gaat zien zodat het dan wel op 'oude' systemen draait. Ze zijn iets van 2 jaar geleden begonnen met de ontwikkeling van Doom3 en dan moeten ze gokken / beslissen welke technieken vandaag de dag (bij de release) aanwezig zullen zijn.
Je kunt er veilig van uit gaan dat Carmack op z'n ontwikkelsystemen werkt met Radeon 9700 Pro en GeForce 4 Ti4600. Die gast is net zo'n tweaker als sommige mensen hier, en ook uit commercieel oogpunt wil hij gewoon de nieuwste technieken in z'n engine hebben zitten
Het schrijven van een engine kost gewoon meer tijd dan het (re)designen van een GPU. Daarom loopt software altijd wat achter op de hardware. Dus al zou Carmack beginnen met een nieuwe engine met alle features van de allernieuwste videokaarten, dan nog zal ATi of nVidia sneller zijn met betere videokaarten dan Carmack en z'n team een spel hebben uitgebracht die alle features van de vorige kaart gebruikt. Daarom zul je als game-ontwikkelaar altijd zo dicht mogelijk bij de nieuwste features moeten blijven om te voorkomen dat je op een gegeven moment gewoon meerdere generaties GPU's achter loopt met je game.

Anderzijds kun je natuurlijk niet elke keer als er een nieuwe videokaart gepresenteerd wordt je engine aanpassen aan die nieuwe snufjes, omdat je dan aan blijft passen en de game eindeloos uitgesteld moet worden. Ik noem geen namen, maar ik denk dat Duke Nukem Forever toch wel op de lijst staat 8-)
Draaien, gewoon, niet op maximaal detail natuurlijk :). De GeForce3 is de minimale kaart die de per-pixel lighting aan kan met een redelijk tempo. Het gokken valt trouwens wel mee, Carmack heeft veel invloed/inzicht op de ontwikkelingen van DirectX (en daarmee die van nVidia en ATi). Bovendien is die engine waarschijnlijk ultramodulair, en is zal het dus relatief eenvoudig zijn dingen in een laat stadium nog in te bouwen of weg te halen.
je kan het positief vinden dat carmack al het nieuwe/mooie/goeie in zijn engine wil
ik vind het tamelijk slecht

bij epic lopen ze te prutsen dat op een voodoo 3/4/5 draait en bij ID zeggen ze gewoon: nee dat lukt niet

ik snap best dat de doom3 engine zwaar is maar ik heb ut2k3 op een gts gespeeld en die draaide op 800*600*16 zeer goed dan moet je em bij doom toch wel op 640 kunnen spelen...
"Die gast is net zo'n tweaker als sommige mensen hier"

Denk eerder dat dat anders om is :)

"De GeForce3 is de minimale kaart die de per-pixel lighting aan kan met een redelijk tempo"

Uberhaupt aan kan, evenals vertex shaders.
Als je even hier kijkt:

http://www.insidemacgames.com/news/story.php?ArticleID=5474

en hier:

http://www.gamespy.com/e32002/pc/carmack/index2.shtml

zie je dat de GeForce 4 Ti door Carmack wordt aangehaald als voldoende om Doom III met alles aan te kunnen draaien op een acceptabele framerate. Wat voor zin heeft het nou voor die gast om een game te maken die ALLEEN volledig kan worden gespeeld op 0.05% van de huidige videokaarten?? Dan is er toch geen mens die het spel gaat kopen....
Je leest niet goed. Nergens staat dat Carmack zegt dat de GeForce 4 Ti minimaal vereist is om Doom III te spelen. Er staat ook nergens dat je minimaal een GeForce 4 Ti moet hebben om op een acceptabele framerate te kunnen draaien.

Uit z'n tekst kan ik opmaken (dnek ik) dat je met een GeForce 2 / GeForce 4 MX al goed kan spelen op een resolutie van 640x480. Doe je daar een GeForce 3 boven op, dan kan je op 800x600 spelen. GeForce 4 Ti zou 1024x768 aan moeten kunnen, en wellicht de Radeon 9700 1280x1024. Verder verwacht ik dat je met een NV30 toch wel op 1280x1024 moet kunnen spelen met alles max, of 1600x1200 met wat soepelere instellingen.
Het schrijven van een engine kost gewoon meer tijd dan het (re)designen van een GPU. Daarom loopt software altijd wat achter op de hardware. Dus al zou Carmack beginnen met een nieuwe engine met alle features van de allernieuwste videokaarten, dan nog zal ATi of nVidia sneller zijn met betere videokaarten dan Carmack en z'n team een spel hebben uitgebracht die alle features van de vorige kaart gebruikt. Daarom zul je als game-ontwikkelaar altijd zo dicht mogelijk bij de nieuwste features moeten blijven om te voorkomen dat je op een gegeven moment gewoon meerdere generaties GPU's achter loopt met je game.

Anderzijds kun je natuurlijk niet elke keer als er een nieuwe videokaart gepresenteerd wordt je engine aanpassen aan die nieuwe snufjes, omdat je dan aan blijft passen en de game eindeloos uitgesteld moet worden. Ik noem geen namen, maar ik denk dat Duke Nukem Forever toch wel op de lijst staat.
Zou je denken?

Sinds wanneer worden spellen op hardware geschreven? Spelontwikkelaars gebruiken gewoon de Api's OpenGL, of DirectX... hoeveel details men in hun spel stopt heeft weinig te maken met de hardware. De Api's 'beslissen' of er gebruik wordt gemaakt van door hardware geoptimaliseerde routines of dat het werkje 'handmatig' geklaard moet worden, en desnoods kan je alles softwarematig wel renderen (of het spel speelbaar blijft is een tweede.)

Het enige voordeel van nieuwe hardwarematige technieken is dat grotere delen van het berekeningsproces meer lokaal kunnen plaats vinden, waardoor o.a. de trage(re) systeembus wat wordt ontzien--hierdoor kan er dus een snellere afhandeling van bijv. het toetsenbord en de muis worden bereikt.
[webdoc] Tja, quake was ook vrij pittig aan het begin.Maar ja zoals eerder gezegd verdient ID het meeste aan de verkoop van de engine, de quake engine ging nog jaren mee. Dat zouden ze ook wel voor de Doom 3 engine hopen he :)
we willen meer grooter sneller!!!
Wat een onzin.

Ik speel spellen niet boven de 1152x864. Als je hoger komt dan dat ziet het er niet per definitie mooier uit.

Ik heb een GeForce4 Ti4600 op een 19" Sony Trinitron. Dus nix 800MHz blaat...
Kweet niet hoe jouw systeem in mekaar steekt maar bij mij wordt het toch echt stukken mooier naarmate ik de resolutie opvoer. De hoger je resolutie, de meer pixels er op je scherm getoverd worden het enigste nadeel zijn de kleine lettertjes :) maar die heb ik dan maar voor lief als het spel er daardoor mooier op wordt. :D

En je kan nog zo'n mooie kaart in je systeem hebben hangen als de rest van de hardware het niet trekt blijft het een low-end systeempje. Of je een snelle videokaart in je systeem hebt hangen zegt natuurlijk niks over je 800MHz tellende cputje :+
Hoe hoger je res, des te meer pixles..blablabla. |:(

Er passen niet meer pixels op je scherm dan je monitor HARDwarematig weer kan geven. Hoe vaak moet dit liedje herhaald worden. Op een 17inch of 19inch PASSEN geen 1600 pixels in de breedte, als 1200 pixels in de hoogte. Ga het verder niet meer uitleggen, dit zou elke zichzelf noemende Tweaker moeten weten.

Dus ben het helemaal eens met de stelling dat 1600x1200 er niet perse mooier uitziet, zeker niet ben 17/19inch monitors. Integendeel, vaak moet je je refreshrates naar beneden bijstellen, krijg je meer vervorming aan de randen etc. Niet iedereen heeft nml. een peperdure EIZO of NEC.

Door fabrikanten aanbevolen resoluties zijn er niet voor niks, zoals 1024/768 tot max. 1152/865 voor 17inch en 1280/1024 voor 19inchťrs...

1600x1200 komt pas bij 21-inch goed uit de verf.....
Zelfs dan.........
Ik speel met een radeon8500@280,300 , P4 1,6@2,5 en een Eizo 21'' mijn Sof2 op 1024x768, simpelweg omdat ik minimaal 100 fps@120Hz wil hebben. 1600x1200 draait echt wel vloeiend, maar dan schiet ik slechter aangezien ik minder beeldjes krijg met +/-60fps@85 hz....
Dit is geen gelul: probeer maar eens een mannetje te schieten terwijl je snel draait en je zal het merken.

Ik gebruik geen fsaa omdat dat teveel fps kost. Dan kies ik liever een hogere resolutie. 16x ant.filtering en trueform wel voor de details. :)
Precies, lager kan altijd natuurlijk en is vaak beter voor je fps. Gaf alleen aan waar de fysieke grensen van je monitor liggen, iets wat nogal eens vergeten word maar ow zo belangrijk is....
(reactie op TheFreak)

kijk, ik vind dat je dan net zogoed een Ti4200 had kunnen kopen en die vervolgens een beetje opklokken.. dan had je ook prima die resoluties kunnen draaien want dat stelt namelijk echt geen zak voor, de core is in principe gelijk aan dat van de Ti4600 dus je mist helemaal geen features en ik kan je nou al vertellen dat je het verschil tussen die twee kaarten niet gaat merken in zo'n resolutie. Zonde van het geld dus in zo'n geval.

wie is het met die stelling nou helemaal oneens?
Begin er toch helemaal ziek van te worden dat het allemaal sneller en duurder moet. Laat ze de software maar aanpassen zodat die beter met de hardware omgaat en het rendement verhoogt.
Neem nou een PS2 daarvan zijn de spellen in een later stadium ook veel mooier en beter dan in het begin. Nee ik heb nu een MSI TI 4400 en daar blijft het bij. als ik straks (binnen 1 jaar) geen spellen meer op een normaal niveau kan spelen dan kunnen ze allemaal de pleuris krijgen en koop ik een console voor het gamen. Ik wil gewoon alles op 1280 1024 kunnen draaien op een vloeiende manier en als ik al die verhalen over doom3 moet geloven gaat dat nog wel moeilijk worden.

Ik wacht af maar vind toch echt dat zowel NVIDIA als ATI gas terug moeten nemen en de softwarefabrikanten eens wat meer tijd moeten gunnen DIT SCHIET NIET OP!!!
Potje Quake3 DM 1:1 spelen? Jij op een p2 met voodoo2 tegen mijn moderne bak.

Zul je zien dat je flink nadeel hebt met een bak uit de tijd dat die game op de markt kwam. Al draaide het er toen prima op.
Tja, overdrijven is ook een vak :+

Het gaat er gewoon om dat we als consument een makkelijke prooi zijn voor de die-hard PR-afdeling der firma's. Iig zijn er genoeg die er gevoelig voor zijn. Zie maar de hype omtrent SATA, AGPx8, IP 3000mhz+ etc.etc.

Hoezo hype ? Sim-pel, er word teveel van verwacht op een te vroeg tijdstip. Tuurlijk, SATA zal uiteindelijk wel zijn vruchten afwerpen maar wanneer..... Ow, ja AGPx8 !!! , hol gelijk naar de winkel want dat MOET je gewoon hebbe. Kan je vast testen en tweaken voor de spellen die over 2 jaar uitkomen die het ECHT nodig hebben. Om dan tot de conclusie te komen dat je kaart verouderd is en nodig vervangen moet worden.

PVI 3000+ cp XP3000+ ...ook daar zet ik vette vraagtekens bij, want er ondertussen wel duidelijk dat de verhouding cpu/systeem wel erg ver uit zijn verband word gerukt... mulitplier 12/13/14/ waar eindigt het ? DDR/266/333/400 etc.. het klinkt leuk maar als je naar de effectieve winst kijkt valt het bar tegen. Vooral daar er aan een aantal technische zaken die het geheugen pas ECHT een boost geven nog steeds niet opgelost zijn. Zie C!T september 2002 nummer.

Dit en andere zaken geven mij genoeg reden om niet het nieuwste van het nieuwste te kopen, loop liever 1 generatie achter dan voorop met een lege buidel ;)
Jongen.. er zit een man met een stropdas achter een bureautje bij nvidia en ook bij ati... zijn doel: making $$, en het kan hem geen ene reet schelen wat jij als individu van spelletjes e.d vind, als hij maar $$ verdient.. hij gaat gewoon door.. of je nou wilt of niet... is ook logisch.. iedereen wilt steeds rijker worden :)
de clocksnelheid van de geforce 4 kaarten gaat omhoog en ondersteunt dus ook agp 8x maar zal de prijs van die kaarten dan ook veel omhoog gaan of juist helemaal niet?
de clocksnelheid van de geforce 4 kaarten gaat omhoog en ondersteunt dus ook agp 8x maar zal de prijs van die kaarten dan ook veel omhoog gaan of juist helemaal niet?
Dat is moeilijk te zeggen, maar ik verwacht van niet. De prijs vna de NV28 kaarten zal boven de prisj van NV25 kaarten liggen, maar onder de introductieprijs van de NV25. Althans, dat verwacht ik.

De NV28 is niks anders dan een NV25 met een extra feature en een beter getweakte core. Dat maakt de productiekosten ook niet hoger, en het disign was er al. Dus het heeft nVidia eigenlijk heel weinig geld gekost.
Slim van Nvidia, dat verhogen van de klok. Hiermee kunnen ze "bewijzen" dat AGP x 8 een snelheidswinst boekt ten opzichte van x 4.
Goede marketingfiguren daar....
nVidia heeft er geen baat bij te bewijzen dat AGP8x sneller is, het gaat er hun om dat ze net als ATI "AGP8x" op de doos kunnen zetten, ook al heeft niemand er iets aan.
Ik vind het op zich erg logisch dat deze introductie net komt voor de feestdagen, zodat de kaart ook daadwerkelijk voor een heel hoge prijs te koop is tegen die tijd. Het is echter nog maar de vraag hoeveel mensen deze NV30 gaan kopen, nu de door de zwakke economie(ook zo'n gelul) wordt verwacht dat de kerstinkopen laag zullen zijn. Dus wie gaat er dan 500 euro uitgeven aan een Videokaart? Denk dat de AGP 8x kaartjes beter zullen gaan lopen. En als de NV30 de Radeon niet eens verslaat(wat me onwaarschijnlijk lijkt, anders had het voor nvidia niet veel nut om deze kaart uit te brengen) dan heeft Nvidia met deze kaart de plank helemaal misgeslagen.

Over het spelen op hoge resoluties:

Ik zie er zelf het nut ook niet van in om te gaan spelen op 1600x1200 op een 19 inch monitor. Ik speel vaak zelfs spellen tot volle tevredenheid op 1024x768, maar meestal toch gewoon op 1152x864. Dus ondanks het feit dat ik makkelijk 1600x1200 kan stampen met mijn Ti 4600 en XP 1800+, vind ik het onzin om hogere resoluties te draaien.
Zelfs als het in november geen papieren release is dan zal alleen een zeer klein aantal "gelukkigen" in de VS zo'n kaart voor de feestdagen kunnen kopen.

In Nederland zal ie er zeker NIET zijn voor de feestdagen.

Van introductie tot in de winkel in Nederland duurt namelijk veel langer dan 3 weken!!

Ga maar eens alle kaarten in het verleden langs. (GF4 bv) Je moet dan eerder aan 2 tot 3 maand denken!

Dus zet die NV30 voor sinterklaas of kerst maar gerust uit je hoofd.
Mooi, hoop dat tegen die tijd de ATI9700 sterk in prijs daalt, als ik zie dat mijn eigen 8500 van Gigabyte , tijdens release kocht voor 350 euro en nu rond de 140 euro is.Zal de 9700 mischien wel tegen het verschijnen van de Nvidia's rond de 350 euro kosten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True