Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties
Submitter: Neo86

De volgende maand te verschijnen Geforce 177.39-driver zal ondersteuning voor het Physx-platform bevatten. In eerste instantie zullen alleen de snelste kaarten van Nvidia hier baat bij hebben, andere volgen in een later stadium.

De donderdag onthulde Geforce 9800GTX+ zal medio juli in de winkels liggen, en Nvidia zal tegelijkertijd een nieuwe versie van de Geforce-drivers online zetten. In deze 177.39-versie van stuurprogramma's wordt Physx-support voor een aantal kaarten verwerkt, schrijft Hothardware. In eerste instantie zullen de 9800 GTX-, de 9800 GTX+-, en de GTX260/280-kaarten ondersteund worden, maar op termijn zal Nvidia alle videokaarten uit de 8- en de 9-serie ondersteunen.

Software die van de Physx-middleware gebruikmaakt, kan met de nieuwe drivers een forse prestatiewinst tegemoet zien. Hothardware wist de hand op een benchmark voor Unreal Tournament 3 te leggen, waaruit blijkt dat de Physx-versie van het spel twee tot drie keer beter kan presteren als de gpu voor de natuurkundige berekeningen wordt ingezet - al is niet duidelijk wat er precies wordt gemeten. Onder druk van AMD, dat het 200-dollarsegment probeert te veroveren met de HD 4850, zal Nvidia de 9800GTX en de 9800GTX+ voor respectievelijk 199 en 229 dollar in de winkel leggen. Voor de liefhebbers van software met Physx-ondersteuning lijkt juli daarmee hoe dan ook een zonnige maand te worden.

Benchmark Physx-mappack UT3
Moderatie-faq Wijzig weergave

Reacties (97)

Er zijn aangepaste inf files beschikbaar voor XP en Vista (32 en 64bit) zodat deze drivers ook op andere g92 based kaarten werken. G80 support is er helaas, ook niet met aangepaste inf files, nog niet.

177.35 is trouwens ook gewoon te gebruiken in combinatie met de Ageia 8.06xx driver versie om de g92 en g200 hardware Physx te laten doen.

Let op, Deze hardware PhysX ondersteuning is niet hetzelfde als het hebben van een Ageia kaartje. 3D Mark Vantage scoort wel een stuk beter, UT3 schijnt in de PhysX levels met Geforce PhysX super te draaien idd maar Cellfactor Revolution is een spel dat geen gebruik maakt van de Geforce hardware PhysX. Daar is vooralsnog gewoon een Ageia kaartje voor nodig.

ps. op zoek naar aangepaste inf files om 177.35 of 177.39 te installeren voor andere NVidia kaarten dan de 9800gtx(x), gtx260 of gtx280? ff Googlen op 'nv_disp.inf 177.35 g92' bijv.

[Reactie gewijzigd door bozotheclown op 21 juni 2008 16:49]

Maakt Cellfactor helemaal geen gebruik van deze gpu PhysX of merk je gewoon geen performance verbetering

En wat is dan de reden? Ik kan me voorstellen dat Cellfactor gewoon kijkt of er een PhysX Aegia kaart aanwezig is, terwijl er technisch gezien geen echte reden is waarom de gpu physX niet zou werken.

(Aegia is immers ook druk bezig geweest om te voorkomen dat je Cellfactor met alleen een cpu kon draaien. Ze wilden niet dat je kon zien hoeveel zo'n PhysX hardware kaart nou werkelijk toevoegde)


Verder zou ik bij die benchmarks van het artikel wel eens de scores van zo'n Aegia kaartje willen zien. Volgens zijn de scores dan niet het dubbele van een cpu, maar het twintigvoudige of zo. (Dat is tenminste wat Aegia ons altijd wilde doen geloven en wat in hun benchmarks ook vast wel het geval zal zijn)

Wat dat betreft is de performance van PhysX via GPU niet zo hoog als je zou verwachten.
Tenzij diezelfde gpu hier dan zowel de grafische berekeningen als de physics berekeningen heeeft gedaan. Dan is het wel indrukwekkend. Maar ik betwijfel of dat het geval is.
Niet dat je het geheel kan vergelijken, maar de componenten die gebruikt zijn op de PhysX kaart zijn simpeler dan de Geforce FX 5800. Er is ook nergens bewijs dat die kaart _ECHT_ zijn best doet, slechts wat gimmicks die met een multi-core CPU prima zouden kunnen als Ageia niet hun best zouden doen om dat te voorkomen.

Wat die kaart stand-alone dus kan, zou een 9800GTX/GT2x0 met zijn vingers in z'n neus moeten doen.
Ik weet nog goed dat ik de Cellfactor Beta op mijn E6300 prima kon draaien met enkel Cloth-physics disabled. En m'n E6300 gaf geen kik. Allemaal marketing geblaat toendertijd. Ben blij dat Nvidia hun heeft overgenomen, kan het tenminste een beetje mainstream worden, zonder afgezet te worden.
enkel cloth physics disabled
Blijkbaar besef je niet hoe ongelooflijk cpu-intensief cloth physics kunnen zijn?

Er zal heus best wel veel marketing geblaat in hebben gezeten, maar totdat je in beide situaties exact hetzelfde rendert kun je gewoon niet die uitspraken doen, die jij doet.

Ik heb 3D renderers waarbij 1 enkel frame 30s duurt met cloth physics. (en dan heb ik het echt niet over hele complexe scenes)


Dat je met een GPGPU de krachte van een PhysX kaart kunt benaderen betwist ik niet. (ATI heeft daar ook al voorbeelden van laten zien).
Maar de cijfers van deze drie benchmarks zijn daar bepaald geen sterk voorbeeld van.

ATI en Nvidia hebben al eerder geclaimed dat zij ook physics berekeningen kunnen doen, maar tot nu toe was daar nog niet veel voortgang in.
Nu is er dan ineens een driver die het voor alles activeert.
Ik denk dat je er heel sterk rekening mee moet houden dat die driver in verhouding maar een heel matige physics performance aflevert in vergelijking met wat ze tot nu toe als technology demonstrators hebben laten zien.
Ik ben bekend met de do's-and-dont's voor physics, verder heb ik heb ook cloth-physics techdemo's gezien op m'n E6300 die het dan ook prima deden. Bij de drivers van Ageia zit ook zo'n Cloth demo die het anders ook prima doet op >300fps. Ziet er zelfs niet veel anders uit dan die in Cellfactor.
Unigine heeft ook een Cloth Physics engine, die ook bij een simpel processortje zeer realistische, destructible cloth physics weet weer te geven.

Het gaat er niet om dat een PPU meer kan dan een CPU, dat is zonder twijfel waar, maar het gaat om de implementatie, en als cloth physics op een CPU moet, dan gaat dat prima met huidige technieken.

[Reactie gewijzigd door SirNobax op 21 juni 2008 21:06]

(Aegia is immers ook druk bezig geweest om te voorkomen dat je Cellfactor met alleen een cpu kon draaien. Ze wilden niet dat je kon zien hoeveel zo'n PhysX hardware kaart nou werkelijk toevoegde)
Cellfactor is dan ook gemaakt als gratis promotiegame voor hun kaartjes, ik vind dit dus geen echte wanpraktijk ;)
Och, ik begrijp het ook wel, maar het maakt me ook zeer wantrouwend.

Als je dure dedicated pci kaart voor physics echt zo geweldig is als je claimed, dan kun je ook makkelijk het spel met alle opties aan beschikbaar maken voor mensen die geen PhysX kaart hebben. Dan zien je potentiele klanten goed hoeveel zo'n add-in kaart wel niet toevoegd.

Dat ze dat niet toelieten geeft meteen het vermoeden dat die add-in kaart niet zo geweldig veel toevoegd en dat er wellicht goede alternatieve zijn.
Als je dure dedicated pci kaart voor physics echt zo geweldig is als je claimed, dan kun je ook makkelijk het spel met alle opties aan beschikbaar maken voor mensen die geen PhysX kaart hebben. Dan zien je potentiele klanten goed hoeveel zo'n add-in kaart wel niet toevoegd.

Dat ze dat niet toelieten geeft meteen het vermoeden dat die add-in kaart niet zo geweldig veel toevoegd en dat er wellicht goede alternatieve zijn.
point well taken :)
PhysX is er niet om de FPS te verhogen, maar vooral om meer mogelijk te maken in de spellen; betere pathfinding, natuurlijke reactie en weergave van objecten en alles wat beweegt en/of aan verandering onderhevig is, natuurgetrouw weer te geven. Zeg dat maar even, omdat ik het gevoel heb dat velen niet helemaal snappen wat PhysX doet en waarvoor het dient.

PhysX zal dus eerder de FPS verlagen, dan andersom. PhysX voegt wel iets toe, met PhysX is er gewoon meer mogelijk dan zonder PhysX. Games kunnen daardoor levendiger en natuurgetrouwer worden, NPC's bijv. gaan meer leven en de cpu-vijanden kunnen slimmer worden. Het hangt er helemaal vanaf hoe goed en de hoeveelheid PhysX een ontwikkelaar in zijn spel stopt, wat het uiteindelijk resultaat is.

Veel PhysX kunnen een CPU, ook de snelste, helemaal plat leggen. Dat de Physics buiten de CPU om word berekent is dan ook een goede zaak. Dit kan door de GPU gedaan worden (die is daar veel beter voor geschikt dan de CPU) of door een aparte chip.
Elk heeft zijn voor en nadelen. Maar dat PhysX FPS verhogend zou zijn, of zou moeten zijn; is een fabeltje. Daar is PhysX nooit voor bedoelt.

Wat we dus eigenlijk zouden willen weten is; Voegt PhysX iets toe aan het spel, hoeveel voegt het toe en is het de moeite waard ? Het voegt iets toe aan het spel, dat is zeker (alleen die spellen dan die PhysX ondersteunen). Hoeveel het toevoegt verschilt van spel tot spel. Denk zelf dat het de moeite waard is, mits het goed is geimplenteert door de game-ontwikkelaars.
Hothardware wist de hand op een benchmark voor Unreal Tournament 3 te leggen, waaruit blijkt dat de Physx-versie van het spel twee tot drie keer beter kan presteren als de gpu voor de natuurkundige berekeningen wordt ingezet - al is niet duidelijk wat er precies wordt gemeten.
Leuk dat de prestaties omhoog schijnen te gaan, wat me stoort aan deze opmerking is dat het niet strookt met waarvoor PhysX is bedoelt. Als ik een betere game-ervaring krijg met PhysX, waarvoor PhysX ook bedoelt is; is FPS niet echt relevant. Natuurlijk wil je dat de FPS op een aanvaardbaar nivieau blijft, zodat het speelbaar blijft. Wat echter niet wegneemt dat een toename van de FPS gewoon een prettige bijzaak is. De hoofzaak van PhysX is en blijft een betere gameplay ervaring, met alle verbeteringen erin die ik al opsomde.

[Reactie gewijzigd door Madrox op 22 juni 2008 12:21]

PhysX is er niet om de FPS te verhogen, maar vooral om meer mogelijk te maken in de spellen
Wat nou als er al meer mogelijk gemaakt is in spellen (zoals UT3) waardoor je CPU het zo zwaar krijgt dat hij de GPU niet van voldoende gegevens kan voorzien en de FPS dus achteruit gaat? Dus dat je CPU de bottleneck wordt? In dat geval kun je de physics berekeningen (deels) door de GPU laten doen die staat toch voor een deel uit z'n neus te eten. Netto effect: meer FPS met gelijkblijvende effecten.

Als je het slim programmeert gebruik je optimaal de CPU + GPU, zorg dan dat ze allebei 100% bezig zijn voor maximale FPS bij een vaststaande hoeveelheid physics effecten.
Als je het slim programmeert gebruik je optimaal de CPU + GPU, zorg dan dat ze allebei 100% bezig zijn voor maximale FPS bij een vaststaande hoeveelheid physics effecten.
Vrijwel onmogelijk, heeft niks met slim programmeren te maken maar alles met de diversiteit aan hardware configuraties, cpu's en gpu's. Er zal vrijwel altijd wel ergens een "bottleneck" zijn.

Het eerste wat je zegt kan waar zijn, maar kijk je naar de scores van juist UT3, zijn die ook zonder Physics heel goed. Die extra FPS die je dan krijgt, heeft dan ook maar een zeer beperkte of zelfs geen toegevoegde waarde.


ps: Reactie op Superdre:

Ben het met je eens dat de GPU minder tijd zal hebben voor de hoofdtaak, in hoeverre dat de FPS negatief beinvloed hangt af van de architectuur van de GPU alsook op welke resolutie gespeelt wordt. Het mooiste zou zijn als er een dedicated stukje van de GPU de PhysX voor zijn rekening neemt, zonder iets van de bestannde architectuur af te snoepen. Een chip in een chip, als het ware. Een losse PhysX kaart is de next best oplossing.

[Reactie gewijzigd door Madrox op 22 juni 2008 22:31]

je kan de driver (177.39) al downloaden:
177.39 (Guru3D)
PhysX 8.06.12 (Softpedia)

bron + meer info: LaptopVideo2Go
ps. 177.35 heeft iets hogere FPS in de meeste games dan 177.39 en heeft dezelfde PhysX support. Daar tegenover staat dat HD afspelen in 177.35 niet werkt maar in 177.39 weer wel.

Er zijn ook verschillende mensen die de PhysX support met 177.26 aan de praat hebben dus keuze genoeg lijkt me:)
Beetje vreemd dat het pas later vrijgegeven wordt voor de oudere kaarten. Voor zover ik het begrepen heb programmeren ze de Physx support door de hun zelf ontwikkelde CUDA API. Deze is echter _totaal_ transparent wat hardware betreft. Je schrijft de code maar een keer en het draait automatisch van de 8400 tot de 9600. Het enige wat je een beetje rekening mee moet houden is hoeveel geheugen je hebt, maar de rest is echt absoluut schaalbaar en onzichtbaar voor de developer.

Zal wel marketing zijn... :Y
De driver bepaald zeker welke lijn Cuda enable wordt.
Misschien lopen ze achter kwa testen.

Daarnaast ziet het er niet mooi uit als 'n
vroege Review 'n 8400 test en valt tegen tov PPU of zelfs de 8600GT.

Met de GT200 en G92B maken ze als eerste 'n goede indruk.
nV is erg release prestatie gericht. De reden van TWIMTBP is zware optimalisaties in game engine en drivers te verkrijgen zodat je voorloopt op de competitie.

De consument ziet dan dat 'n GT280 waar +/- de helf van 1,4Miljard transistors shader deel het opneemd tegen 'n 125mil 130nm low klokt energie zuinig Chipje van release date 5-2006.

Waar eigenlijk 'n onderklokte 125mil transistors aan shaders meer de tegen hanger is. Dus 'n 8400 of 8600

Dus zal wel geforceerd zijn door marketing.
Mits wat je beweert klopt geef ik je helemaal gelijk, maar het kan zijn dat er nog getest moet worden op de oudere kaarten. Er kan altijd een bug tevoorschijn komen op andere hardware, ook al programmeer je het universeel.

Bovendien is het niet onlogisch dat ze het dan het eerst voor hun high(er)-end kaarten testen. Als Sony een nieuwe 20" en een nieuwe 58" tv introduceren dan maken ze ook geen nieuwsbericht van de 20" maar van de 58" ;)
Zal wel marketing zijn... :Y
Misschien, maar wat zouden ze er precies mee te winnen hebben?
Een veel waarschijnlijker optie is kwaliteitscontrole: nieuwe drivers moeten op alle nog gesupporteerde kaarten getest worden. Het is veel eenvoudiger en dus vlugger om een beta driver te releasen voor 1 kaart.
In deze review is de performance met PhysX al getest. Zie onderaan de pagina.
Er is dus niet echt een verschil in GPU performance, maar als je de CPU test is er wel een enorm verschil! :o

[Reactie gewijzigd door HaTe op 22 juni 2008 00:14]

Gaat dan je grafische performance niet achteruit? Persoonlijk zit ik daar niet op te wachten als de CPU ook uitstekend in staat is tot natuurkundeberekeningen. Met een beetje dualcore of desnoods quadcore mag dat toch geen probleem zijn.
In staat tot natuurkundige berekeningen?
De Zilog Z80 is ook in staat tot die berekeningen.

'n 80386 deed toen ook al die berekeningen.
Wat je eigenlijk zegd je neemt genoegen met 'n Physics arme game.
PhysX games kunnen een sloot meer aan Physics krijgen. Tot waar 4 quadcores niet
aan kunnen tippen.

Maar 'n cPU heeft meer te doen dus alleen 'n deel van zijn kracht wordt daar voor gereserveerd. Dualcore is nu mainstream dus 1/4 aan MFlops wat zo'n CPUtje can wordt er normaal voor gereserveerd door Dev's.

Je begrijpt dan dat er 'n verschil is tussen CPU Physics.

5 tot 20 MFLOps

Of PPU GpGPU 20 tot 1,2 Tera flops wat dan mogelijk is.


Wat dit brengt is dat Games vooral die PhysX games niet zozeer meer gecentreerd zijn rond over de top gFX.
Maar dat PhysX ook vaak 'n Keyfeature is. En dus zo'n zwaar PhysX verrijkte game niet meer kan vergelijken met zo'n gelimiteerde CPU Physics game.

'n CPU is totaal niet in staat om 500Mflops te doen.
De game zit dan ook vol met Physics het is dus een heel andere beleving.
'n CPU doet zoiets dan met 0,1FPS.

Mijn advies game je met 'n 8600GT of nog lager mijd zware PhysX games.

Heb je voldoende Shader power of meer om beide voldoende te doen dan kan je PhysX game optimaal spelen. 'n 9800GTX+ zou voldoende reserve moeten hebben om beide redelijk te kunnen doen. voor 'n matige PhysX game.

Heb hier 'n 8600GT dus nee dat gaat niet lukken.
Maar ik kan er 'n GTX260 neer zetten en de 8600GT voor physX.
Maar heb al 'n PPU. Dus de huidige PhysX games op PPU gericht kan ik al aan.
Dus wacht eerst op goede nV Physx games die nogal wat Flopjes goed gebruiken.
Misschien 2 GTX260

Ook wacht ik eerst af wat er allemaal exact mogelijk is met die PhysX drivers en kaart combies.
en vanaf welke GPU ze goede stap vooruit zijn op 'n PPU.

Die link
Die synthetische troep 3d vantage zegt niet veel. Leuk dat synthetische benches gaan als de brandweer.
En ik mis de uitgebreide PhysX benching waar ook de PPU bij betrokken wordt. In een real game. UT3 met Ageia PhysX maps.

Ik verwacht bij 9800GTX+ release als ook de drivers public worden uitgebreide Reviews gericht op PhysX.
Het aantal Mflops boeit me totaal niet.

Dat vertelt me namelijk niets over het soort of aantal physics berekeningen dat gedaan kan worden.
De ene soort berekening heeft veel meer flops nodig dan een andere.

Het zegt me nog minder over het soort physics dat in games gebruikt wordt.

Leuk dat je zo'n PPU add-in kaartje hebt, maar als spellen het niet gebruiken dan is het zinloos.

Je hebt gelijk dat die theoretische 3D Vantage benches zinloos zijn.

Het gaat er om wat er in games gebruikt word. En als dan het volgende scenario uitkomt dan ben je mooi de pineut met de dure aanschaf van je PPU add-in kaart.
mogelijk scenario:
- games gebruiken weinig physics omdat te weinig mensen een PPU of krachtige cpu hebben. zinloos om veel geld uit te geven aan iets dat mensen niet kunnen gebruiken en wat in een review niet makkelijk naar voren komt.
- physics die gameplay beinvloeden zijn een groot probleem voor ontwikkelaars, want hoe hou je de boel gebalanceerd voor mensen met ene zonder physics mogelijkheden
- developers gaan physics heel langzaam aan doorvoeren. Omdat veel mensen wel een krachtige gpu hebben focussen ze zich daar op.
- langzamerhand begint physics normaal te worden. SLI/Crossfire borden hebben inmiddels de optie gekregen om de tweede gpu als dedicated physics kaart te gebruiken. Developers maken nog steeds physics die optimaal loopt op gpu's.
- uiteindelijk worden veel physics berekeningen normaal in spellen en dan (in 2010) worden dedicated PCI-E PPU add-in kaarten de moeite waard ipv gpu's.
(Als Ageia niet was overgenomen waren ze tegen die tijd al failliet geweest)
Lezen....

De vraag is al minimaal vier keer gesteld en beantwoord.

Door HaTe: http://www.legitreviews.com/article/731/14/
Wat een ongelooflijke domme conclusie in die (zeer korte) test...


Ze snappen totaal niet wat er aan de hand is.
De performance in games blijft precies gelijk. Géén performance winst.
De performance in een synthetische CPU test gaat wel vooruit, (omdat er blijkbaar PhysX support in zit).

Vervolgens gaat daardoor de totale score vooruit. Totaal niet boeiend dus.

Datgene waar het om gaat, de performance in games, daar helpt het niet.
Maar wat nou nog steeds niet duidelijk is, is of dat komt doordat 3DMark daarvoor geen PhysX support heeft, of omdat de voordelen van de PhysX support teniet worden gedaan doordat daardoor er minder kracht over is voor de grafische werkzaamheden.

Een beetje behoorlijke reviewer zou dat verder gaan onderzoeken en niet gaan blaten over wat een "gigantische vooruitgang" dit is.

Aan de andere kant was dit in een review van ATI 4850 vs Nvidia 9800GTX+ (met review drivers) . Dus het was ook niet het onderwerp waar ze echt mee bezig waren.
Ik volg niet helemaal ... PhysX is volgens wat ik hier lees iets dat al langer bestaat, ook zit het allemaal al ingebouwd in vrij veel bestaande kaarten, waarom verschijnen er dan nu pas drivers voor? :?
Ik weet niet waar jij vandaan haalt dat het al in veel bestaande kaarten zit. Op je wikipedia link staan alleen de originele PhysX kaarten vermeld.

Op de nVidia kaarten draait het via het Cuda platform en de videokaart drivers, die nu dus beschikbaar zijn. Er is dus geen hardware support ingebouwd in de kaarten, maar het draait als software op de shaders van de GPU.
Als software op de shaders? Volgens mij is dat zo ongeveer de definitie van 'in hardware'. Wat dacht jij dat de PhysX-kaarten zo ongeveer waren?
Denk dat het een zet is, door de 4850/4870, zodat mensen wellicht nog gaan voor de GF8/9 serie.
Omdat nvidia dat PhysX niet zo heel erg lang geleden over genomen heeft.
goh, ben benieuwd hoe het staatje er uit had gezien als ze ook daadwerkelijk de Physx-chip erbij hadden getest.. die is namelijk een stuk beter nog als de GPU.. enuh, jij kunt mij niet wijs maken dat de GPU de physx laten berekenen geen invloed heeft op het werk wat de GPU eigenlijk moet doen.. Die GPU heeft het al moeilijk zat om de nieuwste spellen in de mooiste kwaliteit te laten zien, dus als daar dan ook nog Physx bij moet worden berekend dan kan dat nooit GEEN invloed hebben..
ben benieuwd hoe het staatje er uit had gezien als ze ook daadwerkelijk de Physx-chip erbij hadden getest.. die is namelijk een stuk beter nog als de GPU
Waarom? Deze GPUs halen ongeveer een halve terraflop/s, AGEIA's PPU levert naar schatting 50 GFLOPS, tien keer minder.

Kijk ook even naar procestechnologie. De GPUs worden op 65 nm gemaakt terwijl de PPU op 130 nm gefabriceerd wordt. Da's vier keer meer transistors op hetzelfde oppervlak. Bovendien is de kloksnelheid van de GPU ook nog eens een viertal keer hoger.
Leuk, maar wat voor invloed heeft dit op de framerate? De GPU heeft maar een bepaalde rekenkracht, en alle rekenkracht die voor physics ingezet wordt, kan niet voor de graphics gebruikt worden lijkt mij zo...
Uhm, zie je het UT3 grafiekje? Dat is de invloed dus ongeveer:)
Ik zie anders nergens 'framerate' of 'FPS' in het grafiekje staan. Wie weet is het gewoon een schaalverdeling ofzo. Verder vind ik het maar een nietszeggend grafiekje, omdat er nergens bij staat welke hardware er is gebruikt. Geen wonder dat het een enorme boost geeft bij een P4 bijvoorbeeld.
Zijn wel degelijk FPS, ik heb tenminste vergelijkbare benchmarks gezien.
Kan zo gauw even de linky niet vinden.
9800 GTX+, 9800 GTX, 9800 GTX-, de 9800 GTX+-, GTX260/280-kaarten
Die namen zouden toch minder ingewikkeld worden?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True