Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 76 reacties

EVGA heeft de GTX 460 2 Win geÔntroduceerd. De videokaart dook tijdens de CES in januari al op, maar destijds was onduidelijk welke gpu's er worden gebruikt. Volgens EVGA is de videokaart sneller dan de GTX 580.

De nieuwe videokaart bestaat uit een enkel pcb met daarop twee GF104-gpu's, zoals die gebruikt worden voor de GTX 460 1GB-kaarten. Daarmee beschikt de GTX 460 2 Win over 672 Cuda-cores, ruimschoots meer dan een GTX 580. Elke gpu tikt op 700MHz en kan via een 256bit-geheugenbus 1GB aan geheugen aanspreken, dat een kloksnelheid heeft van 3600MHz. Volgens EVGA is de videokaart sneller dan een GTX 580.

EVGA toonde de videokaart al tijdens de CES, maar destijds was er nog het vermoeden dat er gebruik werd gemaakt van twee GF110-gpu's. De gpu's worden gekoeld door een grote heatsink en drie ventilators. Een ander voordeel van de aanwezigheid van twee gpu's is dat ze samen vier schermen kunnen aansturen, of drie schermen in een zogeheten Surround-setup, vergelijkbaar met AMD's Eyefinity-techniek.

Wat de videokaart moet gaan kosten is nog niet bekend, maar het zou minder zijn dan de bijna 500 dollar die de GTX 580 moet opleveren. Een prijs van twee losse GTX 460's moet haalbaar zijn en die gaan in Nederland al voor ongeveer 145 euro over de toonbank.EVGA GTX 460 2 Win

Moderatie-faq Wijzig weergave

Reacties (76)

Bij de buren staan wat meer foto's van de kaart. Hierop zijn twee 8pin power connectors aanwezig, dus theoretisch max verbruik van 375Watt. Verder is er wel een SLI connector, wat ik zeer raar vind aangezien de gtx460 geen Quad SLI ondersteunt?

Linkje: http://nl.hardware.info/n...tx-460-2win-met-twee-gpus

EDIT: SLI connector aanwezig maar dat zal niet werken, hier de reactie van een medewerker van EVGA --> link

[Reactie gewijzigd door Stef42 op 11 maart 2011 16:31]

Ik vraag me af wat de lengte van de kaart zou worden, niet elke kaart past in elke kast.
Mijn kast kan namelijk een videokaart van maximaal 27 cm ofzo aan.
29,21cm > http://www.evga.com/products/pdf/02G-P3-1387.PDF

En dan die geheugenbandbreedte 230.4GB/sec. :9~

Het is inderdaad jammer dat het geen 560Ti GPU's zijn, anders was ie nog sneller.
De prijzen van de GTX 460 liggen veel lager dan die van de 560 dus is het logischer als ze voor de 460's gaan als ze nog een redelijke adviesprijs willen bereiken.
Volgens mij is mijn huidige 6850 HD van Sapphire al langer dan 27cm, hoop dus dat de lengtes een beetje binnen de perken zijn want mijn huidige videokaart vind ik al best groot. :+
EVGA is misschien overpriced zoals jij zegt maar daar staat dan wel lifetime warranty en stepup programma tegen over. Al sinds jaar en dag gebruik ik EVGA hardware en ben uitermate tevreden. Support is gewoon uitstekend. Altijd binnen 24 uur een reply en stepup programma is briljant. Probeer dat eens bij ASUS.

En hoezo innovatie van EVGA ??, kijk eens naar de classified borden. Lijkt me meer dan genoeg innovatie. Of de SC, SSC of FTW uitvoeringen. Meestal zijn deze toch de concurrentie te snel af.

Hoge ambities, die leveren ze toch. Of zie ik dat nu verkeerd. De keuze ben ik eens met de rest, had beter een gpu van 560 serie kunnen zijn. Echter de 460 is natuurlijk nu wel goedkoop en derhalve zal deze ook niet al te duur worden. SLI zal als ik de product sheet bekijk niet mogelijk zijn. Zie daar niets staan over SLI.

Waarom deze nou direct met de 6990 vergeleken word is mij een raadsel. Daar is deze kaart ook niet voor bedoelt, ik vermoed dat dit een voorbode is van wat Nvidia gaat brengen aankomend jaar. Tja en energie verbruik, dat blijft waarschijnlijk in lengte van dagen toch een issue. Vind ik niet relevant als een pc bouw waar prestatie voorop staat. Dan kunnen we de 6990 aanhalen die net onder de 400w blijft onder full load maar daar kijkt niemand naar als je zon kaart koopt. Daarbij als ik alle reviews mag geloven die de 6990 hebben getest allemaal het geluidsniveau als slecht ervaren.

Dus zoals gewoonlijk een keuze van GPU blijft altijd persoonlijk. Ik ben al jaren een zeer tevreden consument van EVGA en zal daar vermoedelijk ook wel blijven. Heb diverse producten van diverse fabrikanten gebruikt maar de service van EVGA staat bij mij hoog in het vaandel. Dan maar wat meer betalen maar daar krijg je genoeg voor terug.
EVGA heeft geen 'lifetime warranty' voor Europa. Dit geldt alleen voor Amerika :)
Maar wel 10 jaar wat dus eigenlijk op hetzelfde neerkomt:

"10 Years -A1, -A2, -A3, -A4, -AR, -AX, -CR, -CX, -DX, -FR, -FX, -SG, -SX
3 Years -K1, -KR, -GR
2 Year -LA, -LE, -LR, -LX, -T1, -TR, -TX, -T2
1 Year -BR, -B1, -BX, -DR

For our retail Graphics Card and Mainboard products that carry a 10 Year Limited Warranty and were purchased on or after June 22, 2005, EVGA will provide a 10 Year Limited Warranty to the original purchaser of each retail product and that the product will not suffer, in material or workmanship, from any defect that adversely affects the performance of the product. This 10 Year Limited Warranty is valid for 10 years from the day of the purchase so long as the original purchaser owns the product, based on the conditions listed in the General conditions of Warranty.

Don't forget - EVGA offers the VGA Industry exclusive Step-Up Program.
"
http://eu.evga.com/support/warranty/

Mijn gtx 260 (192core) heeft bijvoorbeeld ook 10 jaar garantie.

[Reactie gewijzigd door sdk1985 op 11 maart 2011 13:48]

toch niet, in europa is dit ook.
...lifetime warranty...
Da's waardeloos. Er is een wettelijke 2 jaar garantie, en een kaart die het zo lang uithoudt zal 99% van de gevallen ook z'n levensduur uitzitten. Deze kaarten worden sowieso vooral door mensen gekocht die regelmatig upgraden. En zelfs als mijn kaartje na 2 jaar en 1 dag stuk gaat loop ik bijna met plezier eens langs bij de hardwareboer om een nieuwere en betere kaart te halen.

Waarmee ik niet wil zeggen dat EVGA een slecht merk is. HelemŠŠl niet, maar lifetime garantie is een loos verkoopsargument.
Hoezo is dat waardeloos?

Zo is valt je 460 physics nog steeds onder de garantie over vijf jaar. Wie gebruikt nu niet zijn 260 EVGA als dedicated physics. Mocht hij kapot gaan krijg je korting op een duurdere kaart hoe mooi wil je het nog hebben.

[Reactie gewijzigd door Domus von Dutch op 11 maart 2011 13:08]

Alweer zo'n ondoordacht koelerontwerp. De luchtstroom kan bijna geen kant op. Drie ventilators die op koelvinnen blazen waar de lucht nauwelijks door kan brengt niks op.

De referentiekoeler voor de originele GTX 460 is daarentegen een voorbeeld van efficiŽntie. Blijft bijzonder koel ook bij laag toerental van de ventilator. Ik had gehoopt dat EVGA daar een voorbeeld aan zou nemen.
Als de luchtstroom geen kant op kan is de lucht heel goed te sturen en kun je dus een vrij effectief ontwerp maken. ;)

Of dit een efficiŽnte koeler is laat ik verder in het midden. Hij zal waarschijnlijk voldoen.
Als de luchtstroom geen kant op kan is de lucht heel goed te sturen en kun je dus een vrij effectief ontwerp maken.
Je hebt het niet begrepen. De lucht kan maar moeilijk weg, en draait dus grotendeels rondjes. Het is elementaire stromingsleer dat de koelvin en het PDB eronder een weerstand vormen en de lucht voornamelijk de makkelijkste weg zullen volgen. Bij dit ontwerp is dat zijdelings, en dus niet door de koelvin.

Een goede "sturing" van de luchtstroom doorheen de koelvin is inderdaad veel efficiŽnter, en dat is precies wat de referentiekoeler veel beter doet: http://benchmarkreviews.c...X460_SC_HSF_Shroud_01.jpg

De lucht mag geen andere keuze hebben dan door de koelvin te gaan, en moet vervolgens vlot weg kunnen.

[Reactie gewijzigd door c0d1f1ed op 11 maart 2011 11:44]

Toch durf ik er wel geld op te zetten dat deze koeler het wel ietsje beter doet dan de ref. koeler... Daarbij is dit een dual core kaart dus die vergelijking is daarmee al wat brak.

Volgens mij moet de lucht voornamelijk aan de bovenkant (als je hem in een platliggend mobo zou zetten) eruit en gedeeltelijk aan de beide zijkanten.

dat de koelvinnen wellicht wat beter zouden werken zoals je voorstelt kan ik wel begrijpen maar dat is maar een element natuurlijk. De snelheid/efficiŽntie van de fan, hoeveel fans, de grototte van het koeloppervlak, plaatsing, eventuele shroud van de koeler...
Toch durf ik er wel geld op te zetten...
Hoeveel?
...dat deze koeler het wel ietsje beter doet dan de ref. koeler...
Bij welke benchmark? Als je de ventilatoren laat gieren gaat het wellicht best ok koelen, maar da's uiteraard niet plezierig en geen teken van efficiŽntie.
Daarbij is dit een dual core kaart dus die vergelijking is daarmee al wat brak.
Het is een dual-chip kaart, de chips op zich zijn multi-core. En ik bedoelde wel degelijk een vergelijking met een 'dubbel' ontwerp gebaseerd op dat van de referentiekoeler: "Ik had gehoopt dat EVGA daar een voorbeeld aan zou nemen."
Volgens mij moet de lucht voornamelijk aan de bovenkant (als je hem in een platliggend mobo zou zetten) eruit en gedeeltelijk aan de beide zijkanten.
Klopt, maar die opening is duidelijk veel kleiner dan de aanzuigopening. De lucht stokt dus grotendeels.

Bij het referentieontwerp zijn er grote openingen vooraan en achteraan, naast de opening bovenaan.

[Reactie gewijzigd door c0d1f1ed op 11 maart 2011 12:45]

Dit soort koelers zijn over het algemeen zo gemaakt dat ze echt wel iets beter functioneren dan de stock koeler, drie fans betekent langzamer toerental dan ťťn fan van een stockkoeler voor zover dat mogelijk is bij een custom kaart als deze.

welke benches, ja welke niet, ik gok dat ie stiller is onder load en de boel koeler houdt dan een koeler met 1 fan met een design gebaseerd op de stock koeler.
Wellicht dat die bij idle door de drie fans wat meer geluid maakt maar erg groot zal het verschil niet zijn of dermate groot dat hij niet stil is.
Enige wat wel een nadeel is is dat de kast waarschijnlijk ietsje warmer word dan een met een kaart die het grootste gedeelte naar buiten blaast.

Dual core, dual chip ja je hebt gelijk maar dat leek me wel duidelijk.

Maar we wachten de benches wel af. :)
Wel een mooie koeler, die waarschijnlijk ook nog eens redelijk stil zal zijn.

Qua prestaties zal die waarschijnlijk wel een 10-20% langzamer zijn dan de HD6990, maar als het verbruik, geluid (want de stock HD6990 koeler maakt een serieus kabaal) en de prijs een stuk lager liggen, zou het nog wel eens een goede concurrent kunnen worden.

[Reactie gewijzigd door knirfie244 op 11 maart 2011 10:40]

ik denk dat de performance in de buurt komt van een SLI opstelling, dit gezegt hebbende zal hij sneller zijn dan een enkele HD6990. Maar dit is ook afhankelijk van de schaling van SLI. Hier een review van de HD6990 waarbij in de grafieken ook een GTX460 staat:
http://nl.hardware.info/r...-review-dirt-2-directx-11
Ja op 1024x768 zeker ;)

Prachtige kaart van EVGA, zeker voor de gemiddelde single screen 1920x1200 gamer, maar de 6990 is natuurlijk meer bedoeld voor de 30" / multiscreen markt + mogelijkheid op CF.

3dmark laat dat aardig zien.
http://nl.hardware.info/r...n-hd-6990-review-3dmark11
Ik gok van niet eigenlijk aangezien de 6990 2x de 6950 op iets lagere clocks is en die is stock al een stukje sneller dan de 460. als je het dan zou doortrekken zou deze kaart tussen de 580 en 6990 in zal vallen :)
Daarnaast zou het ook een zegen zijn als de prijs onder de 500 euro blijft. voor 500 euro een stillere gpu die ongeveer 10 tot 20 procent langzamer is als dat de HD 6990 is weet ik wel welke keuze ik maak.

Deze kaart zal iig wel sneller zijn dan een 560Ti of een 570 hoop ik. Het gaat allemaal afhangen van de test resultaten. Ik ga ervanuit dat onze heilige tweakers er binnen nu en 1 week eentje hebben om te testen en te vergelijken met de 6990. Misschien dat ze wachten op de 590 en dan de test uitvoeren maar die test gaat er zeker komen.

Ik was lange tijd bang dat Nvidia niet meer terug zou komen op de markt met een vatsoenlijk product, maar zo te zien lukt het ze aardig om weer terug te komen.
Wrm niet 2x GTX 560? Of zou de ontwikkeltijd dan te lang hebben geduurd?
Het enige verschil tussen GF114 versus GF104 is dat er meer shader cores aanstaan. Maar door de warmteontwikkeling is het sowieso verstandiger om te kiezen voor een chip die iets minder warm wordt. Bovendien zijn deze chips een stuk goedkoper wat de totaalprijs competitief maakt in vergelijking met een GTX 580 terwijl de prestaties toch gemiddeld hoger liggen.

Lijkt me dus een goede keuze. Maar het is niet uitgesloten dat ze ook een duurder exemplaar uitbrengen met twee GF114's als ze er een efficiŽntere koeler op plaatsen. Dit huidige misbaksel laat geen goede luchtstroom toe.
Maar het is niet uitgesloten dat ze ook een duurder exemplaar uitbrengen met twee GF114's als ze er een efficiŽntere koeler op plaatsen. Dit huidige misbaksel laat geen goede luchtstroom toe.
Want jij weet beter waar je het over hebt dan de engineers van EVGA, die (hoewel zeer waarschijnlijk met wat hulp van Nvidia) een custom kaart zo ongeveer van scratch hebben ontworpen? Engineers van een bedrijf dat normaal gesproken juist weinig anders doet dan stickertjes plakken en custom koelers ontwerpen? Zij ontwerpen dit "misbaksel", testen en verfijnen het en, na ťťn blik op een foto, kun jij zien dat ze hebben zitten prutsen?
Je zult met verschrikkelijk goede argumenten moeten komen (of gewoon een benchmark, zodra het ding verkrijgbaar is), als je wil dat ik zo'n claim zomaar geloof.
Zij ontwerpen dit "misbaksel", testen en verfijnen het en, na ťťn blik op een foto, kun jij zien dat ze hebben zitten prutsen?
Ik zeg niet dat ze hebben zitten prutsen. Het is een afweging tussen prijs en koelprestaties.

En ja, ik kan dit na ťťn blik concluderen. Ik heb een masters in ingenieurswetenschappen (waar o.a. stromingsleer aan bod komt), heb bij NVIDIA gewerkt, en al menig koeler nader bekeken om te verklaren waarom die goed of slecht presteert.
Je zult met verschrikkelijk goede argumenten moeten komen (of gewoon een benchmark, zodra het ding verkrijgbaar is), als je wil dat ik zo'n claim zomaar geloof.
Het is inderdaad gezond om iemand niet zomaar te geloven. Meer argumenten vindt je in mijn berichten hieronder.
Zou je met deze enkele kaart dan 3D surround kunnen draaien? naar de connecties kijkende verwacht ik het wel... 3x DVI en 1X HDMI....
Dan zou dit de eerste kaart zijn waar men 3 schermen op aan kan sluiten zonder een SLI opstelling te gebruiken.


Nevermind. Beter lezen...;)

denk overigens niet dat deze kaart SLI ondersteunt aangezien de GTX 460 over een ekele SLI poort beschikt, en je kunt aannemen dat die poort op deze kaart intern gebruikt wordt.

[Reactie gewijzigd door cybermarc op 11 maart 2011 11:30]

Op de foto @ HWI is anders goed te zien dat ook deze X2 over een enkele SLI header beschikt...
Dus dit is Nvidia's eerste dual GPU kaart die de competitie aankan ?
Als de prijs goed is in tegenstelling tot de competitie, performance goed, en voor MIJ het belangrijkste: normaal energieverbruik en warmte dan zal dit zeker een leuke optie zijn. :)

[Reactie gewijzigd door Dylan93 op 11 maart 2011 10:36]

Dus dit is Nvidia's eerste dual GPU kaart die de competitie aankan ?
Als de prijs goed is in tegenstelling tot de competitie, performance goed, en voor MIJ het belangrijkste: normaal energieverbruik en warmte dan zal dit zeker een leuke optie zijn. :)
Dus je vindt de AMD Radeon HD 6990 zeker niet goed. Om van de geluidsproduktie nog maar te zwijgen.
Sterker nog, ik vind de Radeon HD 6990 juist wel goed, als je HIER kijkt zul je zien dat de kaart met 2 GPU's gewoon word verslagen qua energieverbruik door heethoofd en energiesluper Nvidia GTX 480-580 en daarbij maakt de 480 ook nog eens meer lawaai.
Ik weet wel zeker dat de GTX590 sneller gaat zijn. De vraag die ik me wel vaker stel hier, wat doet energieverbruik er toe, hebben jullie weinig te besteden met z'n alle of lid van dat greenpeace gedoe?

[Reactie gewijzigd door Luckii op 11 maart 2011 12:20]

Energieverbruik telt ook in de portemonnee, dat is tenminste zo als je op jezelf woont en niet bij papa en mama die ervoor moeten zorgen.

Het is overigens behoorlijk overdreven, per jaar zou je zo 20-30 euro besparen aan de energie kosten als je de zware kaart (375W) i.p.v. een 'lichte' kaart (150W) gebruikt. Ik denk persoonlijk dat de prijs die je voor de kaart betaalt dan eigenlijk belangrijker is (de zware kaarten zijn al duurder, dus een paar tientjes erbij zou niet veel uit maken).

Klein rekensom als je de PC 24u per dag een volle jaar op maximale energie-verbruik laat draaien:
375-150= 225
225*24*365 = 1971 kW/u
Per kW/u betaal je gemiddeld zo'n 0.25e --> 492.75 euro. aan verschil tussen zware en lichte kaart.
Dit is natuurlijk alleen als dit inderdaad ook gebeurt, maar ik kan het me niet voorstellen dat een pc een jaar lang op maximale vermogen zijn werk zal doen (internetten etc, laat staan dat mens ook moet slapen :p).

[Reactie gewijzigd door Babrak op 11 maart 2011 12:56]

Ik denk dat die berekening een beetje brak is. Je gaat van Watts naar kiloWatts :) Ik ben geen rekenwonder, maar die 1971 zal Watt per uur per jaar zijn?
Sowieso klopt het ook niet echt omdat watt per tijdseenheid niet kan. Watt is namelijk joule per seconde; ofwel je hebt al een tijdseenheid er in zitten.
Beste Nixy en Bolletje92,

Als jullie meer moeite namen om de berekening en eenheden te LEZEN, dan kom je erachter dat de berekening gewoon klopt.
Berekening mag dan misschien wel gedeeltelijk kloppen, de eenheden kloppen niet. Het is geen kW/u.

[Reactie gewijzigd door Bolletje op 12 maart 2011 14:22]

Het klopt gedeeltelijk, en gedeeltelijk niet.
Als je vermogen 225W is, staat dat gelijk aan 0.225kW.
Dan kun je het verbruik uitrekenen met E=P*t, met E in kWh, P in kW en t in h (uur). Dat brengt je tot een simpel rekensommetje: E=0.225*(24*365). Dan verbruik je dus 1971 kWh, wat hij er ook uitkreeg. Zoals ik al zei, het klopt gedeeltelijk. Alleen zal een kilowattuur geen 25 cent kosten, maar ongeveer 13. Dan kom je dus uit op €256,23. Maar goed, daar kom je natuurlijk nooit aan, want zelf met de zware games kom je vaak niet aan dat topverbruik. Je zou non-stop een stresstest moeten draaien, en zoveel idioten lopen er nu ook weer niet rond op deze aardbol.
Alleen zal een kilowattuur geen 25 cent kosten, maar ongeveer 13. Dan kom je dus uit op €256,23.
Wow, 13 cent per kW/u? Ik betaal bij Eneco 25 cent. Waar zit jij bij?
Hence de naam kWh...

Ontopic: Dit kaartje zou dus merkbaar beter mogen presteren dan een GTX580 maar wel een stuk goedkoper en misschien nog zuiniger zijn ook? Kan aan mij liggen hoor, maar het lanceren van deze kaart komt imo niet erg logisch over... Hadden ze nog teveel GTX460-cores liggen ofzo? Dual-GTX560Ti was ik nog wel in gekomen...
Met 2 560 cores komt het prijskaartje op (ongeveer) 425 euro (dat is 2 keer een 560 kaart, want dat kan je er wel voor rekenen), nu hoeft de prijs maar ongeveer 300 te zijn, met de 425 kwam je meer richting 580 prijzen, wat niet de bedoeling was van EVGA.
EVGA wilde natuurlijk - als nVidia / Intel only partner - de verkopen van de GTX580 de grond in boren... Slimme zet inderdaad!
De vraag die ik me wel vaker stel hier, wat doet energieverbruik er toe.
Genoeg om daarvoor een kaart te kiezen, die vrijwel hetzelfde presteert, maar dan zuiniger.

Hoger energieverbruik staat gelijk aan meer hitte, over het algemeen meer lawaai, je heb een krachtigere voeding nodig en je moet meer aandacht besteden aan een fatsoenlijke airflow.

Een GPU die circa 300W verbruikt komt er hier bijvoorbeeld al niet in, gezien ik dan ook direct een andere voeding mag aanschaffen.
Het is geen ontwerp van NVIDIA, maar van EVGA.
Je hoeft niet alles zelf te ontwerpen om het je eigen ontwerp te noemen.
Alsof Nvidia niet mee doet?! Volgens mij beschikt Nvidia nog steeds over RUIM de snelste core maar goed.........

[Reactie gewijzigd door Luckii op 11 maart 2011 10:44]

Volgens mij was jou'n reactie bedoeld op Bolletje92 ?
Nvidia beschikt inderdaad over de snelste single core GPU ja, maar wat ze ervoor nodig hebben vind ik eigenlijk schandalig als je naar de competitie kijkt.
AMD kan twee GPU's gebruiken, die ook nog sneller is dan de concurrentie EN rond hetzelfde energieverbruik ligt.
Zo groot zijn de verschillen inmiddels niet meer hoor. Ja, AMD biedt iets meer prestaties per verbruik maar het ligt allemaal dicht bij elkaar. Als je het over de HD6990 hebt, dat is pas ťcht een schandalig verbruik. Nouja, het zijn ook schandalig goede prestaties maar toch. :P

Overigens vind ik het wel raar dat ze een nog ietwat oude GPU gebruiken voor deze dual-GPU-kaart. In het segment van de GTX460 zijn geen nieuwere kaarten te vinden, maar ik betwijfel of zo zo'n kaart beter kunnen krijgen dan een GTX580, vooral doordat het met twee GPU's toch wat lastiger is om optimale prestaties te krijgen dan met ťťn.

[Reactie gewijzigd door bwerg op 11 maart 2011 15:14]

De PCB is design van EVGA. Voor het eerst in deze industrie geen reference ontwerp van nVidia.
met een prijs van tussen de 250 en 300 euro denk ik dat dit een serieus goede kaart kan zijn!

als de prestaties hoger liggen dan de 580, en misschien de 5790 evenaren/overtreffen? Vraag me af waarom dit zolang geduurt heeft.
5790 evenaren/overtreffen?

Die ken ik niet :+

Maar de richtprijs is idd erg mooi... bang for buck op zijn mooist
Als deze dadelijk echt voor twee keer een GTX460 en nog een beetje word verkocht dan staat die dadelijk bij de €300,00.

In combinatie met een performance boven de GTX580 word deze kaart dan echt een onaansleepbare killer van een kaart.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True