Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 85 reacties
Bron: AnandTech

Tijdens een bezoek aan moederbordfabrikanten in Taiwan heeft AnandTech de kans gehad om gedurende korte tijd te spelen met het MSI K8N Diamond-moederbord, uitgerust met de nForce4 SLI-chipset, in combinatie met twee GeForce 6600 GT's en twee GeForce 6800 GT's grafische kaarten van MSI. Het moederbord heeft twee PCI Express x16-sloten en met behulp van een dongle kan er voor gekozen worden om één slot in 16x-mode te gebruiken of twee sloten in 8x-mode. Op het bord werd een Athlon FX-55 geprikt en twee 512MB DDR400-geheugenmodules. Hierna werden een drietal benchmarks gedraaid met de kaarten in standalone en SLI-mode.

MSI K8N Diamond SLI-dongle

Onafhankelijk van welke benchmark wordt gedraaid, Doom 3, Counterstrike: Source VST of Far Cry, is steeds hetzelfde beeld zichtbaar. In de twee laagste resoluties waarin getest werd, 1024x768 en 1280x1024 met 4xAA, zijn de twee GeForce 6600 GT-kaarten in SLI-opstelling bijna even snel als een enkele GeForce 6800 GT. In de hoogste resolutie, 1600x1200 met 4xAA, is het verschil in snelheid echter een stuk groter en in het voordeel van de enkele GeForce 6800 GT. Verder valt op dat de GeForce 6600 GT meer profiteert van SLI dan de GeForce 6800 GT. Dit is vooral in laagste resolutie, iets wat erop kan duiden dat de snelheid dan vooral gelimiteerd wordt door de processor.

AnandTech concludeert dat SLI een goede oplossing is om een flinke verbetering in performance te krijgen. Vooral de GeForce 6600 GT lijkt goed van SLI te kunnen profiteren. Helaas is een 6800 GT nog altijd sneller dan een combinatie van twee 6600 GT-kaarten. AnandTech ziet in SLI dan ook een mogelijkheid om makkelijk de performance van een 6600 GT te kunnen verbeteren als deze te langzaam wordt. Je zou nu een enkele 6600 GT kunnen kopen en als er straks spellen zijn die niet meer goed draaien op een 6600 GT zou je er een tweede bij kunnen plaatsen. Een SLI-opstelling van twee 6800 GT's is daarentegen voorbehouden aan gamers die het onderste uit de kan willen hebben en hiervoor ook het geld over hebben om dit te bekostigen. SLI is dus vooral interessant als een upgrade mogelijkheid voor in de toekomst.

Twee GeForce 6600 GT-kaarten in SLI-opstelling

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (85)

Vraag me af of er ook fabrikanten er ook aan gedacht hebben twee GPU's te bundelen met SLI op één kaart. Alle SLI opstellingen werken namelijk met twee 8x PCI-E sloten. Daarom zal een Dual GPU board prima mogelijk moeten zijn in een 16x PCI-E slot.
Sja maar dan ga je de kant uit waar 3dfx ook heen ging. Net zoals met de voodoo 5 6000, 4 gpu's op een kaart pleuren. Dat werd veeel te duur, en de chips waren niet aan te slepen.
Zoiets is gewoon niet rendabel meer.

Vind deze post trouwens nogal afwijken van de post die een tijdje geleden werd gepost:
http://www.tweakers.net/nieuws/34660/
Hier zijn de twee 6600GT's sneller dan de 6800Ultra...
Tja 4 chips is ook gelijk weer een zo'n hoop. Zie je het al voor je 4 6800GT core's op 1 plank, en die Nvidia kaarten zijn toch al zo groot qua oppervlakte. En wat te denken van wat zo'n kaartje aan vermogen gaat trekken, dan kan je wel een dedicated voeding speciaal voor die kaart kopen :P.

Nee, maar 2 zou opzich zo gek nog niet zijn. Het PCB zal wel behoorlijk ingewikkeld worden, en de kaart zal zeker niet goedkoop zijn, maar wel heel vet en Nvidia toont met SLI dat het qua verbinding en techniek enzo wel goed zit (itt bijvoorbeeld XGI met hun Volari Duo, waarbij ze echt lomp zijn geweest dat core 2 het geheugen alleen kon aanspreken via core 1 en dan ook nog via 128bit bus, met alle latency's van dien).
net als met die voodoo 55- en 6500. Daarvoor moest je ene extra voeding achterin steken, vooral omdat er nog geen markt was voor bigass interne pc voedingen van 550watt of meer....

Op zich is een 2e chip nog wel te doen qua stroom en pcb mogelijkheden(naja een beeldkaart van 200 watt :P), maar bij meer worden de kaarten te groot, te duur, te gecompliceerd,te warm enz enz
en dan ook nog via 128bit bus, met alle latency's van dien
De latencies worden veroorzaakt door die extra core, niet door de 128bit bus.
Maar het zou dan wel mogelijk zijn om deze op een moederbord met slechts 1 PCI-E 16x te steken. Of zelfs een AGP 8x.
Voor de consumenten markt zou het idd duur uitvallen. Maar volgens mij nog steeds goedkoper dan bv 2x 6800GT. Maar die kan je dan per stuk kopen.
Maar voor de professionele markt, denk aan de kaarten van 3D labs. Die gebruiken al jaren full-size kaarten met meerdere gpu's, frame buffer en texture buffer opgedeeld....
En aan een quadro (90% van de prijs is voor de drivers!!!) is voor een kleine meerprijs een extra gpu toe te voegen. Iets waar de high-end markt zeker blij zal om zijn.
Op een moederbord met 2x pci-e 16x zou je dan bv 2 van die kaarten met 2 gpu's kunnen steken en alzo met 3 of 4 beeldschermen werken. Ik denk hier vooral aan mensen die op meerdere beeldschermen met Catia e.d. werken waar er enorm op de videokaart geleund wordt.
De getallen in de eerste tabel kun je niet met elkaar vergelijken, want die geven alleen aan hoeveel verbetering je krijg als je twee kaarten in SLI zet ten opzichte van een kaart.

De tweede tabel is alleen onder 3DMark03. Dat is een kunstmatige benchmark. Het is een mooie indicatie, maar komt niet altijd overeen met de werkelijkheid. Hier zijn dus drie echte applicaties getest!
volgens mij wordt het al aardig druk op dat printplaatje laat staan een tweede chip met eigen geheugen enz. dan zit je l snel aan ongebruikelijke grote kaarten die weer meer kosten dan twee losse kaarten in massaproductie.

Verder lijkt me de voornaamste reden ook dat het bedoelt is voor upgrading
Misschien is kan er iets gemaakt worden zoals DualCore voor de GPU. Wat ze binnenkort bij de DualCore processors doen bij Intel en AMD.

Door over te gaan naar een kleinere productieproces kunnen de cores kleiner worden en wellicht twee GPU cores erop gezet worden en deze alsware met hypertransport met elkaar verbinden. Dan zal de core minder ruimte op een videokaart in beslag nemen.

Misschien dat NVidia en ATi al bezig zijn met zoiets,
Dual-core is voor de GPU een volstrekt nutteloze term. Men zit nu reeds aan 16 pijplijnen. Daar kan men gerust 32 van maken als men het maar op silicium kan krijgen.

SLI heeft vooral als voordeel dat de warmte afzonderlijk afgevoerd kan worden. En 256 baantjes voor het geheugen op een kaart gaat nog wel, maar 512 niet. SLI verdeelt dus effectief alle werk over twee kaarten.
maar dan wagen ze zich aan iets waar velen voor hen zijn over gestruikeld ;)

Daarenboven heb je dan wel een heel serieuze pcb nodig om zo 2 kaartjes te combineren op 1. En dan valt voor de gebruiker het upgradepath ook weer weg. Maw het zou gewoon een ultra dure zeer snelle kaart worden die moeilijk te produceren valt...
en dus amper verkoopt...
en waar hebben we dat nog gehoord? ;)
Alle SLI opstellingen werken namelijk met twee 8x PCI-E sloten.
1x 16 en 1x8 toch?
nee het is 2x PCIe 8x. Als je maar 1 videokaart gebruikt, dan is het bovenste slot een PCIe 16x slot. Gerbuik je 2 kaarten in SLI, dan zet je de dongle om en heb je 2x PCIe 8x sloten. De sloten zijn de juiste grootte voor PCIe 16x kaarten (voor videokaart), maar lopen in SLI dus op halve snelheid (niet dat het veel uitmaakt, met de huidige kaarten nog bandbreedte zat....) [typo :P]

edit:
Het moederbord heeft twee PCI Express x16-sloten en met behulp van een dongle kan er voor gekozen worden om één slot in 16x-mode te gebruiken of twee sloten in 8x-mode.
Dongle?

Een dongle is een dingetje wat je achterin je PC in een poort steekt bij sommige programma's als extra bevijliging. (je krijgt de dongle meegeleverd bij het programma en het draait niet zonder dongle).

Ik denk dat je een DIP-switch bedoelt, dat zijn tenminste die schakelaars op een moederbord/kaart die je met een klein contactje kan instellen.
Met een klein contactje? Da's een jumper, toch? Jumper en een pin header. Contactje is de jumper, en die verbindt twee pinnetjes.

Een DIP switch is wat je in de volgende foto ziet:
http://www.mdc-vacuum.com/graphics/Dip%20Switch%201-off.jpg
Zo goed als alle fabrikanten gebruiken gewoon het reference desing van nVidia, zonder ook maar iets zelf te ontwerpen. Laat staan een hele nieuwe kaart met meerdere GPU's.

(Zou natuurlijk wel tof wezen voor de mensen met een AGP bordje.)
Moet je dus perse 2 dezelfde kaarten gebruiken voor SLI?

of kan je ook gewoon eerst een enkele kaart kopen en dan later als upgrade een snellere erbij prikken en dan extra performance hebben?
Een snellere erbij prikken gaat niet.

Om dat kaart 1 de eerste helft opbouwt.
En de tweede kaart de ander helft opbouwt.
Van het beeldscherm.
Een snellere erbij prikken gaat niet.

Om dat kaart 1 de eerste helft opbouwt.
En de tweede kaart de ander helft opbouwt.
Van het beeldscherm.
Het is niet zo dat beide kaarten 50% van het beeld doen, maar 50% van de load. Anders zou bv. de kaart die de lucht rendert veel sneller klaar zijn dan de kaart die de grond rendert, en dan heeft het niet zoveel zin.

Of er een snellere kaart bij kan weet ik niet, opzich zou het wel moeten kunnen denk ik.
Ja dat moet, Want bij deze SLI opstelling renderd de ene V-Card het onderste deel van het scherm en de andere het bovenste ( Software maakt dat deel dynamich van grote, zodat ze beide ongeveer even veel doen ).
Anders zou de 6800 75% van een frame doen en de 6600 25% dat gaat een hoop verbetering opleveren :Y)
Anders zou de 6800 75% van een frame doen en de 6600 25% dat gaat een hoop verbetering opleveren
Die verbetering is toch juist de bedoeling, dus het zou wat dat betreft logischer zijn om het wel mogelijk te maken om er een snellere kaart bij te prikken.
eigenlijk dus zelfde verhaal als vroeger (vroeger... :+ )
toen kon je een voodooII 8mb kopen, en een 12mb, de 12mb kon resoluties aan van 1024*768, en de 8mb slechts 800*600. De SLI (monster) bracht dan alleen een snelheidsverbetering, en werd ook alleen aangeraden als upgrade mogelijkheid.
(eigenlijk beetje oftopic geblaat :z )
Beide Voodoo2's konden als ze er alleen voor stonden maar een maximum resolutie van 800x600 aan.

1024x768 was pas te draaien als je er 2 in SLI modus had.
Maar als je dat kon draaien in die tijd was je da bomb. Quake II in 1024x768, LEKKUR! Same goes voor UT, draait geweldig op die kaartjes.
Zelf gehad vroeger. Vind het achtraf nog steeds zonde dat ik ze verkocht heb :'(
Of je had een Riva TNT en je kon het al draaien in 1024*768 zonder graphic corruption en betere textures dan van de voodo :)
[ontopic]
Toch vraag ik mij af of de SLI wel de te bewandelen weg is, stel je moet later een 2de 6600Gt kopen omdat de games te traag zijn voor de 6600GT (een 6800GT kan ze nog wel spelen). Dan heb je ineens meer dan 100 Watt extra nodig voor je systeem. Er zijn weinig systemen welke nu 100 Watt over hebben. Reken maar uit wat je allemaal moet doen om die 2de kaart erin te krijgen tegenover een kaart upgraden.
Ik had indertijd een TNT en 2 voodoo 12MB sli's... de TNT noch de TNT2 konden in quake dezelfde grafische kwaliteit bieden als de voodoo's. Pas met de TNT2 ultra ben ik omwille van de snelheid overgeschakeld op de standalone oplossing maar dit was wel met op één of andere manier minder mooie graphics. Daarna heb ik zowat alle nvidia kaarten gehad tot en met de 4800ti. Pas sinds kort met een ATi X800 Pro heb ik weer het (subjectieve) gevoel dat de beelden op mijn scherm net iets meer diepte bevatten en voldoende scherp zijn. [no flame intended, ik wil helemaal geen discussie starten over wat beter, sneller, mooier, l33t3r is.]

Ontopic: De SLI oplossing die nu geboden wordt lijkt me niet echt interessant. Als 2 6600GT's het nog altijd moeten afleggen tegen een 6800GT dan koop je toch de laatste? Tegen de tijd dat je 2x6800GT NODIG hebt zijn er al lang single solutions die veel beter zijn...
Ik had indertijd een TNT en 2 voodoo 12MB sli's... de TNT noch de TNT2 konden in quake dezelfde grafische kwaliteit bieden als de voodoo's.
Mja, dat lijkt me sterk, ik heb ook met 2 v2's in sli gespeeld en ben daarna geupgrade naar een tnt, maar die laatste was in alle opzichten superieur aan die 2 v2's (3d kwaliteit, 32bit, features, opengl support etc, sneller)
glide, opengl ondersteunden ze niet
Dan moet ik Jokerman toch gelijk geven (uit eigen ervaring overingens en die van mijn vrienden). Ik heb hetzelfde ervaren. En ik moet zegen dat ik het verschil wel heel erg duidelijk zag.
Als je 32bits speelde ja dan was dat mooier, maar het probleem was dat de TNT en de TNT2 niet voldoende FPS gaven om 32bits goed weer te geven. Helaas zag de markt dat anders.
@ Blouwekip
opengl support
en waar draaien de voodoo kaarten volgens jou op |:(
Dan koop je nu toch weer nieuwe :?
Op Marktplaats/Ebay (.de) staan er best veel :).

Doom III draait zelfs op de 12MB SLi modellen.
Warcarft III doet het ook op de 8MB SLi modellen, 1 vs 1 multiplayer is zelfs redelijk speelbaar in 1024x768 8-)

En dat voor een kaart van 6 jaar oud.... :o
1024*768 was mogelijk als je slechts doublebuffering gebruikte en (ik dacht) de z-buffer uitschakelde. HIerdoor kwam er meer framebuffer ruimte vrij ...
een voodoo2 12MB kan 1024*768 zonder triple buffering, in SLI ook met
Het hoeft alleen signalen te door te sturen welke de andere kaart moet ondersteunen lijkt mij.
Er zit niet voor niets ook een andere pci-e 16x aan de onderkant. Ik ga er zomaar vanuit dat die niet ongebruikt gaat worden.

Athans... ik denk dat jij dit bedoelt.
oh ja natuurlijk hij gebruikt gewoon de pci-e slot voor alle data maar alleen dat connectortje voor de signalen die door de D-sub of DVI poort gaan
Met Voodoo II 8MB in SLI kun je ook 1024x768 draaien ;)

Helaas heeft deze SLI setup geen kabeltje tussen de kaarten. Een kabeltje flexibel en ziet er ook mooier uit.
@ Huig:
Je kan best een waterblokje op iedere kaart zetten, zo koelt Alienware hun systemen die zijn uitgevoerd met SLI ook. (jah SLI, dus niet Video-array :) )
Er is dan te weinig plek tussen de kaarten.
Misschien is de lay-out van de SLi opstelling van Alienware anders. Niet dat het anders ingedeeld is, maar dat de PCI-X poorten verder van elkaar af geplaatst zijn ;).
Alienware heeft natuurlijk een eigen versie van SLI en past (laat dit doen?) deze toe op mobo die zij in hun systemen leveren.
Omdat alienware staat voor Power,hun systemen, en ook al systemen verkopen met opgevoerde hardware (idg graka's) is het heel verstand om op een of andere manier WC toe te passen ;)
Alienware heeft ook zo'n verbindingsprintplaatje. Die zal dan ook te kort zijn.

http://www.tweakers.net/nieuws/34853/?highlight=alienware

Zie het plaatje in de kast :)
Alienware had gezegd dat als SLI sneller zou zijn, ze SLI zouden gaan toepassen. Nu hebben ze dus een SLI systeem met waterkoeling dus het kán wel.

Blijkbaar was videoarray niet meer relevant door de actie van nvidea en zal dan ook weer snel verdwijnen.
Er is dan te weinig plek tussen de kaarten.
http://www.tweakers.net/nieuws/34853
Als je daar kijkt zie je dat het makkelijk past.
Misschien is de lay-out van de SLi opstelling van Alienware anders. Niet dat het anders ingedeeld is, maar dat de PCI-X poorten verder van elkaar af geplaatst zijn
Als je naar het plaatje bij bovenstaande link kijkt zie je dat er ook maar 1 slot tussen zit.

En het is PCIe, niet PCI-X.
Alienware heeft natuurlijk een eigen versie van SLI
Weet je dat zeker?
Alienware heeft natuurlijk een eigen versie van SLI

ja, de video-array!. Maar ze gebruiken nu ook gewoon SLI. Zie T.net van gisteren, voor een nieuwsmelding over alienware.


Het wordt tijd dat ze snel eens andere toepassingen beginnen te schrijven voor GPU's. Zeker als je 2x een 6800gt of ultra kan steken in SLI heb je in bepaalde omstandigheden 10 a 20ghz aan vergelijkbare cpu power. Allemaal mooi in 2 grafische kaarten.

Zo is er nu iemand die in een uiterst beginstadium van de ontwikkelingen, een programma geschreven heeft om de GPU te gebruiken voor audioFX's door te lussen. En hij kwam ook tot de conclussie dat de top GFX kaarten een viervoud aan snelheid bevatten tegenover cpu's. (op bepaalde berekeningen natuurlijk).
*In de twee laagste resoluties waarin getest werd, 1024x768 en 1200x1024 met 4xAA*
Moet dat niet 1280x1024 zijn?? :P
ik blijf het dikke rommel vinden. het kost toch een kapitaal om twee van die VGA's te kopen.

zoals ze zeggen: twee 6600's halen samen nog niet de prestaties van één 6800. dan kan je dus beter een 6800 kopen en over 4 jaar (zo lang gaat ie wel mee) koop je weer een nieuwe.

of eerder, je haalt toch nog wel wat centen uit de verkoop van de oude.

nog een nadeel is dat je gelijk 3 (!!!) pci-plaatsen kwijt bent, met goede koeling zelfs 4. dan kan er dus geen fck meer in je computer verder.

sowiezo is het een dure hobby om ten alle tijde de nieuwste VGA te hebben. ieder jaar van VGA wisselen kost grofweg 50-100 plus de verkoop van de oude. nu moet je het bij twee VGA's doen, wordt het alleen maar duurder van, en of het voordeel nou zoveel waard is..

maar goed, tis leuk voor de mensen die denken dat het echt verschil maakt.

@paal: als je steeds je VGA's upgrade door steeds het nieuwste model te kopen en de oudste te slijten kost dat je net ong. zoveel als dat je ieder jaar je beide slijt en daarvoor nieuwe koopt. een vga daalt elk jaar van prijs en topmodellen dalen denk ik het tweede jaar meer in prijs dan het eerste jaar :)
Als upgrade mogelijkheid voor de toekomst is iets dergelijks zeker wel interessant. Als je nu een moederbord koopt met een nForce4 SLI-chipset, en bijv. één 6800GT, dan kan je daar nog een hele tijd mee vooruit. Later, als de 6800GT wat verouderd is, en een stuk goedkoper is geworden, gooi je er gewoon nog eentje bij en je hebt weer een hoge performance. Ik zou dit zeker niet als rommel willen bestempelen.

Nadeel is wel het enorme energieverbruik...
Later, als de 6800GT wat verouderd is, en een stuk goedkoper is geworden, gooi je er gewoon nog eentje bij en je hebt weer een hoge performance.
In hoeverre ben je er zeker van dat dit kan? als ik kijk naar dual processors, moet je dezelfde stepping hebben om het goed te laten werken. Die zijn er niet bij de videokaarten?
of je koopt nu 1 6800 en over 2 jaar als die dingen bij 3 pakken boter worden mee gegeven plak je er nog een bij en je kunt weer 4 jaar vooruit ;)
Eens en bovendien is de houdbaarheid natuurlijk maar beperkt. Het is leuk dat je later dan een zelfde verouderde kaart kan kopen, maar tegen die tijd hebben de nieuwe kaarten weer nieuwere features die je dan moet missen, omdat je dan toch gebruik wilt maken van je SLI-mogelijkheid.
Leuk en aardig, dat SLI, maar als je een watergekoelde PC wil/hebt kan je volgens mij niet twee (http://www.aquacomputer.d...d_products/6800_1_500.jpg) van deze koelers erop gooien, of zie ik dat verkeerd?
je blijft met SLI dus steken op luchtkoeling |:(
beetje dom van Nvidia...
Dan zouden mobo fabrikanten de PCI Express sloten verder uitelkaar moeten zetten (ongv. 1 slot verder dan nu).
Helaas is dat lelijke koppelingsding te klein/kort. Dat moet dus gewoon een mooie S-ATA look-a-like kabel worden :)
Als ik mij niet vergis zit er 1 slot ruimte tussen, anders zouden de slotblikjes al tegen elkaar moeten zitten.
Leuk en aardig, dat SLI, maar als je een watergekoelde PC wil/hebt kan je volgens mij niet twee van deze koelers erop gooien, of zie ik dat verkeerd?
Zo heel dik zijn deze koelblokken niet dus misschien passen ze er net tussen.

Als je even wacht.. er is over een tijdje echt wel iemand die het probeert en z'n ervaringen ergens op internet gooit.
volgens mij worden ze bij nvidia wat wanhopig na al dat ati geweld.
this toch erg dat ze nu oude technieken naar boven moeten halen voor een beetje performence. na de geforce 4 is het niet echt lekker gegaan volgens mij.
toch wel leuk om te zien als test maar echt toekomst heeft het denk ik niet.
+2 Informatief???

Nvidia doet met de 6800 ultra op z'n minst goed mee (ik vind zelfs dat ze het beter doen dan) met Ati.

SLI is niet een oude techniek die ergens in hoek is gegooit omdat het niet goed werkte. SLI kon omdat er meerdere PCI sloten in een systeem zaten, bij AGP was die dus geen optie. PCI Express kan dit weer wel, dus vandaar dat er weer SLI kaarten komen.
[qoute]volgens mij worden ze bij nvidia wat wanhopig na al dat ati geweld.[/qoute]

Volgens mij heb jij een maandje of 8 liggen slapen. De geforce 6 serie kan goed meedoen met de Radeon X serie. De Geforce FX was een blunder maar dat is verleden tijd.
Volgens mij moet het net passen om hier WC op te zetten hoor ;)
Mij WC blok op me GPU gebruikt ook net geen pci slot, dus ik denk dat het milimeterwerk word maar wel past :)
Welk GPU koelblok heb je dan ?
Mijn koelblok die bij de AseTek Waterchill KT20 zat is net iets groter en neemt dus bijna 2 sloten in beslag.

Om de koelblokken te gebruiken die ik heb, moet de onderste SLI kaart één plekje naar beneden.
ik heb hier de nieuwe en de oude vga cooler van asetek en met de nieuwe is het mogelijk om 2 kaarten in sli te zetten mits er dus 1 pci slot ruimte tussen zit, en uit de foto's is de zien dat dat zo is (anders zou nVidia's reference cooler er ook niet op paasen, degene voor de 6800 gt en ultra dus).
Jammer van dat verbindings plaatje dat de koppeling mogelijk maakt van twee kaarten. voor zover ik heb kunnen kijken heb ik dat ding alleen nog maar in het groen gezien ;) Dusja als je dan twee rode Graka's hebt met rood PCB dan is dat wel jammer.
De echte tweaker spuit hem zelf over :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True