Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties

Er zijn enkele marketingslides van AMD opgedoken met details over de binnenkort uit te brengen HD 5970, AMD's nieuwe vlaggenschip. De tdp zou nog net geen 300W bedragen, terwijl al die warmte door een vapor chamber wordt afgevoerd.

De HD 5970, zoals de videokaart gaat heten, heeft twee volledig functionele Cypress-gpu's aan boord. Dat houdt in dat de gpu's elk over 1600 streamprocessors kunnen beschikken en met een 256bit-geheugenbus het gddr5-geheugen aanspreken. Volgens de slides zijn de gpu's op 725MHz geklokt terwijl het gddr5-geheugen, waarvan beide gpu's over 1GB beschikken, op 4000MHz loopt. Zowel de gpu's als het geheugen zijn daarmee lager geklokt dan op een HD 5870, waarmee de tdp, die uiteindelijk 294W bedraagt, onder de 300W kon blijven. Het idle-verbruik zou met 42W een stuk lager liggen.

Ondanks de lagere kloksnelheden claimt AMD een zeer hoog overklokpotentieel. Om gebruik te kunnen maken van dat potentieel heeft AMD de maximum-kloksnelheden in ATI CCC opgehoogd naar 1000MHz en 6000MHz voor respectievelijk de gpu en het geheugen. Net zoals bij de HD 5870 worden de gpu's aangestuurd door Volterra-chips die met behulp van software afgeregeld kunnen worden, opdat bijvoorbeeld de spanning verhoogd kan worden.

Om de videokaart koel te houden heeft AMD ervoor gekozen een enkel koelblok in te zetten dat gebruik maakt van vapor chamber-technologie. De bekende radiale ventilator wordt door een pwm-controller aangestuurd en zorgt zodoende voor de juiste hoeveelheid luchtverplaatsing. Bij voorgaande dual-gpu videokaarten werd er nog gebruik gemaakt van twee koelblokken, waarbij het tweede koelblok gekoeld werd door reeds opgewarmde lucht.

Het embargo zou op woensdag 18 november al vervallen. Opvallend is dat de videokaart volgens de slides overweg kan met Eyefinity, terwijl dit eerst nog niet werkzaam was met CrossfireX-opstellingen. De videokaart moet 599 dollar gaan kosten.

AMD slides HD 5970 AMD slides HD 5970 AMD slides HD 5970 AMD slides HD 5970 AMD slides HD 5970
Moderatie-faq Wijzig weergave

Reacties (88)

"waarbij het tweede koelblok gekoeld werd door reeds OPGEWARMDE lucht. :? "Hoe kan dat nouw.Je kant toch niet iets koelen met warme lucht.Zou het niet moeten zijn "waar het 2de koelblok de reeds verwarmde lucht koelde"ofzo, Maar goed leuk kaartje,maar mischien word dat juist een dure zaak.Als ze in de VAPOR u.s.a Case veroordeeld worden zullen ze moeten gaan betalen.En in idle al 42 watt verbruiken vind ik niet weinig.
Het is opletten met die wattages, soms neemt men de powerconsumpsie van het hele systeem. Ter referentie, een geforce gtx280 heeft een idle verbruik van 25watt en dat is inderdaad een stuk minder.

[Reactie gewijzigd door Causing op 17 november 2009 12:50]

Ja maar het idle verbruik is 45 watt. Het gemiddelde gamesysteem met een dual core processor, een harde schijf of 2 en een leuke kaart neemt gemiddeld makkelijk 100 watt(mijn systeem met E6600 @ 3.2 ghz, ATI 4870 en 3 harde schijven doet idle 120 watt). Dus ofwel doen ze raar en nemen ze voor full load de waardes van het hele systeem(hoewel mijn systeem ook 275 watt neemt met een veel lichtere videokaart) @ load, dat zou dan zeer zuinig zijn. Ofwel klopt het en doet de kaart full load in zijn eentje 300 watt en 45 idle, wat mij meer lijkt te kloppen.
Lucht verplaatsing = koeling. Echter zal warme lucht lang zo goed niet koelen als koude lucht.
Zolang er een delta zit tussen het koelblok en de lucht, die al dan niet of wel is opgewarmd, kan er warmte worden overgedragen aan de lucht, zij het minder snel.
nu heeft het tog weer weinig zin door er maar 1 koelblok op te zetten je hebt toch ongeveer het zelfde effect omdat de lucht tog al is opgewarmt door de eerste chip en dus die warme lucht blaast nu ook over het koel gedeelde bij de tweede chip..
of moet ik dat anders zien?
Wat ik ervan begrijp is dat de twee chips 1 vapor-chamber delen. Die vapor-chamber geeft z'n warmte weer af aan een plaat, die wordt gekoeld door fans.
Die vapor-chamber krijgt die bijna 300W voor z'n kiezen, maar als 'ie dat aankan, worden beide chips even goed gekoeld.
Volgens de theorie dan he ;)
en die vapor chamber kan kennelijk 400 watt aan xD
Die vapor chamber is een soort platte heatpipe. Dat zorgt er dus voor dat de warmte razendsnel gelijkmatig over het koelblok verdeeld wordt, en dat het dus niet meer uitmaakt waar de warmtebronnen precies zitten.

Het effect wat je eerst dus had dat de tweede gpu last had van de eerste is hierbij dus opgelost. Nu delen ze de heatsink eerlijk.
De volgende die gaat worden aangeklaagd voor het gebruik van Vapor Cooling?
Als ze gewoon ervoor betalen is er toch geen probleem.
wat bedoel je? is dat een trademark ?
Dus? Omdat hun geen licentie hebben afgenomen heeft ATI dat per definitie ook niet? Sorry maar zo komen geruchten dus in de wereld ;) (niet dat mensen naar je luisteren maargoed :P)

Maargoed ik zal vanmmidag even de hele wereld aangeven... Want omdat er een paar mensen zijn die wellis stelen doet iedereen dat automatisch 8)7 |:(

[Reactie gewijzigd door watercoolertje op 17 november 2009 11:55]

Wow, hoe goed/snel dan ook, 300watt voor een videokaart is mij iets te gortig...
Net als met auto's zouden er ook energielabels aan gehangen moeten worden, of zelfs een maximum verbruik vastleggen wereldwijd..
Voor jou hebben ze een 5750.

Videokaarten zijn ook beperkt. Ze kunnen maar 75W uit pci-expressslot nemen en 75W/6pin of 150W/8pin pci-expressstroomaansluiting.
'Maar' 150w. Ik herinner me dat mijn 286 een 120w voeding had. Vooruitgang noemen ze dat...
Je hoort ook nooit mensen klagen dat auto's op de circuits zo veel verbruiken... Het hoort er gewoon bij.
Voor mij is het ook teveel, maar ik heb ook het geld niet om zo'n kaart te kopen. Deze kaart is gewoon voor de super-enthousiast.
Zoals vele weten staat de 4870X2 nog regelmatig bovenaan en/of in de top. Deze kaart kun je kopen om zeker 4 jr verder te kunnen zonder elke keer een nieuwe aan te schaffen.

Weeg dan de aanschafprijs maar eens af tussen 2x een single/ nw graka in 4jr deze 5970 Tis maar net wat je wilt :+ (en je portemonnee :Y) )
ja maar een serieuze gamer wil ook doorgroeien in direct x 11, en ja er is nog niet veel op de markt daarin, maar dat staat op t punt te veranderen, dus dat 4 jaar verhaal slaat naar mijn mening nergens op, je kunt beter kijken voor een goede HD5850, daar kun je wel zeker 4 jaar mee vooruit

ontopic voor het onderwerp: ik hoop serieus dat dit de prijs van de HD 5870 richting de 270/280 euro brengt deze nieuwe kaart. dan word het interresant

[Reactie gewijzigd door MelodyDeluxe op 17 november 2009 11:54]

Kun je er hier ook 2 van plaatsen? of 3? Niet dat het uitmaakt, waarschijnlijk zal zelfs de 975 extreme eerder de bottleneck vormen bij zoveel geweld.

Maar ziet er erg interessant uit. Als je zo die cijfers bekijkt ga je je toch afvragen hoe nvidia daar straks aan kan tippen.

*zingt iets van "All i want for christmas..."*
Ik las over de i9 + HD5970 = epic?
Jammer dat de i9 voor $999 staat op Wikipedia..
Maarja, ik verwacht dat 2010 top wordt voor ATI en INTEL
ik lees hier nu wel veel uitspraken over watt x, en watt y.

maar naar mijn weten werd daar vroeger ook niet omgezeurd.

HD2900XT(X) ?
8800 GTX / Ultra ?

ik ben van mening die dit soort kaarten kopen, ook wel het geld hebben om de iets hogere stroom rekening te betalen.

en zo'n dikke voeding heb je nou ook weer niet nodig imo.

draai hier een
Phenom X 4 940 BE @ 3.7
8800 Ultra
3x HDD
2x Optical

op een Corsair HX450.

just my 2 cents.
Gelijk heb je, als je geld wil bewaren prima, maar om het voor het milleu te doen slaat idd nergens op. Ik hoor ze al zeggen *alle kleine beetjes helpen* maar als je het nou gewoon bij de bron aan pakt, dat is waar de energie gewonnen wordt, dan heb je het hele probleem opgelost.

Besparen op je pc en vervolgens je koffie apparaat van 2000watt vergeten uit te zetten heeft dus ook geen zin.
Als je het bij de bron aanpakt, wat een nobel streven toch!

Helaas is het nog lang niet zover, nog geen 10% van de wereldwijde produktie van energie is schoon. Omdat het jou beter lijkt om het bij de bron aan te pakken, gaan we voorlopig maar lekker door met het mileu vervuilen. Enig idee hoelang het gaat duren eer de produktie van energie zeer mileuvriendelijk is ?

Steek je kop maar lekker in het zand, verwijs maar naar allerlei alternatieven en/of overige oplossingen; die stuk voor stuk tientallen zoniet meer jaren gaan duren om te verwezenlijken. Alle kleine beetjes helpen, als er echter structureel aan de grote zaken weinig gebeurt helpen die kleine beetjes maar heel weinig.

De overheid doet het al niet veel beter. Ze gaan rekeningrijden invoeren om de files te verminderen; maar owee, er mag toch echt echt geen km minder gereden worden; stel je voor dat ze minder belastinginkomsten binnenkrijgen. Voor het mileu komt dat rekeningrijden er iig niet.

Of neem bijv. het vrijgeven van de post en vooral de pakket-markt; ipv. 1 busje van 1 bedrijf, gaan er tig busjes door diezelfde wijken. Routes die uitgestrekter zijn/worden, omdat ieder bedrijf een stukje van de "markt" in handen heeft. Weet je hoeveel extra diesel er daardoor doorheen gejaagt word ? Goed voor de marktwerking, slecht voor het mileu. Het word er echter voor de consument niet goedkoper op; die verstookte diesel zal ieder bedrijf verrekenen in de transport-kosten, alsook het gebruik/lease van elk busje etc.etc.

Vergeten dingen uit te zetten ? Heb je nog meer van die geweldige excuses ? |:(

Maar ach, maar maken we ons druk om. Zoals gezegt kijken we massaal TV, gloeilampen etc. Straks komen 1 miljard chinezen daar ons bij helpen, de indiers, afrikanen, de hele wereld. Lekker stoken, zolang het nog kan :X

Vroeger werd er niet om gezeurt, natuurlijk niet. Geen hond die wist wat voor effecten dat op het mileu zou hebben. We zeurden om niet over onze pacemaker, ow wacht; die was er nog niet. Tegenwoordig weten we meer als vroeger en morgen weer meer als vandaag. Voortschijdend inzicht, heet dat. Met de kennis van vandaag is het goed mogelijk dat men zich druk gaat maken waar we met zijn allen mee bezig zijn.

[Reactie gewijzigd door Madrox op 18 november 2009 03:42]

Ik weet wel wat ik ga kopen als ik mijn eindejaarsuitkering heb gehad :P
Die GPU power ga je nergens voor gebruiken ;)
tenzij je het als kachel voor thuis wilt gebruiken

Overigens even ter verduidelijking, de power die je nu al bij een 5850 krijgt is meer dan zat om alle games op dit moment in max quality te spelen op 1680x1050. De 5870 zal je ook in 1920x1080 alles subliem kunnen spelen.

Wat is dan de toegevoegde waarde van een kaart die 300Watt verbruikt tijdens gamen? volgens mij is dat enkel de patsfactor.

Op het moment dat jouw kaart daadwerkelijk alles uit de kast moet halen om een game nog optimaal te kunnen spelen, is de kaart al achterhaald en heb je voor een laag bedrag een snellere kaart die minder energie verbruikt.

[Reactie gewijzigd door n00bs op 17 november 2009 11:32]

Wat mij opvalt is dat er juist een trend is om zo min mogelijk energie te gebruiken. Auto’s, witgoed en spaar-/led lampen. Alles energie zuinig. En dan een videokaart die tegen de 300 watt gebruikt. Zal een stevige energie rekening worden als je deze vaak volledig benut.
Overigens is de verlijking met een auto helemaal zo raar niet ;).

Die 300w is bij Full load. (ZOals een auto bij vol optrekken ook de "verbruikcijfers" niet haalt).

Deze kaart, is beduidend zuiniger idle (het cruisen op de snelweg van een auto, de kaart is immers wel actief in 2D) dan zijn voorlopers. Dus wel degelijk heeft het hier een uitwerking :).

Overigens is het bijkomende voordeel niet de energierekening, maar het verminderen van de koeling en dus geluid bij idle :).
Behalve dan dat bij rendering een videokaart wel altijd max fps probeert te kloppen. Maw, hij stopt niet nadat ie 60 FPS haalt. Zodra je ook maar de simpelste 3D app draait zal de videokaart bijna vol open gaan, enkel tegengehouden door het traagste component in je videokaart of systeem. 250 watt ga je zeker wel trekken in de meeste games. Een auto doet dit niet, die gebruikt zelfs cruisend op de snelweg met 120 relatief weinig van z'n kracht.

En daar ligt dus wel het punt van Tjeerdtq, het is niet echt een zuinige kaart. Echter moet je dat ook niet verwachten. Deze kaart is de Bugatti Veyron onder de sportauto's. Lomp maar oh zo snel.

Als je dit soort graphics power nodig hebt (2560x1600 en 8xAA bv) dan go for it. Maar zelfs dan kom je nog om in de frames (behalve in Crysis, maar dat blijft een vreemd spel).

Overigens lijkt die 300w veel, maar in perspectief met kaarten uit de vorige generatie valt dit behoorlijk mee. De vorige generatie dual GPUs zaten ook zo rond de 300W.

Verder vind ik het echt kudo's voor het lage idle verbruik van de kaart. Het idle verbruik van een 4870X2 lag nog op ongeveer 100 watt meen ik me te herinneren. Alles bij elkaar loopt het verbruik dus wel terug, dus dat is zeker een pluspunt.
of je zet een custom profile neer per spel (kost nog geen 10 minuutjes) wat je instaleerd en je gaat daarbij de voltage profiles en de clocks tweaken om bij elk spel minder stroom te verbruiken. dan gebruik je tijdens crysis @ 2560* 1600 300 watt en bij unreal tournament 3 bijv.slechts 150 watt.
Tenzij je V-Sync aanzet. Dan kan hij nooit meer dan 60 fps renderen en zal hij minder stroom gaan verbuiken. Dit kan ik hier zelf zien met minder zware games.
V-sync renderd natuurlijk allen in 60 Hz als je de games ook op die refreshrate draait, maar toch zal het verschil in stroomverbruik niet zo groot zijn aangezien de ook voor 60 fps toch alle componenten toch gewoon van stroom voorziet. Alleen als je zoals hierboven aangegeven voor elk spel (en resolutie) aparte profiles met voltages gaat tweaken zul pas echt een redelijk verschil in verbruik zien.

Maar dat is wel erg veel werk, oftewel je moet kaarten met zo'n hoog verbruik alleen nog kopen als je het ook echt nodig hebt. Je mag best een beetje aan het milieu denken en koop gewoon de efficiënte onderdelen, dat stimuleert fabrikanten om het verbruik verder omlaag te brengen.
In navolging van andere reacties: je moet van goede huize komen om dit beest constant te stressen. Als je een spel speelt op een 1600 resolutie is hij niet fulltime aan de bak, die 300 watt is de maximale warmtehoeveelheid die hij af kan voeren, zeg maar.

Dat is ook de reden dat je bij flink overklokken naar een andere koeler grijpt.
Ze zijn idd lekker bezig bij ATI qua prestatie's , maar bijna 300 watt is toch wel erg veel hoor. Daar mag je een beest van een voeding aan gaan hangen, vooral als je evt. ook nog een Crossfire gaat :) (als vraag je je af of dat met zoveel geweld nog nodig is)
Waarom zou ik er een beest van een voeding aan hangen? Me systeem gebruikt hooguit 450/500watt met een hd5850 en een i7 OCed maar 100watt er bij past echt wel op me 650watt voeding hoor... hooguit om het safe te spelen kan je een 700/750watt nemen maar dat vind ik persoonlijk erg meevallen (uiteraard een office pc doet het al met 250watt of de atom met minder dan 40watt oid?).

@n00bs eyefinity? of een 30 inch scherm a 25xx bij 1920 :)

[Reactie gewijzigd door watercoolertje op 17 november 2009 11:53]

Ja je hebt geen Beest van een Voeding nodig hoor, zo lang je maar een Goede Voeding neem met Single Rail.


Guru3D deed een test met 2x Geforce GTX295 en 1x Geforce GTX275 (ja 5 GPU's) en
hij kwam niet boven de 700Watt uit, zo lang je maar een Goede voeding neem, zo als de
PC Power & Cooling Silencer 910 (910 Watt).

http://www.guru3d.com/art...-silencer-910-psu-review/
je wilt dat een 'beest van een voeding' omdat een voeding op 50% het meeste rendement heeft. verbruik je dus 600watt dan trek je meer uit het stopcontact met een 700watt voeding als met een 1200watt voeding.
en voor dat kleine beetje verschil wat dat maakt (tussen 30% en 80% is de efficientie ongeveer gelijk) ga je het dubbele betalen? kan je beter voor een 750 watt voeding met 80+ silver of gold gaan, minder duur, minder warm, stiller en hogere efficientie.
of je neemt een vrij standaard 800 watt voeding, deze trekt 5 watt meer stroom en voor de 60 euro die je bespaart game je meerdere jaren, of je geeft dat bedrag uit aan andere dingen in het huis, waar je wel veel stroom mee bespaart.
Die GPU power ga je nergens voor gebruiken
Wellicht dat alle sliders in de grafische instellingen van GTA IV dan wel op MAX kunnen @1920x1200?
Waarschijnlijk niet omdat het nog steeds 1Gb per kaart is; dus te weinig geheugen om alles op max te zetten.

Tevens maakt voor GTA de grafische kaart haast niets uit, enkel een gigantisch dikke CPU.
Helemaal niet, de fx power moet uit je memory komen van je graka. Als je vollaan wilt wilt spelen met een graka van 1 GB zal nooit gaan! Al heb je 15 x i7 in je bak zitten... 2gb heb je dan nodig minimum
Mwah, dat ligt er maar net aan. Deze kaart is alleen bedoeld voor mensen die spellen als crysis op hoogste resolutie en hoogste settings (inclusief AA en AF) willen spelen. Daar haalt een enkele HD5870 nog geen vloeiende beelden bij, naar mijn weten (en dan zie ik minstens 30FPS als vloeiend, hoewel dat ook verschilt per spel en persoon). Ook heeft dit natuurlijk nut als het inderdaad werkt met eyefinity, op resoluties met ~10 megapixel is deze GPU-kracht echt geen overkill als je alsnog hoge settings wilt.
Ik heb zelf een 4850 en daarmee kan ik al mijn spellen (waaronder Call of Duty Modern Warfare 2) prima op 1920 x 1200 spelen op de hoogste settings, geen enkel probleem!

Die extra kracht van je GPU zou wellicht voor andere taken gebruikt kunnen worden ter verlichting van de load op je CPU bij zware taken? Dan gebruik je het misschien nog nuttig.
Die GPU power ga je nergens voor gebruiken ;)
Ambitieloos? De moderne games kunnen nog altijd sneller / vloeiender en met hogere details hoor?
Overigens even ter verduidelijking, de power die je nu al bij een 5850 krijgt is meer dan zat om alle games op dit moment in max quality te spelen op 1680x1050. De 5870 zal je ook in 1920x1080 alles subliem kunnen spelen.
Low res gaming!? Waarom zou je die lage resoluties willen?
2560x1600 is where it's at. En dat verschil is t.o.v. een klein schermpje met 1920x1080 echt niet "onmerkbar klein" ofzo.
Op het moment dat jouw kaart daadwerkelijk alles uit de kast moet halen om een game nog optimaal te kunnen spelen, is de kaart al achterhaald en heb je voor een laag bedrag een snellere kaart die minder energie verbruikt.
Ik geef je Crysis, COD4:MW, COD6:MW2, S.T.A.L.K.E.R.:CS en Supreme Commander:FA ter overweging. Die lopen allemaal respectabel in 2560x1600 @ low detail op een 4890 en m.u.v. Crysis ook nog wel speelbaar op medium tot half-high detail als je FSAA en anisotropisch filteren uit laat. Maar om het vloeiend te laten lopen met de visuals mooi heb je aan één 4890 niet genoeg. Dat Supcom werkt en speelbaar is is omdat het een strategy game is, die bij 10 fps speelbaar blijft. MW, MW2, Crysis en Stalker worden als de framerate inkakt echt slecht speelbaar.
Ik merk gewoon duidelijk verschil in gameplay in MW tussen full detail + ani. + FSAA envol detail met FSAA en ani. uit. Dat verschil is groot genoeg dat het snipen po bewegende doelen lastig maakt met filters aan - en de mensen waar ik mee speel vertikken het even te blijven staan terwijl ik op ze mik, de rotzakken.
Er zijn genoeg games waar je met een 5870 nog altijd niet aan 60fps geraakt. En dan heb je nog de mensen die meer dan 100fps nodig hebben, die kunnen nog lang wachten voor ze Crysis en consoorten aan beste kwaliteit kunnen spelen.
alles op high in 1920x1200 dan??

kan iemand mij vertellen waar dit soort monsterkaarten zowieso nog op slaan nu de pc games markt toch stilstaat omdat de consoles anders de geporte versies niet meer aankunnen?

ik kan met mijn 8800gt notabene nog vrijwel alles (met uitzondering van crysis) op 1920x1200 spelen met alle instellingen op high! dus zoveel meerwaarde zal zo'n extreem krachtige kaart niet kunnen brengen lijkt me
Shattered Horizon wou niet maxed op 1920 * 1080 met een HD5870 :p Hij haalde maar 20 fps.
Ach ja ...
Er blijven altijd figuren aanwezig in dit land die perse in een Ferrari willen rijden terwijl de maximum snelheid 120 is ipv 300 !
Het lijkt mij weinig genieten met zo'n kanon onder je kont (lees: in je pc) als de rem constant roet in het eten gooit ...)
Lees de volle potentie niet tot z'n recht kan komen ..

[Reactie gewijzigd door Scherpmes op 17 november 2009 16:07]

Ik weet wel wat ik ga kopen als ik mijn eindejaarsuitkering heb gehad :P
Een extra 300W voeding om een kaart als deze van stroom te voorzien?

[Reactie gewijzigd door BeosBeing op 18 november 2009 12:15]

Supermooie kaart, al ben ik bang dat deze toch echt wel te lang gaat worden met 2 van die chips. Jammer dat Slide 22 er niet bij staat ;)

Hier nog wat meer slides: http://forums.techpowerup...p?p=1638260&postcount=114

[Reactie gewijzigd door NL-RaVeR op 17 november 2009 11:24]

Wat ik er van begrepen heb gaat de kaart 13,5''(34,3 cm) lang worden,en dat gaat lang niet overal in passen.
Deze gaat anders wel passen in mijn Lian Li PC-A71F :)
Hij moet wel passen in mijn nieuwe pc met Lian Li PC-P80 armorsuite
Vraag me af wat hier de geluidsproductie van zal zijn (onder load), dat is eigenlijk het enige waar ik me nog erg veel aan erger met mijn iets wat verouderde setup van 2 Asus 8800GTS 640MB kaartjes in SLI...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True