Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 44 reacties

Eind juni doken er al specificaties op van Nvidia's videokaarten met 40nm-gpu's; nu zijn ook foto's van de videokaarten te bewonderen. Het gaat in beide gevallen om oem-versies met een low-profile formfactor en een bescheiden energieverbruik.

De G210 en de GT220 zijn Nvidia's eerste videokaarten die een 40nm-gpu aan boord hebben. De videokaarten zijn zogeheten low-profile kaarten, waardoor ze ook geschikt zijn voor bijvoorbeeld desktopkasten. De koeler op de videokaarten is ook erg klein, wat doet vermoeden dat ze weinig warmte uitstoten. Er zijn dan ook geen pci-e-connectors nodig: zowel de G210 als de GT220 trekken al hun energie uit het pci-e-slot.

De G210 is de langzaamste variant en heeft 16 shaderprocessors, een 64bit-geheugenbus en 512MB ddr2-geheugen. De gpu, de shaders en het geheugen draaien op kloksnelheden van respectievelijk 589MHz, 1402MHz en 500MHz. Op de achterkant zijn een vga-, een dvi- en een displayport-uitgang te vinden. De GT220 is aanzienlijk sneller, met 48 shaderprocessors, een 128bit-geheugenbus en maximaal 1GB gddr3-geheugen. De kloksnelheden liggen ook iets hoger, waarbij de gpu op 615MHz loopt, de shaders op 1335MHz en het geheugen op 1580MHz. Bij de GT220 is de displayport-uitgang vervangen door een hdmi-uitgang.

De videokaarten zullen eerst in oem-systemen opduiken. De losse verkoop van de G210 en de GT220 zou pas in het vierde kwartaal van start gaan. Eerder werd al gemeld dat de G210 en de GT220 respectievelijk 30 en 60 dollar moeten gaan kosten.

Nvidia G210 Nvidia GT220
Moderatie-faq Wijzig weergave

Reacties (44)

Hmm, de eerste 40nm GPU van ATI was de 4770. Deze kaarten lijkten daar qua specs niet aan te kunnen tippen. Ikzelf denk dat ATI een slimme zet heeft gedaan met de introductie van een razendsnelle 40nm GPU, vergeleken met de langzame(re) 40nm van Nvidia, vooral prijstechnisch :)

[Reactie gewijzigd door Enfer op 9 juli 2009 12:24]

Wat maakt dat dan weer uit? De consument gaat echt niet een kaart kopen omdat die op een kleiner procede is gemaakt, maar omdat deze beter/sneller en misschien ook wel prijstechnisch beter is. Ik ken niemand die het om de grootte van het productieproces te doen is, want uiteindelijk gaat het toch om wat de kaart kan en uitstoot qua warmte, energieverbruik enz. Dus wat je nou eigenlijk bedoeld?
Maar waarom is de kaart sneller / beter / zuinger / koeler (dus stiller)? Juist! Omdat hij op het 40nm procede gebakken is. Dus de gebruiker neemt eigenlijk wel de kaart omdat hij op 40nm gebakken is, juist doordat dit de gewenste voordelen bied!

[Reactie gewijzigd door Enfer op 9 juli 2009 14:24]

De snelheid heeft niks te maken met het formaat waarop GPU gebakken is. Dat formaat heeft vooral invloed op energie verbruik, omdat dat weerstand er van lager zal zijn. Dit kan tot gevolg hebben dat die minder verbruikt per clock en dus minder warm word dan kaarten met dezelfde snelheid op een groter formaat gebakken GPU. Omdat hierdoor indirect de GPU minder warm zou worden, kan je hem sneller laten draaien, wat tot gevolg zou hebben dat die weer iets warmer word. Dat die dan eventueel stiller zou zijn hoeft dan ook nog niet zo te zijn, want dit hangt geheel af van de fan die op het koelblok gemonteerd is. Aangezien de fans op deze kaartjes (relatief klein) zullen ze niet heel stil zijn, omdat ze waarschijnlijk op een veel hoger toerental zullen draaien dan grotere fans.
Maar ik vind een kleiner productie proces niet slecht, maar het wil dus niet per definitie zeggen dat die sneller of koeler zou zijn, maar relatief zuiniger zal het wel zijn.

[Reactie gewijzigd door kwinvdv op 9 juli 2009 15:00]

(Maximale) Snelheid heeft wel degelijk te maken met procedee. Vraag me niet waarom, ik ben geen expert, maar nieuwere (kleinere) procedee's kunnen veel sneller zijn dan oudere grotere procedee's. Waarom denk je dat CPUs vroeger amper 100MHz haalden en tegenwoordig 3 a 4 GHz? Dat heeft niets met hitte te maken, dat werd pas een probleem vanaf de latere Pentium 4's.
Dat komt eerder doordat die kleiner is en er ook veel meer transistors op een bepaald oppervlak passen, dus meer berekeningen tegelijk kan doen. Maar ook omdat door een kleiner formaat die minder warm zou worden en de potentie om op een hogere clocksnelheid te draaien groter is, omdat je dan meer het voltage op kan schroeven, waardoor die stabiel kan lopen op een hogere clocksnelheid.
Ik heb het niet over meer performance vanwege de hoeveelheid transistoren, ik heb het over pure snelheid in MHz/GHz. En processoren van een jaar of 10 geleden hadden niet eens een actieve koeling, dus hitte heeft daar ook niets mee te maken.

Ik heb het puur over meer performance bij nieuwe procedee's, los van hoeveelheid transistoren en energieverbruik. TSMC heeft zelf bijvoorbeeld aangegeven dat hun 40nm procedee maar liefst 60% sneller is dan hun 65nm procedee, los van perf/mm of perf/watt.

EDIT: Neem bijvoorbeeld een Pentium 2. Die draaide 300MHz op 2.8 Volt met een TDP van 43 Watt. Dat is een veel hoger voltage en een veel lagere TDP dan CPUs van nu, terwijl nu met gemak 3GHz gehaald wordt.

[Reactie gewijzigd door Snoitkever op 9 juli 2009 17:07]

Ik denk dat toch het aantal transistors hier een rol speelt, want het aantal GHz staat volgens mij voor de snelheid waarmee de gehele CPU of GPU doorlopen van een signaal (ik weet niet of ik het zo goed uitleg), maar dit komt er op neer dat als het meer transistors zijn, er meer in een clock kan worden berekend. Daarom had je ook Pentium 4 processoren op 3,8 GHz die toch veel minder snel dingen konden berekenen dan de huidige processoren met vergelijkbare clocksnelheden.
Ik weet niet hoe het zit met die 60% snelheidswinst van de 40nm ten opzichte van de 65nm, want deze performance ligt denk ik aan nog veel meer eigenschappen, zoals als cache en hoe de northbridge en southbridge van het moederbord en alles in elkaar zit.
Die Pentium 2 processor die jij aanhaalt heeft veel minder transistors (77 keer minder dan de Intel Core 2 Quad (bron)), waardoor er veel minder stroom zullen gebruiken. Het hogere voltage komt denk ik doordat dat soort oude processor relatief veel robuuster waren en daardoor veel meer spanning kunnen verdragen, maar ook het verbruik in verhouding tot het voltage is ook heel anders, dan huidige processors met het zelfde verbruik, die ruim de helft van van dat voltage nodig hebben.
Door het kleinere formaat zal denk ik de weerstand van 1 transistor in weerstand toenemen: R=ρ*(l/A) waarbij R de weerstand is, ρ een constante die per materiaal verschilt, l de lengte van de "draad" en A het oppervlak van de dwarsdoorsnede van de "draad". Omdat bij verkleining van een "draad", de lengte lineair daaraan zou verkleinen, maar de oppervlakte kwadratisch, zal de weerstand toe nemen per transistor. Daarom zetten ze op de huidige processors veel minder spanning, zodat het verbruik niet te hoog word. Mist de verhoudingen tussen de lengtes en diktes niet veranderen bij het verkleinen van een transistor en of deze natuurkunde regel opgaat voor een transistor.

[Reactie gewijzigd door kwinvdv op 9 juli 2009 18:30]

Goed, ik heb toch maar even wat research gedaan om mijn claims te onderbouwen.
Ik denk dat toch het aantal transistors hier een rol speelt, want het aantal GHz staat volgens mij voor de snelheid waarmee de gehele CPU of GPU doorlopen van een signaal (ik weet niet of ik het zo goed uitleg), maar dit komt er op neer dat als het meer transistors zijn, er meer in een clock kan worden berekend.
Het aantal GHz is gewoon de snelheid van de clock generator vermenigvuldigd met de clock multiplier van je CPU. De CPU heeft dus "tijd" tot de volgende clockpulse om alle vereiste operaties uit te voeren om problemen te voorkomen. Als een deel van de chip nog bezig is werk van de vorige pulse uit te voeren en een ander deel is al bezig met de nieuwe pulse krijg je hele grote problemen. Dit bepaalt mede de maximumsnelheid waarop een chip kan werken. Alle transistoren van de chip moeten alle nodige werk doen voor de volgende pulse komt. Als daarna tijd over is kan de chip sneller geclockt worden. Dit is een van de redenen dat complexe chips moeilijker hoge snelheden halen dan simpele chips.
Dit is ook de reden dat het ene procedee sneller kan zijn dan het andere. Als signalen sneller verspreid kunnen worden kun je de clocksnelheid omhoog gooien. Dat kan (en hier wordt het voor mij gokwerk) volgens mij door gebruik van andere materialen en lagere voltages. Als je procedee dan ook kleiner wordt worden afstanden tussen delen van chips ook kleiner dus kun je hogere snelheden halen.
Ik weet niet hoe het zit met die 60% snelheidswinst van de 40nm ten opzichte van de 65nm, want deze performance ligt denk ik aan nog veel meer eigenschappen, zoals als cache en hoe de northbridge en southbridge van het moederbord en alles in elkaar zit.
Absoluut. Performance van een specifiek ontwerp is dan ook afhankelijk van heel wat meer factoren dan alleen het procedee, maar juist voornamelijk van het ontwerp. Het is niet voor niets dat moderne GPU's bijvoorbeeld lang niet zo hoog geclockt zijn als CPUs, en het is ook niet voor niets dat Intel's droom van 10GHz Pentiums niet bleek te werken.

[Reactie gewijzigd door Snoitkever op 9 juli 2009 23:38]

Snoitkever
"Ik heb het niet over meer performance vanwege de hoeveelheid transistoren"

Je hebt het niet over de hoeveelheid transistoren maar over de puure snelheid?
Waar denk je dat de snelheid vandaan komt?


Je maakt een redelijk foute vergelijking.....maar als je toch zo graag techniek van 10 jaar geleden vergelijkt met nu dan vraag ik je om nog 10 jaar extra terug in de tijd te gaan (dus 20 jaar +) waar hele ruimtes van vele tientallen meters zelfde functie hadden vergelijk die met je processor van 10 jaar geleden waar jij het over hebt.


Architectuur van de processor is door de jaren heen zodanig geevolueerd dat je vergingen zo als jij het hierboven vermeent niet 123 kan maken en ook niet gelijkwaardig mag beschouwen en dus direct vergelijken.

"Ik heb het puur over meer performance bij nieuwe procedee's" maar je gebruikt als basis techniek van 10 jaar gelden ??

Semi offtopic:

Vroeger had je auto met 12 v motor met 150 pk en dat kan nu met 3 cilinders (b.v. mazda rotor motor) maar wil je deze echt met elkaar vergelijken om een punt te maken....dat lijkt me al vanzelfsprekend gezien de gebruikte techniek in die tijd en niet relevant is in de vergelijking met motoren van nu...bewijs van spreken

volgensmij bedoel je wat...kwinvdv zegt

of zie ik het verkeerd
Je hebt het niet over de hoeveelheid transistoren maar over de puure snelheid?
Waar denk je dat de snelheid vandaan komt?
Jij hebt het over performance, niet over snelheid. De "Snelheid" waar ik het over heb is de hoeveelheid MHz/GHz waarop een CPU draait, en die komt van de clock generator in je PC en de clock multiplyer in je CPU, die samen bepalen hoe snel je CPU draait (hoeveel GHz). Een CPU van nu heeft echter een significant hogere snelheid dan een CPU van 10 jaar geleden, vandaar mijn opmerking dat pure (maximum) snelheid van een chip wel degelijk afhankelijk is van het procedee dat gebruikt wordt
Architectuur van de processor is door de jaren heen zodanig geevolueerd dat je vergingen zo als jij het hierboven vermeent niet 123 kan maken en ook niet gelijkwaardig mag beschouwen en dus direct vergelijken.
Natuurlijk is architectuur veranderd, maar zelfs als je kijkt naar een ontwerp als de P4, die lange tijd redelijk hetzelfde is gebleven, zie je dat er bij elk nieuw procedee hoger geclockte chips uit waren te krijgen. Intel wou het P4 ontwerp zelfs helemaal tot 10GHz schalen, en pas later bleek dat hitte daarvoor een te groot obstakel zou worden. Snelheid verschilt dus per procedee.
Waar het dus om gaat is de prestatie / prijs / warmte ontwikkeling van de kaart.

Als er een andere kaart is die net zo snel is, net zo groot is, net zo warm wordt, maar gemaakt is op een 120nm procede, maar wel 20% goedkoper, waar zou de consument dan voor kiezen?

Het gaat om het resultaat.
....en wat bepaald mede de warmteproductie, het energieverbruik, en ook de productiekosten (en dus de winkelprijs) van een kaart, het productieproces (hoe kleiner hoe gunstiger) .

Indirect is het productieproces dus wel degelijk iets waarop mensen wel of niet kiezen voor een bepaalde kaart...er vanuit gaande dat ze een kaart willen die snel is, stil is (buitensporige warmteproductie maakt vaak ook luidruchtigere koeloplossingen noodzakelijk) weinig prik verstookt, en dat alles voor zo weinig mogelijk centen.
De consument in het algemeen koopt geen videokaarten. Weet niet wat een procede is, en denkt niet aan energieverbruik. De consument koopt een kant en klare PC.
Waar over het algemeen een iets mindere VGA kaart in zit. Want de "tweaker" heeft er wel redelijk verstand van de consument weet waarschijnlijk niet eens dat je zelf een PC in mekaar kunt zetten.
Het is meer een test van het 40nm procedé. Anders had ATI ook wel een 4890 op 40nm gemaakt. Op deze manier gaan er minder snel dingen mis maar kunnen ze wel dingen testen om later een top kaart te maken op dezelfde manier.
De yields zullen nog laag zijn, aangezien ATI en Nvidia niet zelf hun chips bakken kan je niet spreken van een test.
Het is gewoon zo dat als er kleinere chips in de wafer zitten er minder verloren gaan omdat de kans kleiner is dat er in de oppervlakte van een chip een productiefout zit. Bvb 1 chip van 4 cm², 1 slecht stukje rechtsboven = ganse chip defect, 4 chips van elk 1 cm², slechts 1 chip is defect.
Het resultaat is dat bij de kleine chips veel minder oppervlakte van de wafer verloren gaat, reken daarbij dat er door het kleie procedé al veel in een wafer passen en je maakt toch meer winst dan met een groter procedé, met grote chips zou het net omgekeerd zijn.
Ikzelf denk dat ATI een slimme zet heeft gedaan met de introductie van een razendsnelle 40nm GPU, vergeleken met de langzame(re) 40nm van Nvidia, vooral prijstechnisch
Waar denk je het meeste geld te vangen? Antwoord: low end OEM markt.
Waarmee kun je de meeste kosten drukken? Antwoord: zoveel mogelijk chips uit 1 wafer, hier bijv. 40 nm.
Conclusie: dit is financieel een veel slimmere zet dan die van ATi.

ATi heeft de 40 nm gelijk op een snelle kaart gezet vooral uit oogpunt van vermindering van warmteontwikkeling die ontstaat bij hoge prestaties, natuurlijk gekoppeld aan lagere kosten. Echter, die kaarten waren nog steeds niet bepaald goedkoop (bedoeld voor vanaf mid-end). Daarbij kon ATi toen nog wel wat PR gebruiken tegenover nVidia.
de low end OEm markt is al bijna geheel overgenomen door goed presterend IGP's.

en door meer te pushen heeft ATI waarschijnlijk al meer geleerd over 40nm (waar deze kaarten eigenlijk vooral voor bedoeld zijn) waardoor ze straks opnieuw een streepje voor hebben op nvidia op het nieuwe productie proces.
Vergeleken met een paar jaar eerder zijn zelfs de top-end kaarten van nu spot goedkoop!

Toen telde je gewoon doodleuk zonder blikken of blozen even 600 euro neer voor een crap kaart. (vergeleken met nu)

ff een lijstje van een aantal van mijn aankopen:
09-11-04 Sapphire X800XT Platinum Edition 256MB GDDR3 € 514.00
08-08-05 XFX Videokaart PCI-e GeForce 7800GTX Extr. 256MB € 513.00
29-08-06 Sapphire X1900XTX 512MB DDR3 € 367.00
26-03-09 Sapphire Videokaart PCI-e Radeon HD4870 1GB DDR5 € 197.00

Nou dan vind ik de prijs van de laatsten toch iets beter ;(

[Reactie gewijzigd door Bulls op 9 juli 2009 14:00]

Deze kaarten zijn ook bedoeld voor de low end markt en niet voor de mainstream zoals de ATI HD4770
interessante ontwikkeling! na de performance-monsters die enorm veel energie verbruiken heeft men deze ontwikkeld voor de energiezuinige vraag op de markt, mooi gedaan NVIDIA!

overigens wel jammer dat er nog een fan op te zien is, hopelijk komen deze passief op de markt!

[Reactie gewijzigd door flamingworm op 9 juli 2009 12:26]

Waarschijnlijk waren de passieve koelers te groot voor een low profile kaartje.

Ik ga er vanuit dat wel een eigen ontwerp komt van o.a. asus met passieve koeler.
7200GS, ref design. Hebben dus zeker wel blokjes liggen.
Waar Giem waarschijnlijk op doelt is dat de koelkwaliteiten niet goed genoeg zijn met zo'n dergelijke heatsink, en je dus een grotere nodig hebt.

Dat valt dan dus op deze manier op te lossen, een actieve koeler plaatsen...
overigens wel jammer dat er nog een fan op te zien is, hopelijk komen deze passief op de markt!
Dit zijn OEM producten, dus ze komen sowieso niet op de markt. Dat is waarschijnlijk ook de reden voor een fan ipv een koelblok, volgens mij is een fan een goedkopere oplossing
Waarschijnlijk dat de high-end varianten weer zover gepushed worden dat ze uiteindelijk ook weer een flink wattage onttrekken aan de machine.
Ik heb het idee dat NVIDIA op dit moment achterloopt met ontwikkeling t.o.v. ATI. Zie maar naar de uitmuntende 4770 geen NVIDIA kaart kan dit in prijs/prestatie nog aan.
Het probleem is dat beide fabrikanten op dit moment vast zitten. TSMC heeft problemen met hun 40nm procedee waardoor nieuwe kaarten niet geintroduceerd kunnen worden (AMD heeft wel RV740 ontwikkeld, maar deze is niet meer in productie tot TSMC de problemen heeft opgelost). Dus ja, AMD had een voordeel deze ronde (55nm), maar NVIDIA kan gewoon niet terugvechten door de 40nm problemen. Wie weet wat voor ontwerpen beide fabrikanten al klaar hebben liggen...

[Reactie gewijzigd door Snoitkever op 9 juli 2009 13:30]

Dat 'probleem' van het 40nm procede van TSMC is al opgelost. De wafers met nieuwe chips (inclusief de DX11 chips van AMD) draaien alweer als je de nieuwtjes in het ATI-topic mag geloven.
Het echte probleem schijnt vooral te zijn dat het ontwerp-team zichzelf erg goed moet inlezen in de problemen die je tegen zou kunnen komen bij de 40nm chips.

Wat verder spijtig is, is dat nVidia pas nu met DX10.1 budget chips komt, nu DX11 al zo dicht bij is.
Dit zijn juist goede ontwikkelingen en niet te vergelijken met ATI die eigenlijk gedwongen is om snel naar 40nm te gaan vanwege unique selling point.

Zij testen, zoals meerdere hier roepen het 40nm procede, kunnen hierna een snelheids monster maken die zowel op energie verbruik en performance weer een poos mee kan.

Iemand die voorop loopt hoeft niet om de 2 maanden een nieuw product uit te brengen, dat is bedrijfsvoering, waarom zou je als marathonloper die een voorsprong heeft waar je U tegen zegt opeens beginnen te sprinten, helemaal niet nodig ;).
Dat is waarom nVidia met de GTX260 met 216 shader-units kwam, omdat de HD4870 sneller was dan verwacht? Dat is waarom nVidia met de GTX295 was, omdat ze anders niet langer de snelste single-card oplossing meer hadden? Dat is waarom nVidia met de GTX275 kwam, om tegengewicht te bieden op de HD4890? Dat is waarom ze deze nieuw kaartjes opeens DX10.1 compliant maken, terwijl het in het verleden als totale onzin bestempelden, omdat DX10.1 niets extra's bracht? En dat terwijl DX11 al zo goed als beschikbaar is.

AMD had het 40nm procede niet nodig voor een unique sellingpoint. Ze hadden de HD4770 nodig om de broodnodige ervaring op 40nm op te doen om zo later met een echt snelle kaart te kunnen komen. De ervaringen die ze met de 4770 hebben opgedaan, zal ze heel veel opgeleverd hebben met de 5k serie die later dit jaar zal komen. Dat ze op de box en elders er mooi bij kunnen vermelden dat het de eerste 40nm kaart is, is slechts een pre.

NVidia had een gigantische voorsprong, ten tijde van de 8k-series. Dit met name omdat de 2k series van ATI maar op zich lieten wachten en uiteindelijk niet de prestaties met zich mee brachten die verwacht werden. De 3k series bracht al significante verbeteringen die duidelijk maakten dat ATI weer op de juiste weg was. Sinds de 4k serie, is nVidia's voorsprong zijn competatieve kaarten compleet weggesmolten en lopen ze feitenlijk achter de feiten aan wanneer het komt op prijs/prestatie vlak (zeker wanneer je kijkt naar productiekosten).
Leuke kleine kaart. Zal deze snel genoeg zijn om als physics kaart te functioneren? Uiterst laag verbruik aan de hand van het stukje. Sneller dan een GT9500 (volgens mede tweakers).

Mede tweakers meningen hierover??
Eindelijk displayport op een nvidia kaart, spijtig dat het low-end / business kaartje is
De videokaarten zullen eerst in oem-systemen opduiken. De losse verkoop van de G210 en de GT220 zou pas in het vierde kwartaal van start gaan. Eerder werd al gemeld dat de G210 en de GT220 respectievelijk 30 en 60 dollar moeten gaan kosten.
Beetje raar dat HP deze 2 kaarten nu al aanbied in de nieuwe lijn desktop systemen welke deze week van start zijn gegaan..
Waar moet ik die GT220 mee vergelijken? In perfomance?
Ik denk dat je deze kaart zou kunnen vergelijken met de 9500GT. Waarschijnlijk komt deze er dicht tegen aan te liggen. Misschien door optimalisaties zelfs ietsje sneller. Ideaal dus voor laag resolutie gamen of een stille fanless oplossing.
Nee zeker niet, ware het alleen al omdat de GT220 48 SP's heeft en de GT9500 maar 32 SP's. Nu zegt dit alleen nog niet zoveel, maar de snelheden van de GT9500 zijn GPU 550, SP 1400 en RAM 1600 Mhz. tegenover GT220 GPU 615, SP 1335 en RAM 1580 Mhz. Hij zal eerder ergens tussen de 9500 en 9600 liggen, dus zoals CJ al zei 30% sneller dan de GT9500 zal ie zeker zijn.
(bron:http://en.wikipedia.org/wiki/GeForce_9_Series#Technical_summary)
Dus dit kaartje is perfect voor mijn Acer X3200 kast? Ik game op een resolutie van 1440*900 dus dit is een perfect kaartje voor mij?
hij is zo'n 30% sneller dan z'n voorganger, de GeForce 9500GT. Dus hij is nog iets langzamer dan een 9600GT.
Een belegde boterham.
Hmm, eind dit jaar een passieve GT220 als upgrade voor mijn onboard GF8300... :)
de performace zo' n beetje te vergelijken met een HD45- 30/50/70

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True