Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Bron: Xbit Labs

X-bit Labs heeft zichzelf de taak gesteld om uit te vinden wat de invloed van de processor op de prestaties van spellen is. Gewapend met maar liefst 28 processors en 5 van de zwaarste spellen van dit moment (Battlefield 2, Call of Duty 2, F.E.A.R., Quake 4 en Serious Sam 2) is men het testlab ingedoken. Als videokaart koos men voor een GeForce 7800 GT; niet de snelst beschikbare, maar toch bovengemiddeld en ruim voldoende om de genoemde spellen mee te kunnen spelen. Naast het effect van de processors wordt ook de stap van 1GB naar 2GB geheugen geëvalueerd. In het eerste deel van de beschouwing richt men zich vooral op situaties waarin het verschil tussen de processors goed te merken is. Het tweede deel test wat minder verschillende processors, maar gebruikt instellingen die wat realistischer zijn voor normaal gebruik. In dit artikel worden beide delen samengevat.

* Battlefield 2

Battefield 2 wordt in een resolutie van 1024x768 met Medium-instellingen gedomineerd door AMD. Intels duurste gameprocessor, de 3,73GHz Extreme Edition, kan net een goedkope 2GHz Athlon 64 3200+ bijhouden. Het topmodel van AMD, de 2,8GHz FX-57, is echter nog eens 70% sneller dan dat en laat de concurrentie dus ver achter zich. Omdat dit spel geen tweede core kan gebruiken hoeft daar niet naar gekeken te worden. Opvallend is wel dat de Athlon in deze test meer heeft aan een groter L2-cache dan de Pentium 4. Wanneer de instellingen worden verhoogd naar 1280x1024 met 4x AA en de instellingen op High Quality verandert het beeld drastisch: in de top blijft alles steken rond dezelfde score, waaruit heel duidelijk blijkt dat de videokaart de beperkende factor wordt. Hoewel AMD nog wel aan kop staat maakt het eigenlijk nauwelijks uit welke processor er gebruikt wordt, zolang het maar geen Celeron of oude Sempron is.

Battlefield 2

* F.E.A.R.

Deze 3d-shooter laat minder extreme verschillen zien dan Battlefield in de test met mindere instellingen. Op Medium (zonder anti-aliasing en trilinear filtering) is het verschil in prestaties tussen de traagste en snelste processor slechts 30%, en geen enkele chip scoort onder de 100 frames per seconde. Een tweede core wordt ook hier niet gebruikt. Wanneer de kwaliteit naar Maximum wordt gezet zakken de framerates natuurlijk in, maar dit maakt het verschil tussen de processors alleen maar kleiner. Een Celeron D 326 (2,53GHz) haalt 43 fps en de 2,8GHz Athlon 64 FX doet er 44 per seconde. Al met al geldt ook voor dit spel dat geen zin heeft om er een snelle processor voor te kopen.

* Serious Sam 2

Voor serieuze Sam liggen de verwachtingen hoog; het spel gebruikt erg veel natuurkundige berekeningen en zou daardoor zelfs op hoge instellingen nog steeds deels CPU-afhankelijk zijn. Met 'Medium' instellingen komt in ieder geval het beeld van Battlefield 2 terug: de AMD-chips veroveren de hele top tien en aan de onderkant van de grafiek komen we alleen nog maar Pentiums tegen. Opvallend is hier echter hoe goed de dual-core Athlon 64 X2 het doet. Het spel weet goed gebruik te maken van de tweede AMD-core en de 2,8GHz FX wordt er dus uitgetrokken door een 2,4GHz X2. Intels dual-core Pentium D daarentegen lijkt op geen enkele manier van dezelfde optimalisaties te profiteren. Ondanks de tweede core presteert de Pentium D hetzelfde als een gelijk geklokte single-core Pentium 4, en dat is natuurlijk een grote teleurstelling.

Serious Sam 2 benchmarks

In een hogere resolutie (1280x1024) met vier keer AA ingeschakeld en de instellingen op 'Maximum' verdwijnen ook in Serious Sam de grootste verschillen. De vele malen duurdere en veertig procent hoger geklokte Athlon 64 FX-57 doet het bijvoorbeeld maar krap 7% beter dan de 3200+.

* Quake 4, Call of Duty 2

Ook Quake 4 is een spel dat gebruik weet te maken van de tweede core in dual-corechips. In tegenstelling tot Serious Sam weet Quake echter zowel de Athlon 64 X2 als de Pentium D te benutten. Toch geeft AMD in dit geval meer waar voor zijn geld: de Pentium EE 840 (dual-core 3,2GHz) presteert namelijk ongeveer hetzelfde als single-core Pentium 4 3,6GHz of een 2,0GHz Athlon 64 X2 3800+. De verschillen tussen de processors in Quake zijn overigens sowieso kleiner dan die in Serious Sam 2. De shooter Call of Duty 2 weet net als Quake 4 de tweede core van beide merken te benutten, maar ook dit spel is weer duidelijk door de videokaart beperkt, waardoor het eigenlijk niet zo interessant is om te bespreken.

* Conclusies

De conclusie is duidelijk: gamers met een beperkt budget kunnen hun geld beter investeren in een goede videokaart dan in een snelle processor. Een spotgoedkope Celeron of Sempron zal natuurlijk nog wel een beperkende factor vormen, maar in principe is iedere mainstream desktopchip al genoeg voor zelfs de zwaarste games. Een high-end Athlon FX of Pentium Extreme Edition kan nog altijd wel iets toevoegen aan prestaties, maar wie het geld daar niet voor over heeft zal er ook weinig aan missen.

Intel dual-core Presler aankondiging Opvallend is dat spellen nu al van dual-core beginnen te profiteren. In eerste instantie was het voor gamers eigenlijk alleen maar interessant om hier naar te kijken als ze klaar wilden zijn voor de toekomst of ook andere dingen met hun systeem wilden doen. Nu is dual-core in sommige gevallen echter al de beste manier geworden om hoge framerates neer te zetten. In hoeverre dat nou komt door optimalisaties in de spellen zelf of door nieuwe multithreaded drivers is nog niet helemaal duidelijk, maar het effect is in ieder geval wel zichtbaar.

Een deur die wagenwijd open staat is dat AMD voor gamers nog steeds interessanter is dan Intel. De Pentiums moeten het maar al te vaak afleggen tegen hun concurrenten, en hoewel de eerste conclusie is dat de snelheid van de processor eigenlijk niet zo heel veel uitmaakt, geeft de prijs/prestatieverhouding van de Athlons vaak toch de doorslag.

Naast de processors heeft X-bit ook bij ieder spel gekeken wat het effect is van de stap van 1GB naar 2GB geheugen. In geen enkel spel was er een heel overtuigend resultaat te zien van deze investering: de toename in framerate bleef beperkt tot enkele procenten. Toch zegt de reviewer in sommige gevallen - met name Battlefield 2 - wel dat het gevoelsmatig sneller gaat, omdat er minder naar de harde schijf geswapt hoeft te worden. Ook hier geldt voor de gamer met een budget dus dat er beter in de videokaart geïnvesteerd kan worden.

Moderatie-faq Wijzig weergave

Reacties (105)

Ik had het een interessanter artikel gevonden als ze ook wat oudere processoren hadden meegenomen in de test, zoals een AthlonXP en een P4<3GHz, omdat toch nog lang niet iedere gamer over een high-end CPU beschikt. Wel hadden ze dan een andere videokaart moeten kiezen, aangezien er geen 7800GTX beschikbaar is op het AGP platform. Beter zou zijn geweest:

AthlonXP tot Athlon X2 en P4 2,8 GHz tot P4-D serie
1024 MB DDR(2) met dual channel
Zelfde schijf voor alle opstellingen (SATA)
Een 6800 Ultra of X850XT (deze zijn er in PCI-e en AGP)
Daar ben ik het niet mee eens, want die benchmarks zijn namelijk al in overvloed aanwezig. Wellicht is leuk om te weten wat je systeem kan doen, maar het is veel interessanter om te weten wat een toekomstige (aan te schaffen) systeem kan doen.

Verder kan je alleen een goede CPU test doen als je weet dat de GPU niet de bottleneck is. Dit zal met een 7800GTX minder snel het geval zijn dan met een 6800ULTRA of X850XT.
Wat een zinloze test: Men test allerlei goedkopere tot vreselijk dure processors met een videokaart die weliswaar alles mooi op het scherm tovert, maar nog lang niet alles uit de processor laat halen.

1280*1024 is tegenwoordig een heel normale resolutie, zeker voor diegenen met een 17" of 19" TFT. Dat men nu een videokaart gebruikt die al op die resolutie de bottleneck is, betekent dat deze test niet aangeeft welke processor nu in de praktijk de snelste is.
Makkelijk om te zeggen dat dat waarschijnlijk wel de snelste is die met deze onhandige instellingen getest is, maar als je uitgaat van 'waarschijnlijk' had je de hele test al niet hoeven doen.

Deze test stelt weinig voor zonder dikke SLI-opstelling om de CPU tot op hoge resoluties de bottleneck te laten zijn. Niet dat elke gamer voor ¤1000,- een SLI in zijn bak heeft zitten, maar je wilt toch een processortest maken nietwaar? Test dan ook de processor, en test niet op welke resolutie het op het testsysteem niet meer uitmaakt wat je erin prikt.
Mee eens.. Gooi er 2 7800GTXen in SLI in, en je kan veel beter de CPU testen als met 1 7800GT..

Voor de rest is het natuurlijk allang bekend dat AMD beter is in games, daarvoor hoef ik zo'n test ook niet te lezen..

Ook jammer trouwens dat ze geen Source game getest hebben.. De Source engine (van Half-Life 2 etc) staat er namelijk om bekend nogal CPU afhankelijk te zijn, meer dan de nu gesteste games volgens mij..
Interessant hoe de ratings van de dual-core processors mooi de prestaties volgen, terwijl de klokfrequenties lager liggen.
Let er wel op dat dit vooral bij Serious Sam 2 is. Bij bijvoorbeeld BF2 zie je dat een dual core 3800+ wordt verslagen door een 3200+.

Ik vind deze test vooral zo fijn omdat zoveel mensen denken dat de CPU zo belangrijk is. Een 4000+ kopen ipv een 3000+ is dus eigenlijk zonde van je geld. Zeker als de Amd CPU's ook nog eens heerlijk overklokken (30%~60%).

GPU's worden zeer veel sneller per jaar (dit gaat echt een stuk harder dan de CPU ontwikkeling). Over een jaar een extra kaart voor SLI kopen is dus ook zonde van je geld. Je gaat dan verder met oude technologie.

Mijn advies zou zijn: Om de 1,5~2 jaar een goedkope videokaart kopen. Voor nu een goedkope Amd CPU en die overklokken (AMD Opteron 144/146 (s939) of als die uitverkocht is een AMD Athlon64 3000+/3200+ venice) :).
GPU's worden zeer veel sneller per jaar (dit gaat echt een stuk harder dan de CPU ontwikkeling). Over een jaar een extra kaart voor SLI kopen is dus ook zonde van je geld. Je gaat dan verder met oude technologie.
Die evolutie is nu wel voorbij. Je ziet grafische kaarten met even grote of zelfs grotere problemen kampen qua warmteproductie. Wil je een dubbel aantal pijplijnen dan moet je al naar SLI grijpen want op één chip is dat fysisch onmogelijk.

De enige reden waarom grafische kaarten de laatste jaren zo exponentieel sneller zijn geworden is omdat ze een inhaalbeweging maakten qua procestechnologie. Elke volgende GPU zal op 90 nm gemaakt worden en zelfs 65 nm staat in de roadmaps. Maar dat evolueert nu dus slechts even snel als voor CPUs.

Anderzijds is de revolutie naar meer parallelisme voor de CPU nog maar net gestart. Van zodra spellen en andere software optimaal gebruik gaan maken van dual-core zal die bijna twee maal zo snel draaien, en zal de vraag naar CPUs met vier en meer cores groot zijn.
Mijn advies zou zijn: Om de 1,5~2 jaar een goedkope videokaart kopen.
Dat lijkt mij niet, dan kun je nooit games in hun ware gedaante spelen. Zeker nog nooit een high-end kaart gehad?

Beter is een top of the bill kaart te kopen en deze binnen de tijd dat hij oud is weer te verkopen voor de helft en weer een nieuwe topkaart te kopen.
Dat is een keer een grote uitgave maar kost daarna iedere keer de helft. Zo is het natuurlijk hetzelfde met andere hardware.
Dat lijkt mij niet, dan kun je nooit games in hun ware gedaante spelen. Zeker nog nooit een high-end kaart gehad?
Jawel hoor, nu bijvoorbeeld een geforce 6600GT voor 160 euro (juni aangeschaft). Prima om alle spellen op hoge kwaliteit (zonder AA) mee te spelen. Vroeger een gf4 ti4400 die ik te vroeg heb gekocht (300 euro).
Beter is een top of the bill kaart te kopen en deze binnen de tijd dat hij oud is weer te verkopen voor de helft en weer een nieuwe topkaart te kopen.
Na een jaar is een top-of-the-bill kaart al meer dan gehalveerd. Zo'n kaart kost nieuw 500 euro, dus jij bent 250 euro per jaar kwijt. Een 6600GT die ik over twee jaar verkoop is dan nog zo'n 40 euro waard, waardoor ik twee jaar voor 120 euro of 60 euro per jaar speel. 60 euro of 250 euro, ik heb liever geen ultra-high-end-kaart :).

Maar jij wilt denk ik alles op ultra high + AA spelen. Hoe hoger je eisen zijn, hoe duurder je videokaart :).
Ik snap niet goed waarom CoD2 is meegenomen in deze test. Ik vind dit niet echt een game die zwaar op je systeem drukt. Ik kan het bijvoorbeeld perfect draaien op een XP 2800+ met Radeon 9700 Pro (alles op high detail). FEAR daarentegen draait voor geen meter. Dat CoD2 door de grafische kaart beperkt wordt kan ik dus niet helemaal rijmen.
Zet DX9 rendering maar is aan, dan zul je zien dat het een zwaar spel is
Hij draait goed op een P4 2.66(no HT) GeForce 4200 :Y)
FEAR draait hier (P4 2.4c HT, 1GB, ATi 9700) best goed. Welliswaar niet op high instellingen, maar zeker goed te spelen!
Zet alles eens op hoog in de directx9 modus met AA op 4x en Aniso op max?

Als je 20-30 frames dan nog lekker draaien noemt :P
Nou met mijn 3200+ draait hij niet écht soepel als ik in een 'veldslag' zit, waarbij er 100 soldaatjes vrolijk rondhuppelen.

Tis een en al schok dan, heb 9800Pro en 3200+ @ 2.2GHz.

Ik heb het hier over 1024x786 4xAA, met 800x600 heeft ie het ook (zonder AA btw).

Bovendien als die poppetjes dood zijn loopt het ineens wel allemaal weer soepel, dus zeker weten dat het mijn CPU is ;)
als jij in die rook met je killersysteem met alle opties open meer dan 50 fps haalt vind ik dat knap
Vreemd dat AMD hier niet meer op insteekt, ik kan me niet herinneren dat de marketingprogramma's van AMD zo op gamegebied gericht zijn, maar ik kan me vergissen..
it just happens to be, ik ben BF2 fan en ik heb een FX 57 :7
Wat ik mezelf al jaren afvraag;

Nog altijd worden de benchmarks berekend op een gemiddeld aantal fps over een bepaalde demo. Hierbij worden (ook in deze betreffende test) de fps caps weg gehaald. Nu is het dus zo dat de (nutteloze) hoge fps rates in delen van zo`n demo het gemiddelde geweldig omhoog kunnen halen. Dit geef toch een vertekend beeld van wat belangrijk is voor je investering?

Aan framerates over de 100 heb je weinig tot niets, dit kun je niet zien. Steeds meer games hebben ook een cap op de fps wanneer je online speelt, zoals Quake4 op max 60fps en UT2004 op 85fps (afhankelijk van de netspeed).

Het enigste wat belangrijk is, is dat je geen framedrops krijgt. Zo kun je binnen een game in de ene situatie op 120 fps zitten, terwijl in een andere ineens je beeld haperd met 30 fps. In die tellende, zware situatie is de CPU of RAM misschien een veel groter bepalende factor? Bovendien kunnen de verhoudingen tussen videokaarten heel anders komen te liggen?
Goede vraag. Want ik zit eigenlijk met de zelfde vraag.

Ik heb twee schermen en die zijn 75Hz refresh rate (Wat oudere TFT). Dus meer dan 75 beeldopbouwen per seconden is niet nodig. Waarom zou een game dan meer dan 75fps moeten hebben? Het beeldscherm bouwd toch maar 75 schermen per seconde op.

Daarnaast vraag ik mij af waarom er meer dan 25 fps moeten zijn, het menselijk oog kan toch niet meer dan 20 tot 25 fps per seconde verwerken. Het enige wat een dubbele fps zou inhouden is dat het beeld rustiger worden. Maar dan zouden er per 2 of 4 beeldopbouwen de zelfde frames moeten zijn of 2xhalf/half en 2xheel. Het enige is dat dan het beeld rustiger wordt.

Dus om een lang verhaal kort te maken? Waarom hoge framerates? Afgezien van het feit is dat ik bij een hogere framerate (boven de 110 ontzettende hoofdpijn krijg).
Daarnaast vraag ik mij af waarom er meer dan 25 fps moeten zijn, het menselijk oog kan toch niet meer dan 20 tot 25 fps per seconde verwerken. Het enige wat een dubbele fps zou inhouden is dat het beeld rustiger worden. Maar dan zouden er per 2 of 4 beeldopbouwen de zelfde frames moeten zijn of 2xhalf/half en 2xheel. Het enige is dat dan het beeld rustiger wordt.
Dat is een discussie die al heel lang loopt. De meningen lopen nog altijd uiteen, maar 20 tot 25 fps is toch echt niet de max voor het oog hoor. Inderdaad draaid je (PAL) TV op 25 fps, maar daar zit een techniekje achter om het vloeiender te laten lijken (50Hz interlaced en een soort blur).

Je hebt verder helemaal gelijk over dat je monitor toch die beelden niet kan tonen. Het kan zelfs het negatieve grafische effect "tearing" veroorzaken, waarvoor o.a. de V-sync techniek bestaat (capt je fps op je monitor refreshrate).
Klein rekensommetje:

Je speelt in Quake3 een spelletje deathmatch en je draait je snel (in 0.5 seconden) om (180 graden draai).

Bij 25 fps is elke frame een draaiing van 180/25=7.2 graden. Omdat je je in 0.5 seconden omdraait moet dit nog *2 en zit je op 14.2 graden.

Met 60 fps is dat 180/60=3 graden, *2 = 6 graden per frame.

Bewegingen gaan dus vloeiender, en het heeft wel degelijk nut.
Het gaat mij ook om het gevoel, niet of ik het zie.. Alles boven de 25fps zal er wel vloeiend uitzien, voor het juiste (muis)gevoel zijn echter meer fps nodig..
Maar dan blijft de vraag waarom worden de frames berekend welke niet getoont worden.

Set je draait jezelf 180 graden. Jij zegt 2 frames per graad. Dat is dus 90 frames in een halve seconde. 180 frames per seconde. Dat is best veel.

Nu gaan we uit dat we frames weglaten dan hoeven we voor een vloeiend beeld, zeggen we 50 frames per seconde, maar 25 frames te tonen per seconde.
Als we uitgaan van 180 graden dan is dat 7,2 graden per frame. dat scheelt dus 50% rekencappaciteit. Maar de software moet dan wel de inteligentie beschikken.
Het oog kan tot maximaal iets van 70-100 verschillende beelden per seconde onderscheiden (is iets persoonsafhankelijk). 75 Fps op een scherm van 75 Hz is dus ideaal. Nog sneller is overkill. 24/25 fps is voor film een standaard omdat op die snelheid je beelden als vloeiend gaat ervaren, wat voldoende is voor films.

Wat bij filmbeelden daarnaast óók meetelt is dat deze natuurlijke motionblur bevatten om het "vloeiende" gevoel te benadrukken. Beelden in spellen worden doorgaans heel scherp (zonder natuurlijke motionblur) weergegeven waardoor je meer frames per seconde nodig hebt om de bewegingsinformatie over te laten komen.
je wilt hogere frames om er in de toemkomst ook veel te halen.
De framerate is niet constant maar variabel aan de hand wat er op het scherm gebeurt. Zo kan je het ene moment ver boven je refreshrate zitten en een ander moment ver eronder. Dus een hoger refreshrate garandeert dat je niet te laag komt....

Om terug te komen op de test, ik heb onlangs mijn PC ververst naar een P4-1.6GHz met mijn vertrouwde ATI8500DV-AIW (ik weet het, ik loop niet mee met de tijd). 3Dmark2000 stond ergens op 5500 maar na het krijgen van een Celly 2400 stond 3Dmark2000 nog maar op 3600 terwijl mijn gewone normale dingen wel sneller gingen.
Ik vindt het erg jammer hoe dit soort sites blijven testen met synthetiche benchmarks. Die van FEAR bijvoorbeeld, nogal logisch dat hier niet zo'n groot verschil te zien is. De test die zij draaien is ook echt alleen maar een gpu test, het gaat daar alleen om het beeld. En dat is helemaal geen goede basis om cpu's mee te vergelijken. Tijdens echte gameplay moet de cpu vaak een hele grote hoeveelheid AI berekenen en dan komen er bij de modernere games ook nog een hoop Physics bij kijken. Dit komt allemaal nauwelijks tot niet naar voren in die benchmarks, enige manier om echt goed te testen zou daadwerkelijke gamplay zijn. Echter dan zou het niet meer vergelijkbaar zijn aangezien er tijdens echte gameplay iedere keer wel weer dingen net anders gaan dan de vorige keer. Conclusie: Cpu prestaties onder games zijn moeilijk tot bijna niet goed te testen. Ik weet ook wel zeker dat AMD in veel benchmarks anders een veel grotere voorsprong had gepakt.
in sommige games kan je een stuk "opnemen", zodat hij dit in demomode kan afspelen, waarbij alles opnieuw berekent moet worden, de vraag is alleen of de AI dan ook meegenomen wordt
Men vergeet hier even voor het gemak te vermelden dat RTS spellen en sommige simulatie games wel degelijk baat hebben bij een zo snel mogelijke processor. Denk bijvoorbeeld aan de laatste Sim City. Sure, als je stadje klein is gaat alles goed, maar ben je echt met een metropool bezig en je hebt alles op high staan dan kan je de beste videokaart hebben maar dan schokt het nog like hell. Zelfs op mijn systeem ervaar ik het als onspeelbaar op dat moment. (3500+ icm 7800gtx). Bij RTS games zoals Perimeter kom je ook niet erg ver met een mindere CPU maar wel top notch videokaart. Je kan dan mischien nog op easy spelen maar een moeilijke instelling trekt je cpu dan gewoon niet.

in short: er zijn genoeg games waarin je beter wel een snelle cpu kunt hebben ipv supersnelle gpu. Het hangt er gewoon van af wat voor games je speelt.
Ik wil het volgende meegeven aan kopers; je kunt later veel gemakkelijker je videokaarten upgraden dan een CPU of RAM. Dus koop je CPU op de toekomst (investeer).

Dit komt door de verschillende sloten die continu ontwikkeld worden. De PCI-Express standaard voor videokaarten zal nog een hele tijd blijven, terwijl de sockets voor de CPU`s veel sneller vervangen worden. Het komt er vaak op neer dat je een nieuwe voeding, moederbord, processor en geheugen moet kopen, of zoiezo het moederbord. Verder is het natuurlijk veel meer gedoe om je moederbord te vervangen dan een PCI kaartje.
Vindt het jammer dat je bij veel huidige test nog steeds alleen maar gemiddelde framerates ziet. Minimale framerate is toch veel belangrijker? Of nog beter, een lijn grafiek waar je de framerate door de gehele duur van de test goed kunt bekijken. Dan zie je zo of er stukken zijn waar het verschil misschien wat groter is. (dat een cpu gemiddeld 4fps sneller is dan de ander lijkt misschien niet zo veel, maar als dit betekent dat deze op sommige stukken 20 fps slomer was dan is dat echt heel merkbaar).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True