Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Real World Tech

Paul DeMone van Real World Technologie heeft een uitgebreid artikel geschreven over 64 bit processors. Op dit moment strijden AMD en Intel tegen elkaar met Athlon XP en Pentium 4 als belangrijkste wapens. De toekomst ligt echter niet bij de gewone x86 processors die de bedrijven op dit moment maken. In de - niet eens zo veel mistige - toekomst zullen de twee bedrijven elkaar te lijf gaan met 64 bit processors. Niet omdat ze op dezelfde markt gericht worden, maar omdat Hammer en McKinley beide een soort boegbeeld-rol gegeven wordt. Hoewel dat spannend klinkt zijn Intel en AMD ontzettende newbies in de 64 bit markt. De recent onthulde IBM Power4 brak alle records, maar de Compaq EV7 zou Power4 weer verpletteren. Ondertussen werkt Sun nog steeds aan snellere compilers voor de UltraSparc III, iets wat ze laatst nog 20% hogere SPEC scores opleverde.

* McKinley

De core van de McKinley is enorm, hij heeft meer dan vijf keer zo veel transistors aan boord als de Pentium 4. Dit komt voornamelijk omdat L1, L2 en L3 cache on-die zijn geplaatst. Aan deze cache-structuur is flink gesleuteld sinds Itanium werd bedacht, met als gevolg dat de latency naar alle drie de niveaus grofweg gehalveerd is. Verder is de pipeline van de chip korter gemaakt en is de kloksnelheid opgevoerd naar ongeveer 1GHz. Een hele prestatie gezien de afmetingen van het ding en het feit dat hij op 0,18 micron wordt gemaakt. Verder heeft McKinley twee extra M-Units, die geheugenoperaties kunnen uitvoeren zonder resources van de processor zelf weg te snoepen, maar ook ingezet kunnen worden om een groot aantal integer-bewerkingen te doen. Hoewel de M-Units niet alle mogelijke instructies uit kunnen voeren zal de processor in 98% van de gevallen zes integer berekingen tegelijk kwijt kunnen, twee meer dan de Itanium.

Intel IA-64 McKinley

*Hammer

De K8 architectuur van AMD bouwt verder op het succes van de K7 Athlon. Hoewel er een aantal 64 bit uitbreidingen gedaan zijn valt het onmiddelijk op dat het diagram waarmee de processor beschreven wordt er uit ziet als een vereenvoudigde versie van het K7 ontwerp. De execution engine is bijna exact hetzelfde gebleven, maar kan meer instructies tegelijk bekijken en inroosteren (acht in plaats van vijf). De pipeline is twee stappen langer geworden dan die van Athlon en bevat nu twaalf stadia, waarvan een groot deel overeenkomt met die van K7. Het lijkt er sterk op dat AMD al haar krachten heeft gebruikt om frontend van de core te verbeteren waardoor hij, in extreme tegenstelling tot McKinley, nauwelijks complexer is dan een out-of-order RISC chip. DeMone verwacht dat de Hammer beter zal presteren dan de IA-64 serverchips en ook een geduchte concurrent voor Pentium 4 zal worden. De Hammer zou 70 Watt gebruiken op 2GHz.

AMD Hammer presentatie - core overview
* Alpha EV7

Compaq EV7 closeup Compaq zou er nog wel eens spijt van kunnen krijgen dat ze Alpha patenten en technici hebben verkocht aan Intel. Volgens het artikel zal de EV7, die over ruim een half jaar wordt uitgebracht, wel eens de snelste 0,18 micron CPU ooit kunnen worden, en daarmee de kroon van IBM Power4 af kunnen nemen. Voor begin 2004 staat officieel nog een 0,13 micron SOI versie van de chip op het schema, maar of deze zogenaamde EV79 daadwerkelijk uitgebracht zal worden is nog maar de vraag. Het zou in ieder geval een passend einde zijn voor de legende die Alpha ooit was.

* Sun UltraSPARC III

Sun UltraSparc III (klein) De nieuwe 900MHz UltraSPARC maakt gebruik van koperen in plaats van aluminium verbindingen. Een bug die gevonden werd in de core van oudere UltraSPARC modellen zorgde ervoor dat een feature uitgeschakeld moest worden, waardoor de performance daalde. Recent stegen de SPEC cijfers echter weer, alleen bleek daar wat meer achter te zitten dan een simpele bugfix. De oorzaak van de hogere score werd herleidt op één enkele test van de 14 die samen SPEC vormen. Blijkbaar was de nieuwste compiler behoorlijk geoptimaliseerd om de resulaten op te schroeven. Toeval? Waarschijnlijk niet. Er wordt gewerkt aan een nieuwe - eerlijkere - versie van de SPEC benchmark, maar secretaris van de groep mensen die dat doet is dezelfde man die de eerder genoemde optimalisaties voor Sun heeft uitgevoerd...

Bedankt voor de tip Cookie!

Lees meer over

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (36)

Twee vragen:
Waarom .18 tech als ze al .13 hebben en .10 eraan te komen zit? Maakt voor zoveel torretjes nogal uit lijkt me. Het zal wel in de planning zijn in de labs lijkt me.

En waarom die lagere klokfrequenties als ze al op 2 a 3 Ghz zitten? Met 64 bits heb je wel veel meer last van 'latency' bij addressering en berekeningen etc. maar zoveel zal dat toch niet uitmaken? Of juist door die kortere pipelines?
(ben maar opgehouden bij de MC680x0 series :) )


En met al hun ingekochte know-how van Compaq en Alpha zijn Intel en AMD volgens mij helemaal niet zo newbie als ze lijken hoor. Want die geintjes zoals M-units is wel slim om te gebruiken.

Maar dat Intel helemaal opnieuw met zo'n ontwerp gaat beginnen lijkt wel tegenstrijdig met hun verleden. Wellicht dat omdat de PIV zo lang mee zou kunnen dat ze voor deze oplossing gekozen hebben. Of ze stiekem toch die twee met elkaar aan't combineren zijn om AMD alsnog een hak te zetten.

Maar t'zal vast nog wel een poosje duren voordat je een AH333M-D mobo kunt kopen. ;)
Waarom .18 tech als ze al .13 hebben en .10 eraan te komen zit? Maakt voor zoveel torretjes nogal uit lijkt me. Het zal wel in de planning zijn in de labs lijkt me.

En waarom die lagere klokfrequenties als ze al op 2 a 3 Ghz zitten? Met 64 bits heb je wel veel meer last van 'latency' bij addressering en berekeningen etc. maar zoveel zal dat toch niet uitmaken? Of juist door die kortere pipelines?
Er zijn een aantal redenen waarom ze niet gelijk een nieuwe architectuur in de nieuwste techniek bakken. Ten eerste willen ze op de labs niet altijd alle nieuwste dingen(.13 tech bijv.) gebruiken omdat deze te duur zijn. Het is ook niet echt nodig omdat ze weten hoe ze dat later kunnen ombouwen en hoeveel snelheid/preformance winst dat globaal kan opleveren. Ten tweede wordt bij het begin van een neiuw ontwerp vaak voor een aantal bepaalde omstandigheden gekozen (toen met de 64 bit archtitectuur werd begonnen was .18 of misschien nog wel groter de standaard). Aangezien je met de ontwikkeling van nieuwe technieken bezig bent, wil je niet iedere keer die ontwerpen die nog niet af zijn, aanpassen aan de nieuwste techniek, dat kan later wel.

Voor het gebruik van lagere kloksnelheden geldt het zelfde, eerst de nieuwe techniek toepassen en kijken of die werkt en dan pas optimaliseren voor hoge snelheden.
Maar dat Intel helemaal opnieuw met zo'n ontwerp gaat beginnen lijkt wel tegenstrijdig met hun verleden. Wellicht dat omdat de PIV zo lang mee zou kunnen dat ze voor deze oplossing gekozen hebben.
Misschien heeft intel wel gewoon geleerd uit hun verleden dat ze niet altijd aan hun oude architectuur moeten blijven vasthouden. Bij Alpha, IBM en SUN hebben ze dat ook niet gedaan, en die zijn immers bepalend geworden in de servermarkt.
Waarschijnlijk is het idd zo dat ze de PIV willen laten lopen tot dat 64 bit "overal" zijn intrede doet. Het is natuurlijk ook zo dat alles wat ze nu voor de 64bit procs ontdekken, ook wel wordt bekeken voor een toepassing in de PIV (en andersom).

[edit typo's]
Oftewel research kosten uitstellen zodat deze beter verspreid kunnen worden over een langere termijn.

Denk als consument dat de concurrentie die hierbij gaat onstaan dan wel welkom is want anders gaan ze op hun dooie gemak de ontwerpen optimaliseren. En het ging al net zo lekker snel. :)
Dat Intel en AMD zich wagen op deze markt kan dan toch alleen maar liggen aan het feit dat er vraag is naar goedkopere configuraties vanuit het server-deel van de computerindustrie. Voor de partikuliere klant valt er nog maar bar weinig te halen met zo'n 64 bits processor omdat er in de eerste plaats nog niet eens software voor gemaakt is. Of wordt het 64-bits verhaal gezien als DE toekomst voor de partikuliere markt en proberen Intel en AMD zo snel mogenlijk ervaring op te doen in deze techniek? Wat dat betreft toch nog best een -mistige- toekomst :)
Eerlijk gezegd zie ik zelf ook niet meteen in waarom een klassieke thuisgebruiker een 64-bit IA echt nodig zou hebben...

Maar langs de andere kant werd hetzelfde gezegd indertijd toen werd overgeschakeld op een 32-bit IA... Tegenwoordig denkt niemand er nog aan om een 16-bit CPU te gebruiken voor alledaagse doeleinden.

De eerste apps die voor een thuisgebruiker echt kunnen profiteren van een 64-bit IA zijn volgens mij zaken als DivX-encoders. Tegenwoordig kan je wel real-time DivX encoderen op de snelste processoren, maar met een 64-bit CPU zou het wellicht mogelijk zijn om die snelheid nog behoorlijk op te voeren.
Als je kijkt naar geheugengebruik van de recentere apps, en dat correleert aan die uit het verleden, dan kun je wel bedenken dat ook thuisgebruikers over niet al te lange tijd met apps werken die meer dan 4GB aan RAM vragen. Dat is het maximum dat een 32-bitter kan aansturen; zonder kunstgrepen.
In het goedkopere deel van de servermarkt zijn ze nu al bijna aan die grens, dus daar zitten ze zeker te wachten op een goedkope 64-bit oplossing.
Dat loopt wel los hoor. Zo rond 1992 was 4MB heel normaal, nu is dat 128MB. Dus een factor 32 in 10 jaar. Uitgaande van eenzelfde geheugengroei voor de komende jaren zou dit betekenen dat je over 10 jaren bij de grens van 4GB komt. Voor de normale huis-tuin-en-keuken machine wel te verstaan.
reactie op plok:

Het verschil is dat er sinds 1992 niet elk jaar 4 MB bij is gekomen. We hebben het hier namelijk niet over een liniaire groei, maar een exponentiele groei. Elke 18 maanden verdubbelt het geheugen.

Het verloop ziet er dan ongeveer als volgt uit:
1992: 4 MB
1993-mid: 8 MB
1995: 16 MB
1996-mid: 32 MB
1998: 64 MB
1999-mid: 128 MB
2001: 256 MB
2002-mid: 512 MB
2004: 1024 MB
2005-mid: 2048 MB
2007: 4096 MB
2008-mid: 8192 MB
2010: 16384 MB
2011-mid: 32768 MB
2013: 65536 MB

dus niet over 10 jaar, maar over 5 jaar heeft de gemiddelde thuisgebruiker 4GB in z'n pc hangen.

Upgraden d.m.v. geheugen-uitbreiding zou dan niet meer kunnen, tenzij je geen 32-bit, maar een 64-bit systeem hebt. (8>
Het feit is dan ook zodra de 64 bit processors uitkomen iedereen weer moet overstappen naar een besturingssysteem die dat ook aan kan.
Tuurlijk is er al software voor gemaakt :Y) :

Linux Kernel
GNU Compiler Package

All you need for TRUE 64 bit software :P

Nu Microsft nog hehehehe :) (Ze zijn nog met beta's bezig geloof ik)
Zover ik weet is er een versie van Windows XP voor 64 bits-systemen... hier wilde ik je even op wijzen.
Windows XP voor IA64 is nog zwaar alpha (en dat is nog complimenteus).
GNU/Linux draait er tenminste al behoorlijk op.
Het zit er natuurlijk dik in dat ooit in iedere PC een 64bit proc. zit, dan moeten intel en AMD natuurlijk deze ook kunnen maken. Daarom is het heel logisch, dat ze vast deze techniek verkennen....
Ik vraag me erg af waarom Intel zo graag "the hard way" kiest. Volgens de tekst hierboven is de oplossing van AMD een simpelere proc (qua design) maar zou toch beter presteren. Waarom zou je zo'n ding dan bijna from scratch opbouwen als je gewoon verder kan bouwen? Of ben ik nu al een beetje :z

[Edit]
Ik moet zeggen dat ik wel altijd :9~ van dit soort artikelen :)

[Edit2]
Die smile is als kwijl ja. En waarom sta ik op score nul? Zo slecht was ie toch niet?
Ik vind het helemaal niet zo onlogisch dat intel "the hard way" kiest. Natuurlijk is het logisch om je huidige ontwerp helemaal te optimaliseren, en uit te buiten. Maar dat kan natuurlijk niet onbeperkt, na een tijdje is de rek er uit, en krijg je te veel beperkingen uit de "oude delen" van je ontwerp. Omdat de 64bit architecture voor een groot deel van je processor totaal anders is, is het niet zo'n heel gek moment om eens over te schakelen naar een totaal nieuw ontwerp.

[edit] [quote]
[Edit]
Ik moet zeggen dat ik wel :9~ altijd van dit soort artikelen
[/quote]
Wat betekent :9~ ?
smul, kwijl, mijn mondhoeken openscheur?
Tja, kweet nog wel dat iedereen altijd: Alpha, Alpha riep. Das nu helemaal niets meer. :'(

Intel & AMD willen dit overigens ook redelijk snel naar de consument sturen! 64-bit heeft de toekomst, al zullen ze eerst de servermarkt in willen stappen. Groot zullen ze daar denk ik niet worden. IBM is veel groter in die markt, en doet veel meer research. Intel zal (hoe groot zij ook is) dat niet bij kunnen benen.
IBM is veel groter in die markt, en doet veel meer research. Intel zal (hoe groot zij ook is) dat niet bij kunnen benen.
Ooit werd dat voor de desktop markt ook voor AMD gezegd....
Wel jammer dat als er straks een paar toffe games worden gereleased, ze misschien als minimale systeem eis hebben een 64 bits CPU, en daar zit je dan met je snelle 32 bits, waar je dat heftige spel niet op kunt spelen, eenvoudig weg niet omdat die 64bits instructies ontbreken :'(
Ik denk, weet eigenlijk wel zeker, dat game producers daar echt wel rekening mee houden, pas als 64bits veel in de thuis pc word gebruikt, gaan echt veel games daarvoor komen.
Zolang iedereen nog 32 bits heeft, worden er ook bijna geen 64bits gemaakt, om 1 simpele reden: niemand koopt het, omdat niemand et kan draaien..
Wel jammer dat als er straks een paar toffe games worden gereleased, ze misschien als minimale systeem eis hebben een 64 bits CPU, en daar zit je dan met je snelle 32 bits, waar je dat heftige spel niet op kunt spelen, eenvoudig weg niet omdat die 64bits instructies ontbreken
Dat is eigenlijk natuurlijk een beetje onzin! Alle games hebben dat namelijk, net als alle andere software die verschijnt. Alle nieuwe games vereisen weer iets meer.
Ik geef je gelijk als je zegt dat ze wel werken, dat ze niet iets speciaals vereisen. Maar geef toe: Quake 3 op een 386? Neuh, draait gewoon niet.

Maar goed, daar gaat het verder niet echt om. Eerder het artikel, dat lijkt me een stuk interresanter. Het is een aardige lap tekst.
De 64 bits architectuur lijkt mij erg interresant, te meer omdat er zo nieuwe mogelijkheden qua snelheid worden geschept. Met de 32bits hield het toch wel een beetje op. Ik weet niet precies tot hoever ze kunnen gaan, maar heel veel zal het niet zijn.
Wanneer de 64bits proccessors uitkomen, zal er ook een omslag plaatsvinden in computerland. Meer apparaten zullen helemaal veranderen (denk ik).

Ik ben errug benieuwd!
Flamebait is een slechte moderatie. Hoewel het logisch lijkt is het toch onzin. Goed geprogrammeerde software kan je op vrijwle alle architecturen compileren. Desnoods maak je een 32bit executable en dan 4 versie van de libraries voor verschillende architecturen, dan merkt de gebruiker het niet eens.
Maar nogmaals: dan moet je wel goed geprogrammeerde software hebben en dat is wel een probleem. Bij UNIX programma's wordt tijdens het coden meestal al rekening gehouden met de mogelijke platformen waarop het kan gaan draaien. Vandaar dat bijvoorbeeld Linux relatief eenvoudig op heel erg veel architecturen kan lopen. Bij Windows is dit echter veel lastiger.
Weet iemand wat de theoretische snelheidswinst is vergeleken met een 32bit en 64bit processor, vooral als je ook nog eens 32 bit programma's gaat draaien op een 64 bit processor?
En bij programma's die 64 bit ondersteunen?

Windows XP ondersteunt toch ook al 64 bit? De 64 bit NVidia drivers bestaan ook al. Is er wel al iemand die hier iets mee kan?
Weet iemand wat de theoretische snelheidswinst is vergeleken met een 32bit en 64bit processor, vooral als je ook nog eens 32 bit programma's gaat draaien op een 64 bit processor?
Het is geen kwestie van 'het is meer bits', IA64 is een hele andere architectuur dan i386, waarbij i386 toevallig 32 bits is en IA64 64 bits. Kort gezegd draaien programma's voor x86 niet op een IA64 CPU (en niet andersom).

Er zij twee mogelijkheden om een i386-programma op een IA64 CPU te laten draaien:
-hardware emulatie
-software emulatie

Intel had volgensmij de itanium van (een zeer trage) hardware emulatie voorzien (daar komt het verhaal vandaan dat de itanium huidige programma's zo snel als een Pentium I 150 mhz draait).
Software emulatie is imho een veel betere oplossing... Het kan moeilijk trager zijn dan die hierboven genoemde vergelijking (mits dat verhaaltje waar is natuurlijk), en het maakt de chip goedkoper en kleiner (waardoor hij weer sneller kan zijn).
En bij programma's die 64 bit ondersteunen?
Programma's "ondersteunen geen 64 bits", programma's zijn gecompiled voor i386 of IA64 (of voor sparc, of voor alpha, enz), en draaien dan op de bijbehorende CPU (en via emulatie evt op andere CPUs).
Windows XP ondersteunt toch ook al 64 bit?
Windows XP 'ondersteunt' geen 64 bit, er komt een versie die gecompiled is voor de IA64 CPU (en die versie is dus 64bit ja), maar die is op het moment nog erg alpha afaik.

GNU/Linux draait wel al op IA64.
De 64 bit NVidia drivers bestaan ook al. Is er wel al iemand die hier iets mee kan?
De 64bits bla van die nVidia drivers heeft helemaal niks met je CPU te maken... Het gaat hier om de 64bits van de GPU op je videokaart.
Windows XP 'ondersteunt' geen 64 bit, er komt een versie die gecompiled is voor de IA64 CPU (en die versie is dus 64bit ja), maar die is op het moment nog erg alpha afaik.
Ik heb meer dan 2 jaar geleden al even mogen werken met Beta1 van Whistler 64 bit, en die deed zeker niet onder voor de 32 bit versie. Microsoft hoeft in feite alleen de HAL te vervangen en een aantal drivers aan te passen, waardoor het niet zo'n enorme klus is om Windows voor IA-64 te maken.

De final release laat echter nog op zich wachten omdat de nieuwe HAL ook gaat draaien op Windows.NET (Advanced) Server en Datacenter Server. Het is dus erg belangrijk dat deze tot op het bot getest wordt in de meest bizarre omstandigheden, iets dat voor de consumenten-versie (Windows XP) niet nodig was.
Weet iemand wat de theoretische snelheidswinst is vergeleken met een 32bit en 64bit processor, vooral als je ook nog eens 32 bit programma's gaat draaien op een 64 bit processor?
Als je 32 bit programma's draait op een 64bit CPU, dan zul je op de 64bit processor een 32bit simulator moeten draaien. In het begin zullen deze nog niet geoptimaliseerd zijn, en daarom waarschijnlijk langzamer zijn dan het programma rechtstreeks draaien op een 32bit proc.
En bij programma's die 64 bit ondersteunen?
Die zullen wel alle features van de nieuwe processor kunnen gebruiken, en daarom ook (veel) sneller zijn.
Het duurt nog wel een tijd voordat het zo is.
En misschien kunnen ze er een oplossing voor bedenken, een bepaalde backwards-compability ofzo.

edit:

Deze post is een reactie op Jaromir
Gewoon ff een 32bit software emulatortje gebruiken lost alles op.
Is zoiets als een 486 spelletje spelen op een PII :z
4GB geheugen maximaal? dat klopt dus ook niet he! het is een 32Bits processor maar de geheugenbus is wel groter. bij de pentium pro was die al 36bits.

kijk hier maar naar wat de pentium 4 al aan geheugen kan aanspreken!
http://www.hardwarebible.com/Microprocessors/Pentium %204.htm
Ja, maar dat kan je niet zonder veel kunst en vliegwerk in één applicatie gebruiken... Die 64GB heb je eigenlijk alleen wat aan als je dat over meerdere programma's gaat verspreiden..
Wat ik me altijd afvraag, en het zal wel weer een marketing truc zijn, maar waarom maken ze steeds zon relatief kleine stappen ?

ik bedoel, van 32 naar 64 bits, dan moet zoals ik lees alle software opnieuw geschreven worden, en over een aantal jaar is dit weer hartstikke verouderd.
Waarom maken ze niet gewoon de extra stap, en gaan ze direct naar de 128 ofso? wat meer research, maar dan kunnen die dingen ook langer mee.... toch?
Het lijkt me iig prettiger idee voor de gewone consument om te weten dat je niet over een bepaalde tijd MOET veranderen van hardware, omdat je nieuw software dat nodig heeft.
Van 32 naar 64 is een verdubbeling, dus best wel een grote stap. Ik denk dat het nu VEEL te moeilijk is over te stappen naar 128 bit (als je een 50x cdrom-speler hebt, ga je toch ook niet opeens een 200x ontwikkelen??). Dat is dus onzin.

32 bits (zoals nu) gaat toch al flink wat jaartjes mee (15 jaar ongeveer), en de x86 instructieset (die ook al flink verouderd is) bestaat nog langer.
Van 32 naar 64 is een verdubbeling
Ehm... als we even kijken naar aanspreekbaar geheugen gaat het van 2^32 naar 2^64. Dat is dus geen verdubbeling, maar een kwadratisering (ned?).

2^32 = 4294967296 = 4GB
2^64 = 18446744073709551616 = 17179869184 GB

Dat lijkt me wel genoeg voor de komende tijd. Waarom zou je iets gaan uitontwikkelen (we hebben het niet over research maar over toepassingen) als er pas over xx jaar een markt voor is?

Kijk maar naar de Alpha processor. Die was zijn tijd ver vooruit, maar er was niet echt een markt voor, en een groot succes is het nooit geworden.
Alvorens, GOED ARTIKEL COOKIE!!

<BR><BR>
Ik weet al geruime tijd over de opkomst van 64 bits cpu. Maar ik weet gewoonweg niet zoveel voordat ik dit artikel gelezen heb...geen tijd, geen zin, etc.<BR><BR>

Wat mij intereseerd is eigenlijk hoe snel kan 64 bits cpu iets berekenen?<BR><BR>

Maar in iedere geval harstikke bedank!! :*)
Bedankt hoor :), maar het is Wouter die het stuk schreef, dus alle credits gaan naar hem. Maar hij hij krijgt er dan ook dik voor betaald, dus..... }>

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True