Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties, 22.165 views •

In de top-500 van 's werelds snelste supercomputers heeft Jaguar, een Cray XT5, de regerend wereldkampioen van zijn troon gestoten. De halfjaarlijks gepubliceerde lijst werd anderhalf jaar lang aangevoerd door IBM's Roadrunner.

IBM's Roadrunner voerde vanaf juni 2008 de top-500 van de krachtigste computers ter wereld aan. Destijds was de supercomputer van het Los Alamos National Laboratory de eerste computer ter wereld die de petaflops-barrière doorbrak. Roadrunner zette een Linpack-score van 1,04 petaflops neer, terwijl eerder dit jaar nog 1,105 petaflops werd gehaald: een herconfiguratie van zijn cu's zou de oorzaak van het performance-verlies zijn.

De Cray XT5 Jaguar, die zijn werk op de Oak Ridge Leadership Computing Facility verricht, haalde een Linpack-score van 1,75 petaflops, een prestatie die de computer op nummer één zet van de op 17 november te publiceren top-500. De XT5 had 17 uur en 17 minuten nodig om de benchmark af te ronden.

Jaguar kon de winnende score neerzetten dankzij een verdubbeling van aantal processors waarmee de supercomputer is uitgerust: de Cray-machine beschikt over 224.162 cores, die door AMD's Istanbul hexacore-processors worden geleverd. Elke node van de Jaguar bestaat uit twee Opterons met 16GB geheugen, waarmee het totale werkgeheugen van de supercomputer op 300TB komt; de opslagcapaciteit bedraagt 10PB. De Cray XT5 werd ontworpen voor een piekcapaciteit van 2,3 petaflops, waarmee Jaguar nog enige ruimte heeft om te groeien. Roadrunner daarentegen werd ontworpen voor 1,75 petaflops, waarmee de kans klein is dat de IBM-computer de toppositie terug zal veroveren.

De top-5 van de vierendertigste editie van de top-500 Supercomputers ziet er met de nieuwe koploper als volgt uit:

SupercomputerSysteemLinpack-scoreLocatie
Jaguar Cray XT5 1,759 petaflops Oak Ridge Leadership Computing Facility, USA
Roadrunner IBM
1,042 petaflops Los Alamos, USA
Kraken Cray XT5 832 teraflops Computational Sciences/University of Tennessee, USA
BlueGene/P IBM
825,5 teraflops Forschungszentrum Juelich, Duitsland
Tianhe-1 NUDT Cluster 563,1 teraflops
National Super Computer Center, China

Gerelateerde content

Alle gerelateerde content (22)

Reacties (87)

ook goed nieuws voor AMD, heeft zeker ook een markt- en marketingwaarde.
Doe mij maar eentje..
Ik denk dat dit iets meer plaats inneemt dan je average case :)

On topic: mooie scores. Is er ook een lijst voor wat welke supercomputer gebruikt wordt?
Denk dat je ook je groepenkast iets zwaarder moet zekeren: lol :)
"de Cray-machine beschikt over 224.162 cores, die door AMD's Istanbul hexacore-processors worden geleverd. "

Zeker waar! De eerste bestellingen van 224.162 cores lopen nu al binnen! :+

Het begint meer op een race te lijken dan op iets wat nuttig is... ik kan moeilijk geloven dat ze zulke systemen echt nodig hebben en er volop gebruik van maken... alleen om het nog maar een paar uur te huren kost het een fortuin...
Waarom kan je dat moeilijk geloven? Wat dacht je van het uitrekenen van weer-modellen, van modellen over klimaatverandering, berekeningen aan zwarte gaten (of whatever), kernwapen-simulaties, etc.... dan ben je blij met iedere vooruitgang op dit gebied, want zelfs met deze computer duren berekeningen aan dat soort modellen ontzettend lang, zeker als je die modellen nu weer complexer en dus accurater kan maken.
Precies. Naarmate de rekenkracht toeneemt van dergelijke supercomputers, zullen de moddellen en berekeningen dus ook complexer worden omdat dat mogelijk is.

Alleen al het renderen van een animatie film in Full HD kan dagen duren op je normale desktop. Laat staan het simuleren van een kernexplosie of een wereldwijde natuurramp... zelfs zoiets kan dagen duren op de supercomputers van tegenwoordig. En zodra de uitkomst van een bepaalde berekening bekend is, wordt hier meestal weer mee verder gerekend om nog nauwkeurigere resultaten te verkrijgen...
Het renderen van een animatie film duurt dagen in een dikke renderfarm.
Het renderen van een animatie film duurt dagen in een dikke renderfarm.
Het zou op een machine als deze waarschijnlijk sneller gaan. Ik denk dat de gemiddelde "dikke renderfarm" niet 37000+ hexacore cpu'sheeft, zoals deze? (Ik kan het mis hebben, heb geen research gedaan.)
Een renderfarm meet je in duizenden tot tienduizenden cores, ipv honderdduizenden. Voor civiele toepassingen zijn dat al best wel dikke bakken. Een rack levert je max 40 1U hoge nodes op, met 8-12 cores per node heb je dus met 10 volgepropte racks nog steeds slechts 3200-4800 cores online staan.
de renderrfarm van pixar bestond enkele jaren geleden aan 1024 procs, dat zijn er aardig wat..

het renderen van een film (finding nemo) duurt dan net geen jaar, een paar uur per frame

edit: wat Qualian zegt, dus

[Reactie gewijzigd door Darkstone op 16 november 2009 19:45]

De gemiddelde renderfarm door Hollywood gebruikt draait op een el-cheapo 'clusterfarmpje' van 10 of meer Linux-x86 bakken met 'thuisgebrouwde' rendersoftware (welke men niet durft vrij te geven wegens angst voor patentclaims). Het aantal CPU's kan toenemen tot duizenden. Renderen voor een typische film duurt geloof ik een paar uur, afhankelijjk van hoeveel er 'gephotoshopt' wordt en hoeveel 'nodes' ze hebben.

ED: Hier gaat het om échte niet geanimeerde speelfilms met simpele toevoegingen, zoals 'er is één helikopter gefilmd en we plakken er eentje bij, of er staan drie surfmeiden op het strand bij windkracht 1 en we plakken er hoge golven achter', of iets met een orkest in een zinkend bootje of zo.

Bron: Robin Rowe tijdens FOSDEM '08

[Reactie gewijzigd door kidde op 17 november 2009 00:20]

Het renderen van een animatiefilm duurt dagen in een dikke renderfarm, mits je het over een animatiefilm van hooguit een paar minuten hebt!
Op deze wel wellicht ;)
Volgens wikipedia heeft de laatste renderfarm 1024 Xeon Procs. Op deze renderfarm zijn Cars en The Incredibles gerenderd, dus het zou me weinig verbazen als ze inmiddels hun renderfarm vernieuwd of uitgebreid hebben.

Op een high end desktop kan het renderen van een seconde animatie* al dagen duren op full HD resolutie, afhankelijk van de opbouw natuurlijk. Het mooie aan 3D animatie is dat je het altijd zwaarder kunt maken :P, dus zelfs zo'n Cray zouden ze best tot het uiterste kunnen pushen als ze een beetje hun best doen. Maar er wordt natuurlijk altijd een afweging gemaakt tussen kosten en kwaliteit...

edit: *bij Pixar volgens hun eigen site (http://www.pixar.com/howwedoit) ong. 6 uur per frame (x24 voor 1 seconde), oplopend tot soms wel 90 uur per frame. Dus 6x24x3600x1,5=777600uur voor een 1,5 uur durende film als mijn berekening klopt. Wat neerkomt op 89 jaar rendertijd per film. hmmm... Die kunnen best een Cray XT5 gebruiken volgens mij, beetje frustrerend als je als animator niet lang genoeg leeft om je eindproduct te kunnen zien... :P

[Reactie gewijzigd door Qualian op 16 november 2009 15:47]

Ze kunnen wel mooi klimaatverandering uitrekenen, maar zullen ze dan ook de invloed die supercomputers erop hebben in 't model stoppen? :P
Dat is een grap/opmerking die al (vele malen) eerder gemaakt is hoor.
Op de cray site staat een filmpje over de koeling. Het energieverbruik per processor ligt waarschijnlijk lager dan jouw desktop systeem.
Wat jammer is.. Tegen de tijd dat we dan hebben uitgerekend wat ons te wachten staat hebben we het zelf veroorzaakt, mede dankzij de CO2 uitstoot van dit soort super computers.. 8)7
Als we nu eens zouden stoppen met auto-rijden, kolencentrales en oerwouden kappen dan heb je het pas echt over effecten. 1 zo'n supercomputer is weliswaar ook een energie-slurper, maar dat verandert vrij weinig.
zo'n supercomputer, gebruikt van zichzelf al veel energie, maar ook al het maken van zo'n ding!
ja en... zullen we allemaal tesamen stoppen met computers bouwen? Zullen we ver mee opschieten.
Ik denk dat je nog niet helemaal begrijpt wat een Super computer in houd. Het is vaak een enorme ruimte vol met racks die op hun beurt allemaal vol zitten met boards die allemaal 1 of meerdere CPU's, geheugen en eventuweel disks huisvesten. Door supper snelle interconnects is het geheel aanelkaar gehangen en met een *nix achtig besturings systeem worden alle nodes in de computer bediend.
Een computer als deze wordt voor namelijk gebruikt om complexe modellen door te rekenen, zo als vgroenewold al vermeld. Deze modellen zijn vaak zo complex dat zelfs zo'n systeem nog vele uren tot zelfs maanden bezig is om bijvoorbeeld te berekenen welke yield een kernkop zal hebben en hoe lang het ding houdbaar blijft etc...
Het weer voorspellen is een andere hobby van dit soort systemen, dit soort modellen zijn vaak extreem complex omdat variable van over de gehele wereld gebruikt moeten worden om aan een redelijke benadering te komen van hoe het weer gevormt wordt. En toch worden er steeds nieuwe factoren gevonden, ocean stromingen, de zonnevlek cyclus, vulkanen en ga zo maar door al dit soort dingen hebben invloed op hoe het weer zich hier of daar gedraagt. Kopel daar aan de opwarming van de aarde de snelheid waarmee de poolkappen daar door smelten en zo nog een paar honderd andere dingen en je kunt je voorstellen dat de weer modellen veel al beperkt worden niet door de wetenschap maar door de hoeveelheid berekeningen je kunt uitvoeren voor dat je de resultaten moet hebben of de voorspelling al niet meer nodig is omdat het inderdaad nu weer regent.

Een super computer en de soort berekeningen die deze dingen uitvoeren houden elkaar goed instand. De een kan niet zonder de ander, maar telkens als de super computer net weer dat beetje sneller wordt weten de wetenwschappers die het ding berekeningen voeden het beestje toch weer flink te laten zweten.

Als men zo'm machine niet aan de praat zou kunnen houden dan zouden ze niet gebouwt worden. Dit ding zal een vermogen van flink boven de mega Watt slurpen, inderdaat een fortuin kosten om te bouwen en te onderhouden. En een paar minuten rekentijd huren op het beestje zal welhaast onbetaalbaar zijn. (Niet dat dat kan Oak Ridge houd zich bezig met het rekenen aan het Amerikaanse atoom wapen arsenaal zulke machines zijn niet zo maar beschikbaar voor publiek of wetenschappers)

Maar je kunt het wel benaderen vele universiteiten en onderzoeks instellingen hebben hun super computers aanelkaar gekoppeld om op die manier nog over nog meer rekenkracht te beschikken. Op deze manier heeft men niet alleen meer rekenkracht maar kan men ook de kosten delen iets wat niet onbelangrijk is zo als je zelf zal zei de kosten van de huur van zo'n machine zijn enorm en dus als je allemaal een beetje kunt betalen maar toch over een enorm snelle machine kunt beschikken dan scheelt dat toch flink want zo als al gezegt ook dit soort modellen zijn maar een bepaalde tijd interesant om door te rekenen daarna worden ze ingehaald door de altijd maar beeter worden de inzichten in de manier waar op bijvoorbeeld het weer tot stand komt.
en je kunt je voorstellen dat de weer modellen veel al beperkt worden niet door de wetenschap maar door de hoeveelheid berekeningen je kunt uitvoeren voor dat je de resultaten moet hebben
Daar zit je toch helemaal verkeerd. Bij klimaatmodellen is het wel degelijk de wetenschap die volstrekt ontoereikend is, en niet de rekenkracht. Er missen gigantisch veel uiterst belangrijke factoren in de modellen, simpelweg omdat de kennis erover niet aanwezig is, of genegeerd wordt. De klimaat modellen zijn werkelijk absurd simplistisch. En dan geldt simpel: "garbage in = garbage out" ongeacht hoe zwaar de computer ook is.

Bij zaken als moleculaire dynamica (moleculen simuleren door alle atomen bij elkaar te zetten, en dan te zien wat voor structuur ze vormen) is het wel vrijwel alleen de rekenkracht die bepalend is... (De wetenschap erachter is niet veel meer dan de wetten van Newton....) En dan nog kun je je bij dat soort simulaties vaak afvragen of je nu zoveel geleerd hebt... Meestal komt er ook gewoon uit wat je vooraf al verwacht had. Ik heb af en toe het gevoel dat men het meer doet om een mooi plaatje te krijgen, (hetgeen dan op de cover van een journal kan komen) dan dat er echt iets nuttigs uit komt.
Je moet zo'n computer dan ook niet zelf volledig gebruiken. Aan de meeste universiteiten zitten enkele honderden of duizenden wetenschappers die elk in staat zijn een paar stevige desktops af en toe voor enkele dagen tot weken bezig te houden (ik ben zo iemand :-)). Ofwel voorzie je elk van die wetenschappers van een relatief kleine rekencluster onder hun bureau, die dan de helft van de tijd of nog meer niets staat te doen, ofwel centraliseer je dat om op die manier de zware investering zo goed mogelijk te gebruiken.

De meeste van die machines zijn echt niet met één enkele berekening per keer bezig hoor. Er zijn er misschien wel, maar het grootste deel van die machines wordt door tientallen tot duizenden gebruikers gebruikt, die elk af en toe of regelmatig een relatief groot model doorrekenen.
Volgens mij haal je supercomputer en mainframe nu door mekaar.... xD aan een mainframe zitten 1000~ 10000en gebruikers die elk een terminal hebben een mainframe moet stabiel zijn. Terwijl een supercomputer daarentegen veel vermogen moet hebben om zware modellen door te kunnen rekenen.
Grappig. 224.162 is niet deelbaar door zes.
Er zijn een paar cores niet meegeteld (reden ontgaat me):
Each processor in the XT5 partition’s compute pool has successfully been upgraded from 4-core to 6-core. The upgraded partition contains 224,256 compute cores.
Zie hier
Er zitten 224.256 cores in de supercomputer (zie site), 18688 nodes.

Kennelijk zijn er een paar niet "effectief".
op Engadget kon je nog lezen dat 4 van de top-5 supercomputers bestaat uit AMD processoren.

Of course, chip makers put their own spins on the list by noting that 4 of the top 5 systems depend on AMD for performance while Intel can be found powering 402 of the Top500.

http://www.engadget.com/2...s-worlds-faster-supercom/
Kwestie van betrouwbaar genoeg en goedkoper denk ik. Dat lijkt mij altijd een beetje de afweging bij het maken van deze monsters.
Het is echt niet zo dat AMD niet betrouwbaar is. Ik denk dat het meer te maken heeft met Sponsoring vanuit Intel. Maar dat zou nu in de toekomst niet meer zo snel voor komen nu ze een nieuwe cross-license deal hebben gesloten.
al was het alleen maar vanwege de andere verwerkings/rekenmethoden en stroomverbruik ;)
Jaguar is niet alleen de snelste, hij is bijna 2x zo snel als Roadrunner op de 2de plaats.

Nummer 2 tot 5 liggen allemaal dichter bij mekaar. De volgende snelste wordt dus waarschijnlijk 2,3 of 4 petaflops, nice!

[Reactie gewijzigd door Jan Van Akker op 16 november 2009 12:22]

Dat heb je wel ruim bemeten dan. Hij is zeker sneller, maar niet tweemaal zo snel ;).

1.6 keer sneller, om precies te zijn

Desalniettemin een leuke winst, ook voor AMD, hoewel ik me afvraag hoeveel er nog getweaked is in de rest van de machine, om het de processors zo makkelijk mogelijk te maken.
Slim van Cray om hun nieuwe XT5 sneller te maken dan dat de IBM machine ooit voor ontworpen is. Nu kan IBM niet meer zeggen dat ze een snellere machine kunnen maken met dezelfde architectuur.

Ik vindt het een hele prestatie maar snap niet waarom er "simpele opterons" worden gebruikt. ZIjn Cell cpu's?GPU's niet vele malen sneller?
De schaalbaarheid van de Opteron zal hierbij denk ik grotendeels meespelen.

Al met al laat dit zien dat de potentie van de Opteron erg groot is.
De nieuwe QPI interface van Intel is een mooie voorruitgang maar is bij lange na nog niet gelijk aan de HT interface die AMD gebruikt. (hoewel het een technologie onder licentie is) gaat de bandbreedte van QPI niet zo extreem hoog. +/- 19GB/s (bi-directioneel)
HT kan naar mate hoe verder je schaalt hoe meer halen tot zelfs over de 51.2 GB/s (bi-directioneel).

Denk dat het hem daar ook ligt.

[Reactie gewijzigd door tankeriv op 16 november 2009 12:57]

http://www.theinquirer.ne...bm-helps-military-achieve

De Roadrunner heeft zowel Cell als Opteron aan boord. Maar elke architectuur heeft zo zijn sterke en zwakke kanten, dus het type berekening moet ook maar net aansluiten bij de architectuur van je CPU.
Nu kan IBM niet meer zeggen dat ze een snellere machine kunnen maken
Hebben ze juist al wel gedaan:
Roadrunner and Jaguar... ...will soon be eclipsed by new machines more than ten times as powerful. IBM and ... ...(NNSA) announced... ...in 2011 Lawrence Livermore ... ... will install a 20 petaflop system
Hier
224.162 cores / 6 = 37360 CPU units? of word er ook met software matige cores gerekend?

AMD timmert wel lekker aan de weg zo.
Nee, het zijn echt hexacores. :) Softwarematige "cores" noemen ze threads denk ik trouwens :P

[Reactie gewijzigd door Luqq op 16 november 2009 12:30]

In principe gaat het om fysieke cores; je hebt dus gelijk met je 37 360 cpu's.
en dan nog 2 per node, dus totaal 18.680 nodes, lekker :P

en daarnaast 18.680 nodes, per 5.000 euro is ook lekker 93,4 mil. (en dat zal dan nog niet total cost zijn.
Alleen processor upgrade 37.360 maal 200 dollar/euro fabrieks prijs: 7,472 mil. Valt dus nog wel mee.
224.162 cores / 6 = 37360 CPU units?
Om precies te zijn is het 37.360,3333333.
Het lijkt erop dat er nog een losse dualcore tussenzit want 37360*6 = 224.160. :)
Edit: oeps, dubbelpost (ik zie net bszz's post).

[Reactie gewijzigd door Aham brahmasmi op 16 november 2009 13:26]

Wat ik interessant vind: heeft er iemand gegevens van het energieverbruik tijdens deze benchmark?
Daar zat ik ook al aan te denken. Ik vind het behoorlijk idioot klinken om je hele supercomputer 17 uur lang in te zetten om een benchmark te draaien waar helemaal niemand iets mee opschiet.
Je schiet daar wel degelijk iets mee op. Het is naast het benchmarkresultaat waarmee je kunt bekijken of het systeem daadwerkelijk levert wat je ervan verwacht ook een degelijke stresstest waarmee je kunt zien of alles stabiel draait.
Daarnaast is het ook belangrijk om te weten hoe snel het systeem is zodat je een eta hebt voor je toekomstige berekeningen.
Vaak wordt er op een dergelijk systeem cputijd ingekocht door bedrijven die zelf de aanschaf van zo'n supercomputer niet kunnen verantwoorden. Dan is het wel handig als je weet hoeveel cputijd je nodig hebt.
http://news.soft32.com/do...-new-computer-6_7459.html

Daar worden wat waarden genoemd.
Average op dit niveau is ... 2.45 MWatt

lol, daar kun je twee dikke windmolens naast zetten :)

2.5*17*1000*0,24 = € 10.000 aan stroomkosten voor die benchmark.

Ofwel genoeg om pakweg 8 gezinnen een jaar lang van stroom te voorzien.

[Reactie gewijzigd door RielN op 16 november 2009 17:48]

Ten eerste staat het apparaat niet in Nederland dus gelden er andere prijzen, maar als we dan toch van Nederland uitgaan dan zit je met dergelijk verbruik niet aan de 24 cent per kWh maar ongeveer aan 8 cent incl alle belastingen op jaarbasis. (Waarschijnlijk zelfs lager vanwege het enorme verbruik dat er kortingen te krijgen zijn)

Dan doe je dus 2.400 Kwh/60 maal 1037 minuten maal 11 cent = 3318,40 EURO voor de benchmark. Toch een wereld van verschil in kosten, ik gok dat het ze daar in amerika niet eens 2000 euro kost, dat is een stabiliteitstestje van een miljoenensysteem toch wel waard?
als je op de lijst kijkt zie je dat de cores bijna verdubbeld zijn t.o.v. nr. 2 op de lijst, maar het energieverbruik is met een verhouding 3 omhoog gegaan!
Dat komt waarschijnlijk doordat de bandbreedte van de interconnects ook veel hoger is geworden.
De #2 (RoadRunner) is Cell gebaseerd. Cell is een bijzonder efficiente, maar lastiger te programmeren chip. Dus zo gek is het niet.
Klein detail: 224162/6=37360,33333 . Kan het zijn dat niet alle cores gebruikt worden?

edit: Ook quad cores kunnen kennelijk gebruikt worden

edit 2: Als ik het goed begrijp bestaat Jaguar uit een Cray XT5 gekoppeld met een Cray XT4. De XT5 heeft 224256 cores en dus 37376 hexacore CPU's. De XT4 heeft 31328 cores beschikbaar uit 7832 quad core cpu's. Samen is dat dus maar liefst 255584 cores!

[Reactie gewijzigd door bszz op 16 november 2009 14:23]

Cray's Jaguar dateert uit 2005. Eerst uitgerust met dual-cores stond hij op plaats 10 in de lijst van November 2005. In de loop van de tijd zijn dual-cores vervangen door quad-beestjes, sinds kort mogen de Istanbul 6-cores het werk doen. Het bouwen van een supercomputer neemt wat tijd in beslag, en tijdens het bouwen komt ook nieuwe hardware uit.

Youtube: Cray Upgrades "Kraken" Supercomputer with Six-Core AMD Opteron Processors
Edit: Kom op URL, werk.

[Reactie gewijzigd door Zaffo op 16 november 2009 14:17]

http://www.pnl.gov/scienc...lights/cmsd/jaguar500.jpg

als ik zo naar de foto kijk vindt ik hem er ook nog eens mooi uitzien ! !
ik wil deze wel een weekje lenen om mijn scores op SETI@HOME een beetje op te krikken en de Dutch Power Cows }:O een stukje naar boven te helpen! ! ;)

toch maar eens ff gaan sparen dus! ! O-)
wat zou dat voor resultaat neerzetten?
Zou ook zonde zijn als ze op zo'n apperaat op het uiterlijk gaan besparen en er een saaie wit-gele kast gaan neerzetten.. :)

[Reactie gewijzigd door ZpAz op 16 november 2009 13:29]

Die dingen hebben vast nooit idle tijd, maar zou leuk zijn als daar een distributed.net of BOINC client op zou draaien.

Zeker de distributed.net projecten kunnen zeer snel afgerond worden zo lijkt me.

Maar deze clusters worden vast ook al gebruikt om te rekenen naar klimaat modellen, gnomen, medicijnen, etc.
Ja want het stroomverbruik valt ook mee dus een paar dagen BOINC draaien kost ze maar een paar miljoen per week ofso :P

[Reactie gewijzigd door watercoolertje op 16 november 2009 12:42]

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True