Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties

In navolging van MSI gaat ook Galaxy een GTX260 uitbrengen met 1792MB geheugen in plaats van 896MB geheugen. De videokaart is ook voorzien van een speciale koeler, met vijf heatpipes en drie 92mm-ventilatoren.

Tijdens de Cebit introduceerde MSI al een GTX260 met 1792MB geheugen, en was daarmee de eerste fabrikant die een GTX260 uitbracht met extra geheugen. Galaxy volgt nu in MSI's voetsporen door ook een GTX260 met 1792MB geheugen uit te brengen. Het geheugen is opgebouwd uit veertien Samsung K4J10324QD-HJ1A-modules, die elk goed zijn voor 128MB en over een 32bit-geheugenbus beschikken, aldus Expreview. De gddr3-geheugenchips hebben een kloksnelheid van 2000MHz. De chips zelf zijn niet nieuw, maar konden door technische beperkingen nog niet eerder gebruikt worden.

De koeling wordt verzorgd door een koeler van Galaxy's eigen ontwerp. De koeler heeft vijf heatpipes die de warmte langs een aantal aluminium koelvinnen voeren. Drie pwm-gereguleerde 92mm-ventilatoren nemen de nodige luchtverplaatsing voor hun rekening. Uit een klein aantal benchmarks komt naar voren dat het extra geheugen in sommige situaties van nut kan zijn, hoewel de verschillen maar klein zijn. Galaxy heeft nog geen prijs of leverdatum bekend gemaakt voor de nieuwe videokaart.

Galaxy GTX260 1792MB
Moderatie-faq Wijzig weergave

Reacties (61)

Die koeler lijkt wel erg op een custom versie van de Accelero Xtreme GTX 280. Namelijk:
• 3 ultra quiet 92mm PWM fans with low noise impeller
• Efficient heat dissipation via 5 heatpipes
• [...]
Ook wel handig te vermelden is dat uit de bron blijkt dat het extra geheugen quasi niets uitmaakt qua performance in de 3 geteste games, behalve in World In Conflict @ 1920x1200: klik
Dat wou ik nou ook net posten ... alleen bij deze kun je aan de zijkanten niet de koelribben zien waar de lucht naar buiten wordt gedrukt, teminste niet op het plaatje.

Meh, goeie koeling iig ;)
De heatpipes van deze koeler zijn ook anders geplaatst als bij de Accelero. Hierbij zijn zoals op de link van 3phemeral de heatpipes over de lengte richting geplaatst. Bij de Galaxy kaart zijn ze over dwars geplaatst. Hier goed te zien: http://www.hardware.info/...X_260_met_extra_geheugen/
Als ik het zo moet inschatten lijkt me de gekozen manier van Galaxy minder efficient gezien de heatpipes korter zijn en zodoende minder hitte kunnen afgeven aan de lamellen.
"Uit een klein aantal benchmarks komt naar voren dat het extra geheugen in sommige situaties van nut kan zijn, hoewel de verschillen maar klein zijn."

Genoeg reden voor voorzichtigheid dus. Daarentegen zijn er slechts drie games getest en weten we niet of de galaxy-kaart overgeklokt is.
Als je ziet met hoeveel filters ze het gedaan hebben lijkt me de GPU zelf alweer de bottleneck, anders had het geheugen veel zin. Als ze nu op 2xAA en 16xAF gaan testen en dan grote verschillen kenbaar maken..dan ben je al een stuk realistischer bezig.
als ik de foto zo bekijk stel ik me vragen bij de efficiëntie van de cooler dat erop zit, als je het gaat bekijken blazen alle 3 de fans op hetzelfde koelblok.
Dus tussen 2 fans zal er zware turbulentie ontstaan wat ten eerste meer lawaai met zich meebrengt en ten tweede ook zware gevolgen heeft voor de koeling op die plek.

een lichte scheefstelling van de fans lijkt me hier aangewezen om ervoor te zorgen dat al de lucht die erin wordt geblazen ook naar één kant gaat.
hoe groter, en hoe meer fans... hoe langzamer ze hoeven te draaien.. dus stiller dan.. mits ze niet te vuil worden natuurlijk. Lijkt mij dan!
ben bang dat 3 van die fannetjes na een tijdje heel veel herrie gaan maken...

Vind het trouwens wel een beetje een onlogische hoeveelheid geheugen, meestal ronden ze het toch af naar 1, 1.5 of 2 GB..
Wel een monster groot ding met 3 van die fans btw
Heeft met die 448/384? bit breedte te maken. Je kan beter zeggen dat het geen veelvoud van 2 is wat die bit breedte onlogisch maakt. En dus een pletora aan extra mem sizes krijgen.

[Reactie gewijzigd door SG op 15 maart 2009 14:02]

De standaard 260 beschikt over 896 mb geheugen. Dit is gewoon een simpele verdubbeling. Dit rare getal was ook al zo bij de kaarten uit de 800 serie. 640mb of 768 mb. Op zich niet heel vreemd dus.

Wellicht woord dit veroozaakt naar de menselijke drang naar het zoeken patronen we zijn gewend dat er gewerkt wordt met 256/512/1024 mb en een tussenstap zou dan dus vreemd zijn. Ik moet wel zeggen dat als er ineen geheugenbankjes komen van 1,5 gig per stuk ik ook wel raar op zou kijken. (als het technisch mogelijk is?)
Had het niets temaken met de bus breedte van die gpu's?

Blijkbaar dus wel :D

http://tweakers.net/react...=Posting&ParentID=3038361

[Reactie gewijzigd door Damic op 15 maart 2009 13:46]

heeft te maken met de bus breedte, die is "normaal" 64, 128, 256 of 512. Maar in het geval van nvidia is het 384 bits dus krijg je meervouden daarvan
Mooi. , maar al dat extra geheugen lijkt me niet nuttig. En met een enkele GTX260 ga je niet op hele hogere resoluties gamen dan zou je eerder moeten kijken naar een GTX280 of GTX285. De custom fan is overigens wel erg goed , hij lijkt me zeer stil.

Wel zielig dat ik weggemod word.

[Reactie gewijzigd door n0elite op 15 maart 2009 13:40]

Niet nuttig voor de prestaties. Wel nuttig voor de marketing....
nog steeds mensen die denken dat de videokaart met het meeste geheugen automatisch het snelste is
Niet automatisch, maar er zijn natuurlijk best toepassingen waar dat wel het geval is. Ik snap al die reacties over het nut van zoveel geheugen dan ook niet.

Er zijn tegenwoordig aardig wat programma's, en ook programmeertalen, die gebruik kunnen maken van de CUDA technologie van NVIDIA. Als je dan met meer geheugen het aantal lees- en schrijfacties daar naartoe kan verminderen is dat natuurlijk een boost voor de performance.
Dat meer geheugen niet ALTIJD een betere performance geeft spreekt voor zich.
Niet automatisch, maar er zijn natuurlijk best toepassingen waar dat wel het geval is. Ik snap al die reacties over het nut van zoveel geheugen dan ook niet.
Die reacties zijn al zo oud als de IT wereld oud is en waarschijnlijk nog wel ouder. Ik kan me nog zeer goed herinneren dat grafische kaarten 256KB geheugen hadden en dat sommige fabrikanten toen naar 512KB gingen. De reacties waren niet van de lucht: totale onzin! Marketing evilness!

Bij de overgang van 1MB -> 4MB hetzelfde en toen van 16MB -> 64MB, en meer recent werd de overgang van 256MB -> 512MB nog totaal belachelijk gemaakt.

Tweakers zitten nu eenmaal zo inelkaar. Aan de ene kant willen we het maximale uit ons systeem halen en steeds meer en steeds sneller, maar als de fabrikant dan met iets snellers komt is het bijna altijd belachelijk (meer cores, meer main memory, snellere busses (AGP1X vs AGP2X, 3X, etc anyone?)).
Komt omdat het extra geheugen vaak maar zeer beperkte perstatiewinst opleverd tenzij videokaarten native gemaakt zijn om met de hoeveelheid geheugen om te gaan.

vaak zie je bij hogere resuluties tot max 10% winst, en soms zelfs een performancedaling op de "normale" resoluties.

Heel gek is het dus niet dat het zwart gemaakt wordt, vaak leverd het namelijk (bijna) geen prestatiewinst op om op een kaart die als design 1gb geheugen heeft, ineens 2gb geheugen te zetten.
Wie gaat tegenwoordig nog op lage resoluties gamen?

Alleen de competitieve spelers van FPS gamers doen dat, maar de mainstream gamer wil toch echt het maximale aan graphics zien.
Wie gaat tegenwoordig nog op lage resoluties gamen?
Wat is laag?

1280x1024 is een vrij standaard 19" resolutie, en da's tegenwoordig al best laag te noemen. Toch zitten er genoeg mensen met zo'n scherm te gamen/werken. En 1680x1050 is tegenwoordig ook al niet bijzonder hoog meer te noemen. "Laag" is erg relatief.
maar de mainstream gamer wil toch echt het maximale aan graphics zien.
Die mainstream gamer heeft een beperkt budget. Die kan of wil er niet zomaar elk jaar 2000 euro tegenaan gooien om über prestaties te hebben.

Die mainstream gamer koopt nu maximaal een GTX260 (meestal minder). Dat werkt prima op 1680x1050 maar op 1920x1200 krijgt dat ding het behoorlijk zwaar, als je je in game settings maar hoog genoeg zet. Over een jaar (of twee) als die mainstream gamer nog steeds met die zelfde kaart zit, zal ie of z'n in game settings flink moeten verlagen, of z'n resolutie. Anders zit ie naar een slideshow te kijken...

[edit.]
Daarbij kun je sterk je twijfels hebben of een kaart als deze nut heeft. Imho heeft een enkele GTX260 niet de rekenkracht om ooit deze hoeveelheid geheugen effectief te kunnen gebruiken. (Games dan, CUDA etc kan best.)
Meer geheugen is goed, maar het moet in verhouding zijn tot de GPU en de geheugenbus.

[Reactie gewijzigd door houseparty op 16 maart 2009 12:40]

ik denk dat je je vergist in hoeveel mensen "maar" 15 inch tft of 17" crt hebben. en dus relatief laag gamen.

dat zijn dan idd niet de mensen die een high end videokaart hebben, maar wel mensen die voor 20 euro een duurdere kaart kopen omdat deze 2x zo snel ofzo is.

[Reactie gewijzigd door Kevinp op 15 maart 2009 16:09]

Als ze zo erg korten op hun monitor dan verwacht ik niet dat ze een GTX260 kopen.
ik denk dat je je vergist in hoeveel mensen "maar" 15 inch tft of 17" crt hebben. en dus relatief laag gamen.
Maar lieve kevin, je denkt toch niet dat iemand die een kaart met 1792MB koopt nog met een 15"'je loopt te spelen? Dat is echt een opmerking die kant nog wal slaat. Mensen die op zo'n relatief klein beeld spelen kunnen gewoon een budget kaart kopen en die mensen die deze GTX260 zouden kopen doen daar echt wel een 1920*1200 scherm bij. Die kun je overigens ook al voor 250,- kopen. Gezien de prijs van deze kaart zal dat voor de liefhebber geen enkel probleem zijn.
Als je kijkt naar de reviews (waar veel tweakers zich op baseren) dan klopt dit verhaal niet helemaal...

In het verleden is zelden getwijfeld over het het nut dat een nieuwe kaart bijvoorbeeld 256mb had (geforce 6800) ipv 128 mb (geforce 5900). Waar altijd kritiek op is, is het uitbrengen van een nieuwe kaart die over de dubbele hoeveelheid geheugen beschikt van het originele model (zoals de 7600 512mb ipv 256mb). Belangrijk verschil om in de gaten te houden. Het is hier namelijk ook van toepassing:

het gaat hier niet om een nieuwe kaart die goed gebruik van dit geheugen kan maken, maar om een upgrade van een bestaand model (uit 2008). Dit is de reden dat mensen sceptisch zijn over het nut van deze upgrade, niet omdat men het nut van meer geheugen niet inziet.
Tweakers zitten nu eenmaal zo inelkaar. Aan de ene kant willen we het maximale uit ons systeem halen en steeds meer en steeds sneller, maar als de fabrikant dan met iets snellers komt is het bijna altijd belachelijk
Vaak (was?) is het zo dat meer geheugen ook langzamer geheugen betekend(e).
Dus om meer MB's voor de marketing department te krijgen werd er gewoon bezuinigd op de snelheid waardoor het gezeur zeker niet ongegrond is.
Heel nuttig, al wordt altijd het tegendeel beweerd door mensen die nooit zo'n kaart gehad hebben en of ooit zullen kopen.

Een 5 jaar oud spel als World of Warcraft kan al tot 1,5Gb aan video memory gebruiken op een resolutie van 1080P en hoger. Zonder duurt het zo'n 15 seconden voordat alles in je scherm geladen is, en kijk je tegen een lege spelwereld aan met alleen wat bewegende schaduwen. Dat gamers op hoge resoluties alleen maar op highend kaarten spelen is naturlijk bullshit. Met uitzondering van 2 of 3 spellen draai ik nog altijd op 1080P op een oude 8800GTS 512MB. Ik lever liever 10% performance in dan 250 euro extra neer te tellen voor die 10% extra performance.
Die lege spelwereld ligt eerder aan het feit dat er van alles gedownload wordt;). Volgens mij pakt wow, met mijn 640mb grafische kaart, max 300-500mb van het ram geheugen (op 1680).
Al dat geheugen is eerder nodig voor de textures dan voor hoge resoluties, kijk bijvoorbeeld naar GTA IV die zo meer als 1GB aan geheugen nodig heeft als je alles op vol zet.
Op hogere resoluties krijg je meer textures in beeld. De resolutie is dus wel gebonden aan het geheugen gebruik.
Je moet ook zien dat een resolutieverhoging in textures bij spellen een kwadratische verhoging kan geven als er geen compresissie is.

Stel je texture is een bmp (ja ik weet het, waarschijnlijk niet maar dat heeft geen compressie) van 800x800px en je verhoogt die dan naar 1600x1600 omdat je een fantastische nieuwe engine hebt.
  • 800x800px 24-bits BMP = 1.83MB
  • 1600x1600 24-bits BMP = 7.32MB
  • 3200x3200 24-bits BMP = 29.28MB
Dit is dus elke keer 22 dus vind ik de vergroting wel meevallen.

Een spel als GTA 4 neemt al makkelijk een GB aan videogeheugen in dus als ze besluiten bij de volgende GTA de textures op dubbele resolutie te renderen zal je al richting de vier GB kunnen gaan. Dan lijkt 1792MB helemaal niet zoveel meer.

Als consument zou ik toch liever een VGA kaart hebben die over een jaartje of twee nog steeds een beetje mee kan komen en niet door een tekort aan videogeheugen net een paar features niet kan gebruiken terwijl de GPU dat makkelijk aan kan.
Ook zal het zo zijn als er meer consumenten zijn met veel videogeheugen dat gamestudio's daar gebruik van gaan maken en er dus een hogere kwaliteit kan komen.

Dus wat mij betreft: kom maar op met dit soort kaarten ondanks dat ik ze niet nodig heb. Evolutie is prima en ik als tweaker moet me er maar bij neerleggen dat mijn 512MB kaart niet meer top notch is. Op dat punt heeft flowerp het goed uitgelegd.
Die GTX260 kan je ook in Triple SLI aan CI7 hangen.
D'r zullen wel weer nieuwe games komen die voorbij max setting van Crysis gaan voor 'n 30" met alle features on. Al maakt die 10 talle extra MB die hoge resoos extra verlnagen op 2GB steed minder uit dan de tijd van 256MB -> 512MB.
Het dan om een veel bontere verzameling aan HQ H-res Textures die zich in één frame van een scene kunnen bevinden.

Wordt nu amper gebruikt dat meer geheugen. Lijkt mij interresant als je nu voor een Triple gamerig gaat die je toch wel wat langer gaat gebruiken.

Al zou ik eerder voor 2 in SLI Galacy 2GB GTX285 gaan aan 'n Ci7.
Dat is ook mooi in balans en gaat relatief lang mee.

Maar omdat DX11 in aantocht is, Q4. Naast een GT212 40nm Versie Midden '09.
Mischien toch maar één gewoone 1GB GTX285.
Voor extreem modden. Erg gul met Textures en unieke objecten toch maar 'n 2GB versie.
Als je dit gevaarte in je computer met een 32bits OS steekt, kan je dan nog maar 2.3GB van je werkgeheugen adresseren? Dan zit je eigenlijk alleen maar je prestaties te vernaggelen met een duurdere kaart!
Nope, dan ben je gewoon lomp bezig als je nieuwe hardware draait met ouwe zut. Gewoon 64-bit OS gebruiken, problem solved.
Daar zit inderdaad een kern van waarheid in. Maar zowieso, als iemand met een Core Duo, Core Quad of Core I7 en DDR2/3 3+ GB nog 32-bit draait dan is dat inderdaad dom. Je ben dan in geheugen aan het investeren wat practisch nooit gebruikt word.

Voor de gehele markt begint zich nu de tijd aan te dringen om over te stappen op 64-bit besturingssystemen. Ook omdat alle mainstream programma's inmiddels een 64-bit versie hebben of binnenkort krijgen, en zelfs sommige spellen.

Ik wist trouwens niet dat het geheugen van de videokaart meetelde in de totale geheugen adressering?
Ik zie het meer om het kip en Ei probleem al vroeg aan te pakken. Als 2 GB sneller standaard wordt zullen dev sneller geneigd zijn om grotere verzameling textures toe te passen of van hogere qualiteit of size.
Maar gezien nV zal het eerder puur maketing zijn. Wat op zich een slechte reden is. Maar waardeer het dat memory size groter wordt en games grafish er bonter kunnen uitzien met meer uniek getexturede objecten. Dus of hogere IQ of meer variatie.
Dus vooruitgang.
Duurt alleen even wanneer voldoende Dev's(schaapjes) over de dam zijn.
je heb daarmee wel gelijk alleen waneer er daadwerkelijk games komen die zoveel textures gaan gebruiken is deze kaart als niet meer voldoende op GPU kracht om de game goed soepel te renderen.

Zolang het nutteloos is om 1792mb of meer op een grafischekaart te gaan plakken is het geld verspilling en puur marketing met poggen en bluffen terwijl je voor dat geld een betere grafischekaart kan kopen en pas waneer spellen om meer geheugen gaan vragen dan pas gaan upgraden naar een kaart met meer geheugen en tevens gelijk een krachtigere GPU .

maarja helaas veel mensen blijven deze onzin kopen en zolang het verkoopt wordt het steeds weer gemaakt.
Goh nog even en je videokaart heeft meer geheugen dan je computer. :+

Vraag me af wat het nut er nou van is uiteindelijk.
Je kan iniedergeval de slider van gta 4 op z'n hoogst zetten zonder de limitaties uit te zetten.
Goh nog even en je videokaart heeft meer geheugen dan je computer.
Valt wel mee, computers krijgen ook steeds meer geheugen. Met de Nehalem wordt 6 Gigabyte (3x2) al vrij snel standaard. Dan blijft je grafische kaart met 2GB daar toch op achter.

Trek het even terug naar vroegah. Toen had je 512KB fast mem en 512KB custom (grafisch en geluid) memory. En een flink tijdje later b.v. 512MB geheugen voor je CPU en zo'n 64 tot 128MB voor je grafische kaart. Deze 1792MB is dus fors, maar gezien het verleden zeker niet extreem.
Trek het even terug naar vroegah. Toen had je 512KB fast mem en 512KB custom (grafisch en geluid) memory.
Bedoel je misschien de Amiga 500? Die had standaard 512kB geheugen en kon uitgebreid worden met 512kB "slow RAM" via de trapdoor of 8MB "fast RAM" via het expansie slot. De buffers voor graphics en geluid zaten in het standaard geheugen.

link

[Reactie gewijzigd door Zigi_Samblak op 15 maart 2009 17:45]

Bedoel je misschien de Amiga 500? Die had standaard 512kB geheugen en kon uitgebreid worden met 512kB "slow RAM" via de trapdoor of 8MB "fast RAM" via het expansie slot. De buffers voor graphics en geluid zaten in het standaard geheugen.
Ja :), ik had bij het voorbeeld inderdaad de Amiga in gedachten, maar het geldt in principe ook voor andere computers uit die tijd (hoewel een aantal toen nog niet expliciet video geheugen hadden). De Amiga rond 1986/1987(niet alleen de 500) kwam met 512KB custom memory. De CPU kwam gewoon zonder eigen geheugen! Vandaag de dag niet meer voor te stellen, maar de CPU executeerde haar instructies toen volledig uit het memory voor de custom chips. Alsof je vandaag de dag een snelle Nehalem koopt waarbij de applicaties volledig in het RAM van je GPU staan :P

Vanwege het feit dat de CPU het geheugen moest delen, kon deze maximaal de helft van de beschikbare cycles pakken. Door de CPU eigen geheugen te geven gingen veel dingen een boel sneller. Dat geheugen werd dan ook al snel fast mem genoemd.

Oorspronkelijk was dus het 'video geheugen' zelfs oneindig veel groter dan het 'gewone' werk geheugen :P
Wat een raar getal. Je zou dan toch eerder 16 chips van 128MB verwachten zodat je aan de 2GB zit, mocht je in de toekomst ooit een programma hebben die 2GB vereist, dan kom je daar dus nét niet aan.

Is daar misschien een reden voor?
Ja, de GTX260 heeft een geheugenbus van 448 bit. 448/32=14chippies. Je krijgt daardoor nooit 2GB op een GTX260.
Edit: was ff in de war met de 8800GTX. Moest natuurlijk 448 bit zijn. Dank je VeniceX2.

[Reactie gewijzigd door jean willem op 15 maart 2009 13:53]

Je bedoelt 448 bit, 14x32 = 448
Voor zover ik het vinden kan, heeft de GTX 260 een geheugenbus van 448 bit i.p.v. 384 bit.
Ja heb je gelijk in! En stel dat er wel 2GB geheugen op zat, en je programma gebruikt minimaal 2GB , heb je ook te weinig :o.. zo kan je natuurlijk wel doorgaan. Op een gegeven moment zal het altijd te weinig zijn.. of je moet al zoiets hebben als MB... Maar weet niet of dat ooit mogelijk zal zijn :P, zal dan ook iets met FP zijn begrenst;)
jah ach ja wat maakt de onlogischehoeveelheid uit? tis tenminste behoorlijk veel das altijd mee genomen!!
hij ziet er in iedergeval strak uit!! alleen dit fannetjes zijn indd denk ik een zwak punt... maar dat is meestal toch bij grafische kaarten ik koop gwoon altijd andere fans (waterkoelingblokken) ervoor
Altijd meegenomen opzich, maar waarom zou je er extra voor betalen als je kaart dat geheugen waarschijnlijk nooit vol zal trekken? Denk niet dat deze kaart met geheugen sneller is dan een GTX295 of een GTX280.
Je betaal voor een kaart die een grotere runtime texture managing load aan kan.
interresant vooral voor extreme SLI en als je High-end kaart wat langer houd.
Dev's richten met hun max load van hun Texture manager op wat gang baar is.
Aangezien vroeger +/- ruim 3 jaar geleden, dit altijd een factor 2x is. Heb je nu veel meer variatie.

256 320 512 naar 768 naar 1GB
Extra tussen waardes.

Als een dev richt op 512. Houd in dat een GTS320 in zware setting de performance als een kaartenhuis in een valt tov GTS512.
Wat inhoud dat de 512 al sneller was maar het gat dan extreem groter wordt.
Volgens mij doen fabrikanten dit niet voor de beperkte extra performance. Het is misschien slimmer gezien dan het lijkt.
Wanneer mensen met een 'beperkte' kennis en een 'beperkt' budget op zoek gaan naar een nieuwe kaart komen ze meestal niet uit bij een highend kaart. Extra geheugen op mid-range kaarten plaatsen is goed voor de mooie getalletjes. En daar kicken mensen op: "Wow die kaart heeft dubbel zoveel geheugen, dan moet hij toch wel bijna dubbel zo goed zijn!" Het is en blijft gewoon een goede verkoopstruck. En het hoofddoel van een bedrijf is op de eerste plaats nog steeds winst maken en niet de beste kaarten maken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True