Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

DisplayLink zal op de CES een chip demonstreren die in staat zou zijn om videobeelden via usb 3.0 naar een monitor te sturen. De snelheid zou voldoende hoog zijn om hd-beelden soepel op een externe display af te kunnen spelen.

DisplayLinkDisplayLink stelt dat zijn chip de maximale doorvoersnelheid van usb 3.0 kan benutten, zo meldt PC World. Deze zogenaamde superspeed-modus behaalt een brutosnelheid van maximaal 4,8Gbps, tienmaal sneller dan de highspeed-modus van de usb 2.0-standaard.

De niet bij naam genoemde chip zou in de tweede helft van 2010 uitgeleverd kunnen worden en met name interessant zijn voor de fabrikanten van laptops en netbooks. Tegen die tijd worden ook de eerste chipsets van onder andere Intel verwacht waarin de usb 3.0-interface is terug te vinden. Het is echter de vraag of de fabrikanten van lcd-displays nieuwe beeldschermen compatibel zullen maken met usb 3.0; tot nu toe ondersteunt alleen Samsung usb-inputs voor videobeelden.

De firma DisplayLink is geen onbekende op het gebied van videochips. Zo maakt het bedrijf al enige tijd usb 2.0-interfacechips voor met name dockingstations en levert deze aan fabrikanten als Dell, HP, Lenovo en Toshiba. In 2009 produceerde DisplayLink 2,3 miljoen chips, terwijl dat er in 2008 nog 1 miljoen waren.

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (45)

Het inpluggen van een USB scherm heeft natuurlijk voordelen, zo kun je ook makkelijker meerdere beeldschermen aansluiten. De grafische kaart krijgt dan weer een heel andere dimensie denk ik.
Het inpluggen van een USB scherm heeft natuurlijk voordelen, zo kun je ook makkelijker meerdere beeldschermen aansluiten. De grafische kaart krijgt dan weer een heel andere dimensie denk ik.
Daar is de DisplayPort al voor bedoeld, die ondersteunt namelijk DaisyChain, oftewel:

Videokaart -> DisplayPort -> Monitor #1 -> DisplayPort -> Monitor #2 -> etc.

De bandbreedte ondersteuning is veel hoger met 8,64 Gbit/s dan USB3, dus hogere resoluties (of meerdere monitoren via DaisyChain) zijn mogelijk. De DisplayPort is tevens HDCP geschikt via DPCP v1.1+ (DisplayPort Content Protection) met 128-bit AES encryptie, zodat het afspelen van BluRay of andere DRM beveiligde media geen probleem is. Dat is een heel ander verhaal met USB3, die voorzover ik de huidige specificaties ken, daar geen ondersteuning voor heeft.

De ondersteuning voor DisplayPort is al vol in gang, Apple maakt er al gretig gebruik van en AMD/ATi heeft het nu ook standaard gemaakt voor de HD5000 series. Het wachten is op de massaproduktie vanuit e Asiatische bedrijven, zodat de prijzen snel zullen zakken. De actieve dual-link DisplayPort adapter van Apple is bijvoorbeeld nodig om van de AMD/ATi HD5000 DisplayPort gebruik te maken, en die kost nog steeds rond de 100 dollar.

De 8,64Gbit/s is genoeg bandbreedte voor 6 schermen in daisy-chain met 1920x1200 resolutie, en sinds de DisplayPort v1.2 standaard is er ook ondersteuning voor Stereoscopic 3D op 120Hz. Resoluties van 3840x2160 met een kleurdiepte van 30bits per pixel zijn ook geen probleem.

Zodra nVidia met hun Fermi/G300 kaarten komt zit daar hopelijk ook DisplayPort op, zodat de adoptatie veel sneller zal gaan. Ik vindt het persoonlijk jammer, omdat we uiteindelijk in de toekomst dan HDMI gaan verliezen voor de computer monitor aansluiting, terwijl het schakelen tussen TV en Monitor op dit moment transparant is, wat HTPCs zeer gemakkelijk maakt. Er zal altijd ondersteuning blijven natuurlijk, maar het zal 'extra' gaan worden, zoals ComponentHD was in de vorige generaties. Ik had dus liever een upgrade van HDMI gezien, maar royaltie kosten lijken aan de wieg te staan. DisplayPort is namelijk momenteel vrij van royalties, terwijl HDMI hier extra kosten voor in rekening brengt (4 cent per aansluiting). Dat zal vermoedelijk wel met adoptatie te maken hebben en zodra DP groeit, kan dat veranderen. Dat kunnen ze echter volgens mij dan alleen op nieuwere versies doen, de huidige v1.1, v1.1a en v1.2 zijn royalty-free.

@ari, DisplayPort heeft geen behoefte aan TrueHD/etc, geluid is onderdeel van de standaard, maar in de meeste gevallen is dat om de 2 speakers in een monitor aan te sturen. HDMI blijft natuurlijk in dienst voor A/V opstellingen. Daarom doelde ik ook dat het extra gaat worden. VGA, DVI en DisplayPort zijn voornamelijk gericht op computer monitoren. En S-Video, Component voornamelijk voor TVs. De HDMI standaard bracht eindelijk de computers en TVs samen, waardoor onderling wisselen gemakkelijk mogelijk is. Maar nu splitsen de computers zich weer langzaam af via DisplayPort. Omdat er echter een gigantisch aanbod is van monitoren en TVs op dit moment, zal de transitie langzaam gaan, maar uiteindelijk zal HDMI degraderen tot optioneel.

[Reactie gewijzigd door Ron.IT op 27 december 2009 04:07]

We gaan HDMI helemaal niet verliezen. Ik denk juist dat DisplayPort een langzame dood zal sterven. Het enige voordeel van Displayport is de iets hogere bandbreedte en zelfs dat is alweer achterhaald door de nieuwe HDMI 1.4 spec.

Verder heeft DisplayPort alleen maar nadelen t.o.v. HDMI: geen CEC, geen TrueHD transport, geen DTS-HD transport, geen DSD transport, geen xvYCC kleurprofiel ondersteuning, enz.

Kortom, geen toekomst voor DisplayPort.
Geen geluid is voor mij het grootste probleem. Ik heb zelf een MacBook dat ongeveer 1200 Euro kost en kan geen films op mijn tv kijken. Een laptop van een andere merk dat 500 euro kost kan dit wel via HDMI. Van mij kan DisplayPort zo snel mogelijk DOOD.
DisplayPort kan audio aan, Apple ondersteunt het gewoon niet. Onbegrijpelijk van Apple, maar heeft niks te maken met de DisplayPort spec.

DisplayPort heeft een aantal voordelen tov van HDMI - lengte van kabels, mogelijkheid om glasvezel te gebruiken (met of zonder Light Peak), daisy chaining, etc etc. Het is gewoon beter.
DisplayPort is nog niet doorontwikkelt, waar bij HDMI dit wel het geval is.
Ergo, er zit meer potentie in DisplayPort dan in HDMI.
Displayport biedt meer voordelen voor het aansturen van computerschermen, hdmi heeft weer wat voordelen voor a/v hardware (niet veel trouwens, voornamelijk meer audio support).

Voorlopig kan ik slechts 1 scherm per hdmi poort aansluiten en geeft hdmi geen analoog signaal door voor het nog regelmatig voorkomende geval dat je een vga scherm of beamer aan wilt sluiten, wat vooral voor laptops een nadeel kan zijn. Vandaar dat displayport voor veel toepassingen een geschiktere standaard is dan hdmi.
Het aansluiten op een gewone USB3-poort zal nooit doorbreken in eht high-end deel van de markt.

Simpele reden: bandbreedte van de PCI-e bus. Als eerst alles naar de grafische kaart moet worden gestuurd en terug door de PCI-e naar de USB-controller, verstikt de PCI-e gewoonweg.

Je kan natuurlijk een USB-controller op je grafische kaart zetten, maar dat is gewoon idioot, dan kun je beter zoals nu een dedicated videoaansluiting gebruiken.
Je bent blijkbaar niet helemaal bekend met DisplayLink. Zij verkopen namelijk een soort van videokaarten/chips die je via USB aansluit. Daar hang je dan weer een scherm aan. De videodata gaat dus rechtstreeks naar de USB-uitgang en daar wordt t verwerkt door de chip, vervolgens rechtstreeks naar het scherm.
Ik had ook zo'n displaylink dingetje, handig om een derde wat ouder schermpje aan te sturen.
Je kan natuurlijk een USB-controller op je grafische kaart zetten, maar dat is gewoon idioot, dan kun je beter zoals nu een dedicated videoaansluiting gebruiken.

hoezo is dat gewoon idioot? het is juist verre van idioot.. hoe fijn zou het zijn als je letterlijk alles kunt aansluiten via USB3, ofwel je hebt helemaal geen andere kabels dan meer nodig behalve de stroomkabel, en dus niet voor elke scheet een andere kabel zoals vroeger, nu is dat al behoorlijk beperkt tot: videokabel, toetsenbord/muis kabel, netwerkkabel, usbkabel, esata-kabel, firewirekabel.. toch veel makkelijker als je nog alleen maar 1 type kabel nodig hebt....
Jammer genoeg zijn niet alle kabels geschikt voor alle doeleinden. USB, als seriele bus, vereist dat signalen zoals video zwaar gemultiplexed moeten worden, of anderzijds ge-encodeerd. Dat compliceerd de hele boel veel meer dan een DVI kabel, waarbij er veel directer met de hardware gepraat kan worden.

Het is dus allemaal wel mogelijk, maar de individuele stukken hardware worden dan ook weer duurder omdat er meer chips in zitten en de software uitgebreider moet zijn.
hoezo is dat gewoon idioot? het is juist verre van idioot.. hoe fijn zou het zijn als je letterlijk alles kunt aansluiten via USB3, ofwel je hebt helemaal geen andere kabels dan meer nodig behalve de stroomkabel, en dus niet voor elke scheet een andere kabel zoals vroeger, nu is dat al behoorlijk beperkt tot: videokabel, toetsenbord/muis kabel, netwerkkabel, usbkabel, esata-kabel, firewirekabel.. toch veel makkelijker als je nog alleen maar 1 type kabel nodig hebt....
Het heet toch niet voor niets Universal Serial Bus? Sinds USB3.0 de snelheid kan halen van modernere backplane-bussen moet het prima mogelijk zijn om al die kabel-brij te dumpen en gewoon alleen USB-kabels over te houden.

De komst van USB1.0 en 2.0 heeft de desktop al een enorme boel opgeruimd, vroeger hadden we immers PS/2-kabels voor je toetsenbord, RS232-kabels voor je muis en modem, SCSI-kabels voor je externe HDD en CD-ROM drive, paralelle kabels voor je printer, en ga zo maar door.

Waar ik nog op zit te wachten is een universeel driver-model voor USB-implementaties, zodat elk 'identiek' USB-device van een andere fabrikant dezelfde functies presenteert. Nu is het zo dat ik voor een USB-geluidskaart van Creative een driver nodig heb, en voor een USB-soundkaart van Maya weer een andere (die 9 van de 10 keer niet bij je OS zitten). Als ze allemaal hetzelfde high-level protocol gebruiken dan ben je in één keer van dat gezeur af, hoe dat protocol dan in low-level hardware gerealiseerd wordt is de zorg van de fabrikant.
Maar gelukkig ontwikkelt technologie zich razendsnel zoals je weet, en als in toekomstige systemen zo'n high-end USB 3.0 chip komt, dan zal men ook wel een PCI standaard updaten of vervangen door een beter alternatief. Ik verwacht ook niet dat oudere pc's mits een usb 3.0 pci-kaart zullen kunnen upgraden
Daar zit je toch naast, de gegevens worden namelijk *niet* eerst naar de reeds aanwezige grafische kaart gestuurd. Je kan deze dingen ook gebruiken zonder graka of any kind, zo heb ik dus een 7-something inch beeldschermpje aan mn server hangen als ik moet debuggen oid.

DisplayLink chips zijn grafische kaarten opzich, simpele 2D framebuffer, dat wel, maar een zelfstandige unit none-the-less.
verstikt de PCI-e gewoonweg.
Waarom?
De hdmi/vga/dvi-poorten zitten aan de de grafische kaart van de pc. De data gaat over de PCI-e bus naar de grafische kaart, die de data verwerkt en dan via één van de hiervoor genoemde poorten naar één of meerdere beeldschermen stuurt.

In het geval van USB moet de data over de PCI-e bus naar de grafische kaart die de data verwerkt en dan over diezelfde PCI-e bus terugstuurd naar de USB-controller die het beeldscherm aanstuurt.

De PCI-e bus heeft dus 2 keer zoveel data te verwerken.
edit:typo

[Reactie gewijzigd door Polbeer91 op 26 december 2009 16:06]

Onjuist, de chip van DisplayLink die in de monitor zit IS de videokaart. De PCI-e bus krijgt helemaal niets te verwerken. Het grote nadeel is dat 3D dus absouut niet gaat, en full-screen flash of full-HD video ook voor de nodige problemen kan zorgen
Net als bij USB audio apparatuur, waarbij de (geintegreerde) audio hardware van de computer zelf nooit word aangesproken, enkel de hardware in het apparaat zelf.
Hierdoor moet alles via de USB controller en CPU worden berekent, wat vaak voor prestatieverlies en slechte kwaliteit zorgt.
Net als bij USB audio apparatuur, waarbij de (geintegreerde) audio hardware van de computer zelf nooit word aangesproken, enkel de hardware in het apparaat zelf.
Hierdoor moet alles via de USB controller en CPU worden berekent, wat vaak voor prestatieverlies en slechte kwaliteit zorgt.
Dat staat toch niet als dusdanig in de USB specificatie? Een 'dom' apparaat maken (zoals de old-school softmodems) is makkelijk voor een hardware-fabrikant, maar een USB-apparaat is niet vereist zich 'dom' te gedragen. Video-data en 3D geometry over USB naar zo'n DisplayLink-chip sturen lijkt me geen probleem, als het ding even snel is als een PCIe of zelfs een AGP 8x-bus, dan zit dat met de snelheid wel goed. De latency zal er misschien wat onder lijden (sinds interne devices sneller bij het geheugen kunnen via DMA).
Met zo'n USB Bus waar een hoop andere apparaten op hangen, introduceer je dan niet een hoop latency in je systeem waardoor het beeld weer achter loopt op het spel of is dat te verwaardelozen ivm de huidige DVI en HDMI poorten?
Er zijn ook USB DAC's die heel veel beter zijn dan vrijwel alle geïntegreerde DAC's op moederborden. Zowel voor geluidskwaliteit als CPU belasting.

Als de chip aan de andere kant maar goed is; dat zal voor DisplayLink ook gelden.
DisplayLink zal op de CES een chip demonstreren die in staat zou zijn om videobeelden via usb 3.0 naar een monitor te sturen.
Het wordt dus door de chip verstuurd door een usbkabel, hieruit maak ik toch echt op dat die chip in of op je moederbord moet zitten of dat er een losse pci(-e) kaart nodig is ;) (anders stond er wel 'ontvangen' ipv 'sturen')

[Reactie gewijzigd door watercoolertje op 27 december 2009 00:33]

nou niet 2x. een framebuffer is niet erg groot.
en dat is alles wat verstuurd moet worden.
terwijl er textures 3d data etc naar de graka verstuurd wordt.
dus bij lange na niet 2x zoveel.

ik denk dat het een relatief kleine impact zal hebben op de performance
eerder is de vraag hoe de kwaliteit van het beeld lijdt onder de (waarschijnlijk toegepaste) compressie.

al kan ik me voorstellen dat deze snelheid genoeg is voor 60fps uncompressed full hd.
Ik heb er niet erg veel verstand van, maar kan je uitrekenen hoeveel data er voor full HD over de bus moet naar de USB chip? gokje:

1920 x 1080 x 3 x 60 / 1024 / 1024 = 355 MB / sec
Ik ben lui ik doe het makkelijker :p
heb een fullhd filmpje op m'n pc staan.
9 027 Kbps > dit is audio&video bij elkaar in. 320Kbps zou al redelijk hoge kwaliteit zijn voor audio, dan kun je dus ongeveer inschatten wat er nog overblijft voor video.
1920 * 1080 * 25 = 51840000 bits
resolutie*fps=bandbreedte in bits!
51840000 / 8 / 1024 / 1024 = 6,1798095703125 MByte/s
Je rekent stiekem wel heel veel compressie mee.

Een 6MB/s (48MBit/s) HD videostream werkt prima als je het MPEG-2 comprimeert, maar voor 'rauwe' video-data is dit veel te weinig.

Nu zal dat voor afspelen van video (USB-poort op je TV) niet veel uitmaken, sinds het ding vast een MPEG-2 decoder chip aan boord heeft. Maar voor games maakt het wel een verschil, en je zal best framedrops krijgen.

Een Full HD, 32-bit-per-pixel videostream op 50fps (beetje acceptabele game-snelheid) is 1920x1080 x 4 x 50 = 417,720 MiB per seconde, en dat is zonder packet-overheads. Je zal dus al een aardige lijn nodig hebben om dát te kunnen verstouwen.

MPEG-2 encoding on-the-fly in de GPU is trouwens nog altijd een optie, dan haal je een behoorlijk stuk van je bandbreedte af (en lukt het zelfs nog over USB 2.0). Je beeldkwaliteit gaat dan omlaag naar ongeveer het niveau van een Blu-Ray Disc.
Dat kwaliteitsverlies lijkt me onacceptabel. Blu-Ray is zó 2009, en het is al bijna 2010 :P

Op naar de ongecomprimeerde videoformaten!

[Reactie gewijzigd door Katsunami op 27 december 2009 02:17]

Op naar de ongecomprimeerde videoformaten!
Jij hebt een TV ter grootte van een voetbalstadion, of kijk je TV met een vergrootglas?

Als je in een bioscoop een 35mm-projectie en een BD-projectie naast elkaar zou draaien, zouden 9 van de 10 lui het verschil niet zien (terwijl 35mm in principe een ongecomprimeerd, lossless formaat is met bijna eindeloze resolutie, tot aan de filmkorrel). Dat is voor mij acceptabel genoeg :)

Je moet ook even niet vergeten dat je wel enorm veel resolutie of detail aan kan brengen, maar het detail op een gegeven moment zo klein wordt dat je oog het ook niet meer waar kan nemen. Een mug op 100m afstand kun je immers ook niet zien.
je vergeet dat dit een zwaar gecomprimeerd signaal is wat je nu aangeeft.
en dat is niet wat je videokaart uitzendt.
je monitor kan dit namelijk niet decomprimeren,
plus dat je kwaliteits verlies hebt
en compressie kost ook tijd etc etc

355 mb lijkt wel vrij aardig te kloppen.
en dat is op een pcie bus bijna niets.
dus tenzij je 6 schermen op wilt hangen lijkt dit me geen probleem.

[Reactie gewijzigd door freaq op 26 december 2009 18:27]

ik weet niet wat jij uitrekent, maar ovolgens mij is het meer iets als:

1920 *1080 * 32 *24 /8 /1024 /1024 = 197MB/s

maar 25 fps voor een desktop lijkt me een beetje laag, dan zie je zelfs je muis haperen, dus het dubbele lijkt me geen onnodige luxe....
En niet alleen voor monitoren maar ook voo projectoren mss.
Gewoon straks een usb aansluiting op je videokaart, niks geen omleiding. Kun je al je randapparatuur via 1 usb in de monitor aansluiten .... :) Inclusief de monitor.
Volgens mij kan dat straks via DP of HDMI ook.
Moeten ze je wel gaan uitleggen welke USB poort je moet nemen. Zorgt voor verwarring, moet je je voorstellen dat al je poorten USB worden maar allemaal andere functies hebben, hoe ga je dat ooit uit elkaar houden.

Ik denk niet dat dit het gaat worden. Er zijn veel betere technieken om beeld te versturen dan USB. Draven we niet een beetje door met USB? Het is handig maar heus niet alles moet een USB aansluiting hebben.
Ze hebben het niet voor niets Universal genoemd.
En hoe zit dat dan met het gebruik van een USB hub?
Als je via usb een hd film aan het kijken bent, dan blijft er toch niets meer over voor de randapperatuur?
Met een constante stroom van 4,8 Gbit/s heb je genoeg ruimte voor een mager HD signaaltje lijkt mij.

Even rekenen:

Een HD signaal van 60fps op 1920x1200 op 24bit kleurtjes kost dus zonder compressie of meta-data (headers, signaal informatie, foutcorrectie bitjes, etc):
1920 * 1200 * 60 * 24 bits / seconden, wat neerkomt op een ongelovelijke ~3.2Gb/s aan data -zonder compressie. (3'240'000'000 bitjes per seconde)

Dat signaal kost meer bitjes dan verwacht. Hoop wel dat er compressie met die signalen gebruikt wordt, want anders houd je inderdaad geen bitjes over voor overige apparaten, tenzij de videokaarten een eigen usb controller meekrijgen natuurlijk. -maar dan nog kan je maar 1 monitor gebruiken op die resolutie.

[Reactie gewijzigd door Gamebuster op 26 december 2009 16:46]

4.8 gbits is het maximum en 3.2 is nodig
dat is dus ruim genoeg.

en met lichte compressie kan dat nog ver opgerekt worden.
(al is dat niet echt wenselijk.)
Een groot nadeel van USB is dat de afhandeling van het signaal door de CPU moet gebeuren (itt bijv. FW die zelf de afhandeling aan kan). Daardoor vind je in de praktijk altijd maar de helft van de beloofde snelheid terug.
Als ik het rekenvoorbeeld van Gamebuster hierboven bekijk dan wil dat zeggen dat maximaal bij de resolutie in het voorbeeld 40 fps gehaald kan worden (nog steeds een goed beeld overigens), maar dat er dan ook niets meer voor andere appartuur over die aansluiting overblijft.

Als je nu grote hoeveelheid dat gaat versturen via je USB, dan gaan allerlei zaken die nu door je grafka afgehandeld kan worden via de CPU gebeuren. Dit kost dus ook weer de nodige performance van je systeem.

Ik denk dat dit een mooi iets is om incidenteel apparatuur op een alternatieve manier aan te kunnen sluiten, ik denk alleen dat de echte die-hard gamers, in een vaste opstelling, hier minder gecharmeerd van zullen zijn.
Dit klopt voor USB1.1 en USB2.0, maar klopt dit ook voor USB3?
Eigenlijk lijkt me die hele ontwikkeling van "alles op één aansluiting" helemaal niet zo wenselijk. Dat een koffiewarmhoudmok via usb in je videokaart past wil niet zeggen dat dat goed of wenselijk is ? Nu is 't duidelijk: audiokabels voor audio, DVI/HDMI/VGA kabels voor beeld en USB voor de rest. Straks steekt iemand z'n beeldscherm in de front-usb, en zich dan maar afvragen waarom er geen beeld uitkomt. of je wil je camera leeghalen, maar je beeldscherm slurpt alle bandbreedte op de controller al weg :(
Daar heb je helemaal gelijk in, het is al jaren zo dat aansluitkabels andere connectors en kleurtjes hebben om te voorkomen dat iemand iets totaal verkeerd aansluit, dat het niet werkt of zelfs beschadigt, en zelfs de fabrikant de schuld scheeft.
hm als het hdsignalen kan versturen, gebruikt het dan ook hdcp, of is dit een manier om dat te omzeilen?
Ik zie het idee niet helemaal. De U in USB staat voor "universal", waardoor iedere host-implementatie dezelfde mogelijkheden moet bieden. En wat gaan ze nu doen? Een extra "standaard" ernaast bedenken die weer net niet overal werkt.

Het idee van USB is dat je er iets inprikt en dat het, met de juiste drivers (of soms zelfs dat nog niet eens), gewoon altijd werkt. Netwerk over USB heeft een speciaal iets nodig ja, maar dat zit in de USB-device, en niet in de host. Dat geldt ook voor de bandbreedtehongerige mass storage standaard.

Waarom nu weer iets specifieks? Iets dat we eigenlijk ook al hebben in de vorm van HDMI?
En toch lijkt me deze chip vrijhandig, misschien iets voor die kleine draagbare dvd-spelertjes?

[Reactie gewijzigd door Leetness op 27 december 2009 01:42]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True