Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 82 reacties

Bij de Titan X-kaart heeft Nvidia naar verluidt alle 3072 cores van de GM200-gpu geactiveerd. Net als bij de Titan Z, is de komende kaart van 12GB gddr5-geheugen voorzien. Ook zijn de vermeende kloksnelheden van de Titan X online verschenen.

De GM200-400-gpu van de Titan X zou beschikken over zes gpc's met elk 4 smm's. De 24 smm's zorgen voor een totaal van 3072 cuda-cores. De hoeveelheid tmu's en rastereenheden bedragen respectievelijk 192 en 96. De gpu communiceert met het geheugen via een 384bit brede bus en de bandbreedte zou op 336GB/s uitkomen.

De kloksnelheid zou 1002MHz bedragen met een Boost-kloksnelheid van maximaal 1089MHz. De kloksnelheid van het geheugen bedraagt 1753MHz, effectief 7GHz. Dat claimt het doorgaans betrouwbare VideoCardz.

Of de tdp 250W gaat bedragen zou nog niet helemaal zeker zijn en ook de prijs van 999 dollar is onbevestigd. Nvidia kondigde de Titan X begin maart aan maar noemde toen nauwelijks specificaties.

Nvidia Titan X

Moderatie-faq Wijzig weergave

Reacties (82)

En toch snap ik die prijsstelling niet. Het aantal mensen dat voor 999 euro een videokaart haalt ligt natuurlijk niet erg hoog. De marge die Nvidia op zo'n kaart pakt zal wél hoog liggen. Dus waarom niet 200/250 euro eraf, zodat deze netjes boven de GTX980 wordt gepositioneerd, in plaats van bijna twee keer(!) erboven?
ik denk dat de marge juist heel laag is, lees nihil, wat denk je hoeveel ontwikkel kosten erin zit?
hoeveel kaarten moeten ze wel niet weggooien die de specs simpel weg niet halen?

een bugatti veyron kost ook geen 2 miljoen aan onderdelen, maar het ontwikkelen om er te komen kost zo belachelijk veel dat dit de prijs bepaald.


en maak je er miljoenen van zoals een 7990 ati of een 980 nvivdia, heb je relatief gezien meer marge per videokaart.
De snelste videokaart hebben is niet alleen prestige voor de gamer die het koopt, maar ook voor het bedrijf die het maakt, erg belangrijke prestige die direct vertaald kan worden naar marketing en omzet cijfers. Ik vermoed, net als itlee, dat de kosten voor elke Titan kaart vrij hoog liggen en ook gelimiteerd worden door de kwaliteit van de GPU yield. De Titans moeten grondig getest worden op performance, want het is het parade paartje van Nvidia, dat kost redelijk wat geld en alle tussen lagen moeten er ook geld aan verdien: Nvidia => Producent => Distributie => Winkel

Ontwikkelkosten worden natuurlijk verspreid over het hele bedrijf en afgeschreven over meerdere jaren, want niet alleen de Titan heeft baat bij de ontwikkeling van de Titan, volgende projecten hebben daar ook baat bij. Daarom spreek je over het algemeen niet over winst op een product maar winst van een bedrijf omdat er zoveel meer kosten zitten in het runnen van een bedrijf.

edit: baad => baat

[Reactie gewijzigd door Cergorach op 16 maart 2015 16:02]

Het is denk ik meer voor de wetenschappelijke wereld en mensen die renderen.
Daar hebben ze al de Tesla en Quadro voor.
Hoewel deze Titan X natuurlijk afgeleid is van de GM200 die vooral voor die markten ontworpen is.
De titan-x is gewoon een End-User kaart die voortgekomen is uit een ander product. Namelijk een Tesla | Quadro | Kxxxx kaart. Hier is wel degelijk markt voor namelijk voor VDI technology met ESXi. d.m.v. VMDirectPath in ESXi. Dus de ontwikkelkosten zijn betaald voor de VDI markt-ontwikkeling. Als je de Kxxxx kaart vergelijkt met de Titan dan scheelt het niet meer dan een andere ROM en selectie weerstandjes op de PCB die het "Device-ID" bepalen.

[Reactie gewijzigd door toet-toet op 16 maart 2015 12:26]

Vergeet niet dat de GeForce divers van de Titan niet gecertificeerd zijn waar de drivers van de Quattro en Telsa series dat wel zijn. Het certificeren van drivers voor zakelijke programma's kost ook aardige duit.

Hoewel de GeForce kaarten niet gecertificeerd zijn voor Photoshop, heeft deze echter geen enkel probleem om deze te gebruiken voor GPU acceleratie. Omdat dergelijke applicaties ook geen SLI/CF support nodig hebben, ben je ook niet gelimiteerd tot 4 GPU's per machine. Zolang je zelf via bijv. OpenCL de GPU aanstuurt, heb je niet te maken met de 'beperkingen' van SLI/CF drivers.

De GTX980 en Titan kaarten worden vaak als budget Tesla kaarten ingezet..
Offtopic:
Bugatti verlies ruim 4 miljoen euro op elke auto die ze bouwen.
http://www.autoblog.nl/ni...de-autos-uit-europa-61969

linkje dr bij... stond dr wel even van te kijken.. waarom nog die auto maken zou je dan denken!
Off-topic:
- Omdat het kan
- omdat je wil laten zien dat je de beste bent (zeker in die tijd).

Er zijn auto's die sneller zijn, die duurder zijn, die comfortabeler zijn, maar toen dit ding oorspronkelijk uitkwam was die op alle gebieden omgeevenaard.
Wat Joris idd zegt. En laat dat nou volgens mij precies de reden zijn dat nVidia deze kaart bouwt. "om de beste te zijn" ..

Waarom heeft Kawasaki de H2R motorfiets uitgebracht met 325 pk? Geen ziel die het zonder tractiecontrol zinnig op het asfalt krijgt; tot je realiseert dat zowel Yamaha als BMW als Ducati een gooi doet naar "de beste snelste vuurpijl op 2 wielen"...

PR waarde wil ook wat....
Je kan als auto-merk op twee manieren laten zien wat je kan:

1. Je begint een raceteam in F1/Rally/Dakar enz. enz.
2. Je zet een auto op de markt die op bepaalde punten beter is dan alle productieautos die op dat moment op de markt zijn.

Beide opties kosten capitalen, En de Veyron had als voordeel dat hij goede reclame was voor heel de VAG waar een raceteam maar voor een merk reclame maakt.
Want Jan Alleman op straat weet dat Bugatti van VAG is?

Zijn er daardoor meer golfjes verkocht? Dat denk ik niet..
Veyron, technisch hoogstandje.. maar meer onder de noemer van we doen het omdat het kan en niet omdat het iets gaat opleveren.
Wie dat niet weet behoort niet tot de doelgroep.
Dat heb je mooi gezegd. Ze maken die auto dus inmiddels ook niet meer. Sterker nog de productie is al in 2011 gestopt.

http://www.autoblog.nl/ar...on-is-nu-echt-uitverkocht
Op elke verkochte Veyron word flink verlies gemaakt. Op elke verkochte auto worden 7 cijfers verlies gemaakt.

Betreffende de kaart, ik betwijfel dat ze dit model op de markt zullen brengen als de yields op de GPU slecht zouden zijn.
Als er echt veel afval is dan is het onwaarschijnlijk dat ze het weg gooien maar voor een ander model of voor een OEM only model gaan gebruiken.

Daarnaast zullen de ontwikkel kosten meevallen.
De maxwell architektuur word al een tijdje gebruikt en loopt op zijn einde.
Daarnaast komt er ook nog een Quadro met dezelfde specs.
Ik snap sowieso niet waarom mensen nu nog een grafische kaart halen zoals deze, over enkele maanden krijgen we de eerste kaarten met stacked ram en dan is de memorybandwith bijna gelijk het dubbele van wat deze Titan heeft.
Zo'n vaart zal dat niet lopen, met kleine stapjes is meer geld te verdienen.
Als ik de cijfers lees van memory bandwith bij stacked ram dan zullen er denk ik geen echte baby stapjes zijn.
Vergis je niet in hoe triviaal hardware-kosten zijn voor bedrijven wanneer rekentijd in uurloon kan worden omgezet, zoals bijvoorbeeld allerlei simulaties. Dat effect is nog sterker wanneer bedrijfscritische processen zoals beurshandel of procesbeheer ondersteund worden door dit soort hardware.
Ze willen er niet veel van verkopen. Je moet het meer zien als een uithangbord van kijk wat wij kunnen. Als je de snelste videokaart hebt verkoop je vaak ook meer kaarten in de andere segmenten ookal zijn die prijs/prestatie technisch niet de beste keuze voor dat segment.

En ik was verbaast hoeveel mensen de originele Titan gekocht hebben het waren er veel meer dan ik dacht. nVidia gebruikt deze chips liever voor de Quadro of Tesla kaarten daar zit nog meer marge op.
er zijn ook geruchten over een gm200 based GTX980 TI met 6gb vram, hopelijk is die wat vriendelijker geprijsd
Wanneer, op welk event wordt de Titan X nu deftig aangekondigd?
Tussen de 999 dollar en 599 dollar komen "imperfecte" GM110 chips met uitgeschakelde shaderblokken. Dan spreek je denk ik over de GTX Titan/GTX 980Ti.
Ik verwacht zelf ook nog een kaart boven de Titan X. nVidia kennende breng de Titan X uit met één uitgeschakelde unit van shaders. De perfecte chips komen dan in de vorm van een Titan X black.
Als dit niet zo is en de prijs is 999 dan concludeer ik daaruit dat nVidia de yields erg goed onder controle heeft.

[Reactie gewijzigd door Maulwurfje op 16 maart 2015 21:40]

natuurlijk kost dit aan het begin 1000 dollar / euro.
Dit is puur Economy 101 -> het afromen van de markt.

Je brengt een nieuw product in de markt voor een (veel te hoge) prijs. Na een kwart of half jaar verlaag je de prijs, en een half jaar later weer... en op ieder prijspunt verkoop je er meer producten. Hiermee verzeker je de meeste opbrengst.
Natuurlijk zou je de kaart op de markt kunnen brengen op een lager prijspunt en dan verkoop je er in eerste instantie meer, maar de totaal opbrengst zal dan lager uitvallen.
Leuke kaart, maar een gemiddelde gamer heeft zoiets niet nodig. Kan zo snel ook geen markt bedenken waar zo'n kaart nuttig is. Of is dit meer in de categorie "omdat het kan"?
wat dacht je van wetenschappelijke berekeningen (bijvoorbeeld heel veel parallele matrix operaties voor simulaties), of ingewikkelde 3d rendering, etc Ik kan me genoeg toepassingen voorstellen waar je liever meer dan minder rekenkracht hebt :)
Voor die doelgroep hebben we toch de Quadro's van nVidia? Of is dat ondertussen ook alweer achterhaald? Of is deze kaart bedoeld om in deze categorie te schalen?

[Reactie gewijzigd door Mopperman op 16 maart 2015 10:00]

Quadro kaarten zijn vooral interessant voor CAD en rendering. Voor wetenschappelijke berekeningen zijn kaarten als de Titan X ideaal. Binnen onze onderzoeksgroep (medische beeldverwerking) hebben we meerdere Titan kaarten die constant bezig zijn met het trainen van neurale netwerken (deep learning).
De K serie is ook erg interessant voor VDI. Ofwel bv VMDirectPath in ESXi. Je kan dan bv een Cad afdeling iedereen een afgesplitste hoeveelheid van de Kxxxx videokaart toekennen of on-demand (dynamisch) wanneer nodig verdelen naar de virtuele werkplek die het meeste nodig heeft. Als je dan naar deze Kxxx kaarten kijkt zijn ze juist helemaal niet duur omdat juist VDI bij CAD enorm TCO verlagend is.
Maar een Titan kan je overigens ook gewoon omtoveren naar een Kxxxx door er gewoon wat weerstandjes vanaf te halen ;-)

[Reactie gewijzigd door toet-toet op 16 maart 2015 12:17]

Ik verwacht dat dit meer dan 1000 euro gaat kosten, in dat geval dus niet interessant voor de normale gamer.
Heel interessant voor de gamer.. Als prijs in een contest ofzo..

Ook veel youtube gamers zullen deze kaart in huis nemen om het komende jaar weer vlotte 60fps video's online te zetten van de nieuwste games. De meesten zitten nu al met een titan te werken (bv totalbiscuit aka the cynical brit)..

Voor de gemiddelde gamer is deze kaart te duur natuurlijk, maar nVidia zou ze niet uitbrengen als er geen markt voor bestaat...
Denk bv ook aan pro-gamers, die willen ook geen beeldje missen... En in combinatie met die nieuwe monitors met nVidia chip erin zullen er wel pro-deals verschijnen voor die markt..
En het is natuurlijk ook prestige, heb je geld als water, dan kun je zoiets makkelijk aanschaffen en het is stiekem natuurlijk wel cool zo'n dikke kaart in je PC te hebben zitten.
Interessant voor een gamer? Serieus?

Deze kaarten zijn juist niet (per se) bedoeld voor gamers. Een gamer heeft veel meer aan een GTX980(Ti?) dan aan een Titan Z/X.
Een Titan Z/X is vele malen interessanter voor GPGPU berekeningen.

De enige reden dat Totalbiscuit deze kaart heeft is omdat hij naast het gamen ook veel video's maakt e.d., dan is de grote hoeveelheid VRAM fijn.

Lees deze review eens door, van Hardware.Info.
Daarin kom je o.a. deze quote tegen:
De door de Titan-Z geleverde rekenkracht is primair voor wetenschappelijke doeleinden bedoeld, maar het is natuurlijk ook nog steeds een kaart die geschikt is voor 3D-gaming.
Wat betreft je opmerkingen over gamen met deze kaart: leuk, maar zal niet veel gebeuren. Deze kaarten (Titan Z/X etc.) zijn primair bedoeld voor wetenschappelijke doeleinden.
Denk bv ook aan pro-gamers, die willen ook geen beeldje missen... En in combinatie met die nieuwe monitors met nVidia chip erin zullen er wel pro-deals verschijnen voor die markt..
En dit is gewoon grote onzin, want voor de prijs die een Titan X kost, koop je ook al makkelijk een of twee GTX980's of GTX970's. En daarbij heb je dan ook nog eens meer FPS en betere prestaties, tenzij het op GPGPU berekeningen aankomt ;).

Psssst, wat betreft die monitors met nVidia chips: als dat goed werkt heb je zelfs aan een GTX760 genoeg om vloeiend te kunnen gamen, zoek het principe eens op, daar heb je echt geen dure kaart voor nodig ;).
Beetje OT, maar totalbiscuit draait al een tijdje dual 980's naar mijn weten D:
ik heb in verschillende van zijn filmpjes gezien dat hij met een titan gamede; terwijl hij de gfx-instellingen van het game overloopte kon je dat zien...
het kan zijn dat hij nu met dual 980's werkt, maar ik kijk niet alle filmpjes van hem dus het kan zijn dat hij inderdaad weer is overgeschakeld...

Btw; de meeste 'professionele' gamers die capturen op een een aparte pc het beeld middels een capture-kaart (ze spelen dus met het beeld via mirroring op 2 monitors, dit kost geen extra cpu/gpu kracht)

dit omdat ze met een capture kaart rechtstreeks kunnen comprimeren en omdat er ook geen cpu cycles zouden verloren gaan of dat de een game tijdens het datastreamen achter gaat lopen (hickups) omdat de sata-bus al volloopt door de data die heel de tijd weggeschreven wordt.
Review zullen het moeten uitwijzen, maar bijv. 4K gaming of (semi) professioneel gebruik, aangezien de double precision performance van titans normaliter niet geknepen is, wat ze beter maakt voor zaken als 3D rendering dan normale Geforce modellen.
semi) professioneel gebruik, aangezien de double precision performance van titans normaliter niet geknepen is, wat ze beter maakt voor zaken als 3D rendering dan normale Geforce modellen.
Kijk, dat wist ik nog niet :) Weer wat geleerd! _/-\o_

[Reactie gewijzigd door Mopperman op 16 maart 2015 10:48]

Fp64 / double precision boeit niet voor de meeste gpu 3d render apps.
Nou, voor 3D modeling bedrijven is het wel zeker interessant, of andere bedrijven die veel grafische kracht nodig hebben..
En dit is dus ook niet bedoeld voor de gemiddelde gamer, hell zelfs een kaart van 400 euro is niet eens bedoeld voor een gemiddelde gamer...
Voor mensen met te veel geld en die willen gamen op 3 uhd schermen met ren 2-3 way sli setup
De gemiddelde gamer die op 4k wil gamen misschien? Heel eenvoudig om hiervoor een markt te bedenken.
Leuke kaart, maar een gemiddelde gamer heeft zoiets niet nodig. Kan zo snel ook geen markt bedenken waar zo'n kaart nuttig is. Of is dit meer in de categorie "omdat het kan"?
De kaart is dan natuurlijk ook niet bedoeld voor de "gemiddelde" gamer, maar voor de spaarzame veeleisende gamer die geld teveel heeft, en daar is die kaart dus nuttig voor. Dus die opmerking is eigenlijk een beetje 8)7 .
En gezien de gemiddelde scores van zelfs de beste Graka's van dit moment bij 4K resoluties of zelfs 2560*1440 resoluties, is er nog genoeg ruimte voor verbetering, dus zullen er vast wel ergens kopers voor te vinden zijn.
Gemiddelde gamer niet, maar wel:
iemand met 144hz 1440p scherm
iemand met een 4k scherm
iemand met 3 1440p schermen
Een 4k scherm heeft zoveel power ook niet nodig. En 144hz of 3x 1440p schermen zijn nou ook zeldzaam bij gamers, dat is meer "engineering" stuff, waar ze dan weer de Quadro's gebruiken.
4k heeft al wel redelijk die power nodig. De huidige 'bakbeesten' van kaarten komen (hangt van het spel af natuurlijk) maar op de hogere settings soms de 30fps nog niet voorbij op 4k.

Aangezien 4k resolutie over HDMI al 'problemen' kan geven om uberhaupt 60hz te krijgen was dat nooit zo'n heel erg problem, maar met de nieuwe hdmi 2 standaard en zo komt 4k-60hz toch echt in zicht, en de power die nodig is om te renderen gaat toch echt expantioneel omhoog als je de resolutie opkrikt.

En 144hz is juist gemaakt voor gamers, zeker geen engineering stuff. Hetzelfde als 3x 1440p, dat is toch gekomen voor die racegames en zo? AMD Eyefinity?

Wat mij _persoonlijk_ betreft hoeft 4k nog lang niet en 3 schermen lijkt me ook veel gedoe voor weinig gain... maar 120hz en 144hz begint toch meer en meer naar 'standaard' te gaan in gamer-land... ik zou ook echt niet zonder mijn 120hz scherm willen, en die is toch echt al een paar jaar oud.
niet vergeten VR.. dat is de reden dat ik een pc kopen uitstel.
VR vraagt hoog resolutie en FPS.
ik denk ook dat 1 van de reden is waarom oculus een tijdje wacht zodat er hardware is die de gemiddeld aan kan en betaalbaar is.
Ik denk dat u de vereisten om op 4k te gamen onderschat:
http://www.guru3d.com/art..._3_way_sli_review,25.html
Zeldzaam in Nederland misschien, maar niet zeldzaam genoeg, het is de moeite waard om zo'n kaart uit te brengen.

Daarbij, ik heb een 144hz 1440p scherm, net als alle andere mensen die je hier kan vinden.

Edit: typfout

[Reactie gewijzigd door ManIkWeet op 16 maart 2015 10:30]

Battlefield 4 op ultra op 4K heb je wel degelijk zo'n kaart nodig.. 4K gaming klinkt leuk, maar is (met alles aan) op dit moment nog gewoonweg niet goed te doen...
Wat dacht je van 3d rendering ala Maya of Blender?
Dat is dus anderhalf keer zoveel cores als de GTX 980. Ik weet niet voor hoeverre dat lineair gaat, maar dat zou dus theoretisch op anderhalf keer de prestaties van de 980 neerkomen. Best indrukwekkend.
Niet echt liniar maar toch wat sneller ;)
https://forum.teksyndicat...93/4ba9dceeac_702x550.png

[Reactie gewijzigd door ChrisdeW op 16 maart 2015 10:03]

Ik zou het eerder schatten op 30-40%, ook gezien de lagere kloksnelheid. Maar ligt er natuurlijk ook maar aan of je het vergelijkt met een reference 980 of een overgeklokte versie. En uiteraard is de CPU vaak ook een beperkende factor.
Ook is het natuurlijk afwachten wat de overklokprestaties zijn van deze kaart. Maar het is veelbelovend. In ieder geval indrukwekkender dan de eerste Titan. Maar het blijft natuurlijk relatief (te) veel geld.
Dit is niet interessant voor gamers maar wel heel erg interessant voor mensen die met CUDA of OpenCL allerlei mooie applicaties maken voor bijvoorbeeld wetenschappelijk onderzoek. Hier heeft NVidia al de Tesla verianten voor maar meestal zijn dit soort kaarten wat goedkoper.
Wel natuurlijk voor een highend gamer...
Dit overprice ding is voor gamers gemaakt met een 1k budged, maar overlapt ook naar de pro markt. Titan zijn de gamer top kaarten en lowbudged pro.

Een kaart die markten overbrugt.

Dat men DP full enable maakt het niet minder geschikt voor games. Eerder extends naar andere markten.
Even wachten tot Nvidia 500 Cudacores deactiveerd en hij onder de noemer GTX 990 of GTX 980 ti op de markt komt voor 500/600 euro. :+

Titan is altijd een de cashcow geweest en voor de normale gamer niet echt interessant kwa bang/buck, Voor ander doeleinden misschien wel.

[Reactie gewijzigd door ChrisdeW op 16 maart 2015 10:04]

Als ze de vorige lijn doorzetten, zullen ze voor een Ti versie geen cores deactiveren, maar wel het geheugen weer omlaag brengen. En de double precision uitschakelen.
Voor mine is het wel heel leuk natuurlijk, dan zijn de cuda core wel handig :D
Bedoel je minen? Als in - bitcoin/altcoin? Toegegeven, het is een tijdje geleden dat ik me daar veel mee bezig heb gehouden, maar dat was altijd een drama op CUDA - vandaar dat iedereen aan de AMD kaarten zat. Minen op Nvidia kaarten was vrijwel altijd geldverlies. Zit dat nu anders?
Dat zit nu wel anders ja, de cuda miners zijn van goede kwaliteit, vooral op X13 coins werken ze volgens mij zelfs beter dan ATI.
Daar moet ik me dan toch maar weer eens in verdiepen. Voor mijn werk als videoproducent een tijd geleden alle AMD kaarten eruit gedaan om CUDA vaak beter werkt met premiere/resolve etc. dus toen is het minen ook grotendeels gestopt, maar als ik nu mijn CUDA cores kan inzetten....interessant! :)
minen heeft tegenwoordig ook weinig nut tenzij je hele farms heb.
Moa moa, snel erbij zijn. een titan haalt zeer hoge snelheden.

Zelf huur ik ook rigs wegens het stroomverbruik van mijn kaarten. Maar om weer in te komen is een titan een leuke kaart om te beginnen :)
De opkomst van de nieuwe hardware Oculus Rift aka Virtual Reality heeft misschien de dag van vandaag nog niet zoveel interesse, maar ik ben er zeker van dat het in de nabije toekomst wel heel veel interesse zal krijgen. En dan is een goede GPU belangrijk.
Ik denk zelf dat de bit-bus op de titan x dan een probleem gaat worden.
"Of de tdp 250W gaat bedragen zou nog niet helemaal zeker zijn"

Op foto's heft de kaart 1 6-pins en 1 8-pins connector. TDP kan dus goed 300W zijn.
3072 cuda cores. Hoe lang zullen ze daarmee de snelste blijven.
De 390x van AMD komt met 4000+ cores.

Dit is dus alleen maar een marketing truc van Nvidia om potentiële AMD 390x klanten weg te kopen.
Oftewel een dikke videokaart die waarschijnlijk ook dik veel geld gaat kosten
- op verkeerde knop gedrukt

[Reactie gewijzigd door bluebear op 16 maart 2015 21:34]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True