Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

MMD brengt samen met next-genconsoles hdmi 2.1-monitoren met 4k144Hz-panelen uit

MMD gaat gelijktijdig met de release van de PlayStation 5 en Xbox Series X Philips-monitoren uitbrengen met een hdmi 2.1-aansluiting. Er komen varianten van 27", 31" en 55", en die worden uitgerust met een 4k-paneel met een 144Hz-verversingssnelheid.

De monitoren zijn nog niet officieel aangekondigd, maar productmanager Artem Khomenko van MMD bevestigt tegenover Tweakers dat de hdmi 2.1-modellen op komst zijn. Het is de bedoeling dat de monitoren uitkomen op het moment dat ook de PlayStation 5 en Xbox Series X verschijnen. Sony en Microsoft zeggen dat die consoles eind dit jaar in de winkels liggen.

Op dit moment zijn er nog geen 4k144Hz-panelen beschikbaar op alle genoemde formaten, maar eind dit jaar of begin volgend jaar moet dat wel het geval zijn. MMD kondigde donderdag twee nieuwe monitoren aan in zijn Momentum-serie gericht op consolegamers. Dat gaat om een 55"-variant met 4k120Hz-paneel en een 27"-versie met 4k60Hz-paneel. Deze monitoren hebben een hdmi 2.0-aansluiting. De monitoren met hdmi 2.1 zijn de opvolgers van deze modellen.

De huidige Philips Momentum-monitoren met hdmi 2.0

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Julian Huijbregts

Nieuwsredacteur

25-06-2020 • 12:00

64 Linkedin

Reacties (64)

Wijzig sortering
Die 55inch, als ze hem nou goed prijzen en uitrusten met HDR etc. zou dat de ultieme "TV" zijn zonder smartfuncties. En als het OLED panelen zijn zouden ze het helemaal goed maken bij me (maar ik vrees dat deze monitor duurder gaat zijn dan een LG C9 van hetzelfde formaat)
Helaas werkt dit in de praktijk niet zo (anders had ik volgens deze redenatie zelf al lang een monitor / commercieel scherm oid. in gebruik gehad).

Het verschil tussen een tv en een monitor is niet enkel de aanwezigheid van smartfuncties ed, maar ook de mate waarin een scherm met verschillende input formaten kan omgaan. In de wereld van digitale en analoge video bestaat er een oerwoud aan formaten , waarbij er van een tv verwacht wordt dat deze een groot deel hiervan kan weergeven. Een monitor daarentegen is zeer beperkt in de te ondersteunen formaten; meestal zijn deze beperkt tot een aantal vesa resoluties + de eigen native resolutie.

Een moderne tv kan in principe van 480i (interlaced) tot 1080p ( progressive) / 4k (progressive) weergeven (en veel ertussen in, zowel digitaal als veel analoog), in 23.97 - 24 - 25 - 30 en soms zelfs 60fps, met verschillende kleurdieptes. En dan soms nog in 4:2:0, 4:2:2 of 4:4:4. En al dit tezamen in de mix. Vandaar mijn gebruikte term , een "oerwoud" aan formaten. Om deze reden hebben tv's video processing om met al deze formaten om te kunnen gaan. Monitoren en vaak ook point of sale / commerciele schermen hebben dit niet, of zeer beperkt.

Kortom, een tv moet zo ongeveer altijd alles wat aangesloten wordt (van analoge camcorder tot digitale 4k uhd bluray speler) kunnen weergeven, waar een monitor enkel voortdurend één en dezelfde resolutie/refreshrate/kleurdiepte weergeeft. Dat is het verschil.
In de aanname dat een monitor alle videoformaten (resolutie, verversingssnelheid, kleurdieptes) aankan hoef ik eigenlijk niets meer te hebben behalve HDMI en een infraroodoogje/HDMI-CEC om het apparaat in- en uit te schakelen en van input te schakelen (tot zover nodig). Als je vandaag de dag nog oudere en analoge formaten wilt gebruiken dan kan je beter een converter erbij pakken en daarmee alles normaliseren naar HDMI.

Zelfs speakers kunnen achterwege gelaten worden. Daarvoor gebruik ik wel een externe oplossing.

[Reactie gewijzigd door The Zep Man op 25 juni 2020 13:33]

Een monitor die al die formaten aankan, heet een televisie. Dat heeft niet zozeer met analoge ingangen te maken (hoewel die op een TV doorgaans wel aanwezig zijn en bij een monitor vaak niet meer - of er moet nog VGA opzitten, dat is het laatste volledig analoge formaat dat bij computers gebruikt werd), maar met het opschalen van de resolutie en het interpoleren van bewegende frames.

[Reactie gewijzigd door mae-t.net op 25 juni 2020 15:08]

Bovendien, ga je kijken naar scalers die hetzelfde kunnen als een moderne (4k) tv, dan praat je over een allemachtig kostbaar apparaat, en ben je veel meer kwijt dan een nette 4k tv (kan je meerdere tv's van kopen). Kan zo snel niets vinden, behalve apparaten beginnen bij ruim $5000,-
Maar als we dat analoge nou achterwege laten, dan ikan een computermonitor toch ook diverse resoluties aan? Het ziet er niet uit als je niet de native resolutie gebruikt, maar dat is bij een TV niet anders.

Ik meende dat het verschil tussen TV en computermonitor met name helderheid (hoger bij een TV) en contrast (hoger bij een computermonitor) betreft.
Nee. Helderheid en contrast zijn hooguit ondergeschikte verschillen voor zover die er zijn. Het probleem zit hem ook niet in het analoge, dat al meteen aan de ingang omgezet wordt in digitaal. Het probleem zit hem in scaling en interpolatie. Een TV doet dat op een manier die een prettig bewegend beeld geeft op alle bronresoluties opgeschaald naar de native resolutie. Een computermonitor wil heel graag in zijn native resolutie aangestuurd worden (heeft meer een soort "limp home" schaling) waarbij de serieuze schaling door de videokaart of in de software wordt gedaan voor zover nodig.
ga je dat echt merken? Youtube kijken op een monitor (in alle verschillende formaten) ziet er op een afstandje echt niet anders uit dan Youtube op een TV.

Ook als je een monitor gebruikt in combinatie met een HTPC of een Shield of zoiets dergelijks, zal er altijd hetzelfde type signaal naar het scherm gestuurd worden.
Ja dat merk je zeker. Zoals eerder opgemerkt wil een monitor graag op zijn eigen native resolutie aangestuurd worden. Iets anders zal zeer beperkt ondersteund worden en enkel maar wegens compatiblity redenen, niet voor langdurig gebruik.

Dat maakt het grote verschil: de processing in een televisie doet zijn best om van ieder soort inputsignaal een zo goed mogelijk "aan te zien" resultaat te maken, een monitor heeft geen beeldprocessing. Tv's doen oa aan scaling, interpolering, frames extra erbij berekenen, chroma upsampling, cropping, chroma processing, deinterlacing, sharpening, edge enhancement, en ga zo maar door.

Kijk bijvoorbeeld naar de panasonic oled website:
https://www.panasonic.com...llywood-to-your-home.html
Die "hcx pro" processor is niet zomaar een loze kreet, dit is beeld processing op een heel hoog niveau. Iets wat geheel afwezig is in een monitor. Hier hebben we het over realtime sdr naar hdr conversion, 4k upscaling en motion analysis. En natuurlijk al hetgeen hierboven beschreven.
Ik denk dat ik het grootste verschil ga merken met een goede bril dan 😆
Maar als je aangesloten apparaten de boel lekker in de juiste resolutie etc. aanleveren en zelf de upscaling doen, dan heb ik ook liever een monitor dan een TV (die de boel weer verprutst). Je hebt helemaal gelijk dat een TV veel geavanceerdere beeld processing aan kan, maar juist een deel van de Tweakers doen dat denk ik liever aan de 'supply' side van het beeld, lekker je eigen renderer voor het upscaling etc. kiezen. Ook voor gaming consoles heb ik liever een lage input lag dan beeld processing van de tv (ok, ik ben niet zo'n goede gamer dus met een voor TVs lage input lag ben ik ook al blij en merk ik zelf, persoonlijk, het verschil niet meer :X ).

Ik zou het echter niet aan mijn ouders aanraden, laat die maar lekker van de beeld processing van een TV genieten met beeld dat uit hun set-top box komt.
En dat gaat dus in de praktijk niet gebeuren. Je gaat altijd tegen apparatuur aanlopen die net een ander output formaat gebruikt. Vandaar mijn eerdere opmerking over een "oerwoud" aan formaten. Wat je schetst is in de praktijk niet haalbaar; dan zou je in dit geval enkel apparatuur kunnen gebruiken die 4k, 144p, 4:2:0, 10bit (waarschijnlijk) kunnen uitsturen. Scaling gebeurd normaliter aan de display kant, niet aan de source kant.

"lekker je eigen renderer voor het upscaling etc. kiezen" , leuk als je inderdaad vijf tot tienduizend euro op de plank hebt liggen voor een scaler / processor 8)7 . In de praktijk ga je bijv. nooit fatsoenlijk "tv" kijken op een monitor; als het signaal al geaccepteerd wordt (ik verwacht het niet) is bijv. 1080i/50 uit een stp uitsturen naar een monitor die native 4k/144p doet zonder processing "not done", geen gezicht en technisch een "vieze" oplossing. dvb-c stb's die 1080i/50 naar 4k/144p converting doen bestaan niet.
Mjah, ik kijk meestal via de PC dus. Naast de PC zou ik enkel een game console aansluiten, en volgens mij zijn deze monitoren juist net geschikt voor de PS5 en Xbox Series X?

Ik gebruik nu ook een Full-HD monitor die ik enkel aansluit aan mijn PC, Snes mini, en Xbox One S, die kunnen het allemaal prima aansturen. Ik snap wel dat het niet genoeg is voor iedereen, zoals ik al zei, mijn ouders met hun set-top box, maar ook bijv. mensen die foto's van hun camera willen laten zien etc. kunnen allemaal beter met een TV werken. Maar voor sommigen, en dan vooral onder de Tweakers denk ik, is enkel een monitor in huis genoeg. Ik zie de tv eigenlijk bij steeds meer mensen verdwijnen.
Precies! Doe mij ook maar een domme TV die gewoon goed beeld geeft. Al die smart functies hoeven van mij niet. Ik sluit wel een HTPC of nVidia Shield aan ofzo. Veel toekomstbestendiger. Maar ik vrees dat het prijstechnisch gewoon niet haalbaar gaat zijn... Helaas...
Ik heb 3 schermen op mijn PC, en zie de smartfuncties op m'n C9 als een dikke plus. Geen gederp om 4K te streamen, of HDR apart aanzetten etc. Gewoon klik en kijken.

Geen idee wat de haat altijd is tegen smartfuncties, maar het zou wel populair zijn.

[Reactie gewijzigd door GoT.Typhoon op 25 juni 2020 15:45]

Ik heb andere apparaten die de smartfuncties beter afhandelen. Daarbij hoef ik HDR niet aan te zetten. Dat gaat automatisch.
Alles loopt via de versterker die eventuele upscaling doet.

De smart functies gebruik ik eigenlijk nooit. Meestal als ik een app wil gebruiken moet die eerst updaten, en dat terwijl auto update van apps aan staat.

Als een tv zonder smart functies en puur 4K vrr hdr afhandelt, zou het perfect zijn. Zeker als de prijs dan lager ligt.
144 hz op 4K is 9,6 keer zoveel data als 1080p op 60 hz...

Je zou 576 fps moeten halen op een normaal 1080p scherm om je videokaart even hard te laten werken om 144 fps te halen op één van deze schermen. Dat is nogal wat!

Prima voor een game als Sudoku, 2048 of patience, maar dat wordt met Battlefield V of GTA V een ander verhaaltje!
Ik las ergens dat de next-gen consoles nieteens 4k60 gaan doen voor de meeste games. Dus een 4k144kHz monitor heb je echt niet nodig.
Ik zie erg veel commentaar als deze, maar 4k 144hz monitoren zijn niet perse bedoeld om op volle toeren te draaien. Ze kunnen ook 1080p op 144hz verwerken.

Zo zou je horizon II op 4k 30/60fps kunnen spelen terwijl je kiest voor 1080/144fps bij een competitive shooter.

De monitor geeft je dus flexibiliteit.
Verder kan het wellicht door een krachtigere PC of volgende generatie aangestuurd worden.
Ja dat geloof ik wel.. maar omdat er specifiek staat dat de release samen gaat met die van de volgende reeks consoles, lijkt het mij vooral een slimme marketing beslissing. Het staat verder los van de specs.
Dat en het feit dat de meeste mensen toch alles op med/low spelen als ze competative 144+ fps willen halen. Dan is die 144hz op 4k al vrij makkelijk te halen volgens mij met 1080ti/2080s of beter.
Inderdaad, de mogelijkheden wat dat betreft blijven natuurlijk aan de spellen in kwestie liggen.
Wel denk ik dat de combinatie 4k/144 (zwaar voor beide cpu en gpu) relatief moeilijker te halen zal zijn voor consoles doordat warmteontwikkeling ietwat problematischer is.

Idealiter word niet constant gebruik gemaakt van de volledige capaciteit van zowel de processor als videokaart.
Of juist een freesync oplossing. Dat een game ook gewoon rond de 120 mag draaien waarbij de framerate best eens mag uitschieten naar beneden of boven zonder tearing.
Even een lijst met games die nu beschikbaar zijn in 4K op de Xbox One X.

https://www.gamesradar.co...s-and-features-explained/

Dus ik denk dat wat je hebt gelezen niet klopt, als er nu al aardig wat spellen zijn die 4K gespeeld kunnen worden en icm HDR & 60fps.
Die gaat niet op. Nog steeds heb je aan een 1080p tv voldoende. Fabrikanten vinden slechts een mogelijkheid om je weer een nieuwe te laten kopen. Zo wordt expres gezorgd dat je iets nieuws nodig hebt. Maar nog steeds wordt meeste content niet in 4k en al helemaal niet 60fps beschikbaar gemaakt.

En wat monitoren betreft is dit helemaal niche.
Die gaat niet op. Nog steeds heb je aan een 1080p tv voldoende.
Dat doet niet onder voor de uitspraak die je ermee doet en in feite zeg je hier gewoon exact hetzelfde. Ik heb zelf 1440p schermen thuis maar zou toch echt niet meer naar lager terug willen hoor! Mind you, het gaat over monitoren, geen TV's.
Fabrikanten vinden slechts een mogelijkheid om je weer een nieuwe te laten kopen.
Ook dit is natuurlijk een drogreden en haalt dus mijn reactie op jouw bericht niet onderuit, net als zeggen dat 1080p TV voldoende is. Schijnbaar zijn er toch mensen die meer willen, waar niets mis mee is lijkt me als de techniek het toestaat, wat nu dus ook zo is. :)
Zo wordt expres gezorgd dat je iets nieuws nodig hebt. Maar nog steeds wordt meeste content niet in 4k en al helemaal niet 60fps beschikbaar gemaakt.
Het is ook niet het nodig zijn, maar voldoen aan een behoefte van de consument. Het een heeft het ander nodig en zo houdt het elkaar in stand, waar niets mis mee is.

Met dezelfde redenatie als jij nu hebt, zou die 640KB ook nu nog daadwerkelijk voldoende moeten zijn. ;)

offtopic:
BTW, in jouw vorige post waar ik op reageerde heb je 144kHz staan, maar 144000Hz is dan wel heel veel inderdaad. ;)

[Reactie gewijzigd door CH4OS op 25 juni 2020 13:12]

succes met 1080 uit het jaar nul. 4k is echt zo ongelooflijk veel beter...
Alleen zo werkt het dus gewoon helemaal niet.

Gisteren of eergisteren nog een post aan gewijd dat 4k maar ongeveer 50% minder FPS geeft dan 1080p terwijl dat dus wel 4x zo veel pixels zijn...

Dus het gaat niet zo evenredig als jij nu stelt, als ik door reken die constatering zou ik dan zeggen dat 10x zo veel pixels aansturen maar 5x zo veel rekenkracht kost. Maar ik denk dat dat nog steeds niet reel is, denk dat het minder is.

[Reactie gewijzigd door watercoolertje op 25 juni 2020 12:33]

Waarschijnlijk omdat er dan meer VRAM kan worden gebruikt? Daarnaast heb je bij een resolutie van 0x0 of 1x1 natuurlijk geen oneindige fps, dus de fps zullen niet omgekeerd evenredig zijn.
Als het omgekeerd evenredig is heeft 1x1 niet oneindige fps, maar 8000 keer wat het op 4K is en ja, afhankelijk van hoe je fps meet kun je stellen dat bij 0x0 resolutie de fps oneindig is.
Dit komt mede door het feit dat je praktisch geen anti aliasing meer nodig hebt bij 4K of hoger. AA is een enorme vreter van performance
Zo werkt dat niet...
Ja 4k op 144 fps (we hebben het over framerate, niet de refreshrate) is bijzonder zwaar, maar je kunt iedere willekeurige benchmark er bij pakken om te zien dat je niet zoals jij nu doet kunt delen door de vermenigvuldigingsfactor van de pixels om je framerate op een hogere resolutie te verkrijgen.
Zo werken grafische berekeningen gelukkig niet, het is niet omdat er 9.6 meer pixels per seconde verstuurd moeten worden dat je exact zoveel meer rekenkracht nodig hebt. Meer bandbreedte hebben om al die pixels door te kunnen sturen is wel noodzakelijk, maar dat is met hdmi 2.1 sowieso geen probleem
Gelukkig werkt dat niet zo. Neem Battlefield V nou als voorbeeld:

Guru3D hun benchmarks geeft met een 2080ti zo'n 133fps op 1080p, 116fps op 1440p (1.7x aantal pixels), en 76fps op 4k (4x aantal pixels).

Een beetje goed geoptimaliseerd en er is veel mogelijk.
Ik ben benieuwd naar de performance van deze consoles maar het lijkt me echt sterk dat 144fps mogelijk is op die resolutie.

Buiten dat lijken deze monitoren wel fijn bij een high end pc. :9
waar lees je dat ze vsync op de max frequency zouden aankunnen? fps staat verder los van de refresh rate en zelfs native resolutie van de playback-hardware.
Dat zeg ik ook niet.
Persoonlijk zie ik het nut niet van hoge refresh rate wanneer je qua fps niet enigszins in de buurt komt.

Bij me pc heb ik een freesync paneeltje en dat is wel fijn.
Ik merk het wel, heb sinds kort een oled @120hz.
met BF4 haal ik ongeveer 80fps op max settings en merk wel degelijk verschil tussen 60 en 120hz instelling. net ff wat soepeler.
vanaf je een hogere FPS haalt dan je vorige scherm kan refreshen heb je al profijt, daarom moet je helemaal niet in de buurt komen. De beste vergelijking gaat op bij netwerkkaarten waar je van 100Mbit naar 1Gbit gaat: vanaf dat je 101Mbit haalt heb je al winst. Ondanks dat je kaart theoretisch 1Gbit zou moeten kunnen halen, ga je blij zijn dat je 400Mbit haalt en bvb je HDD de bottleneck wordt.
Daar heb je zeker gelijk in.

Mijn beredenering was misschien een beetje kort door de bocht.
Persoonlijk heb ik liever een constante 60 FPS (vsync) in plaats van flinke screen tearing. Nu valt dit steeds minder op hoe hoger de refresh rate is maar alsnog.

Ik ben dan ook wel verwend denk ik door freesync op de pc. En wellicht komen de panelen in dit artikel ook wel met freesync, dat weet ik niet.
Volgens mij gaat hdmi 2.1 ook maar tot max 4k 120hz.
Natuurlijk is dat niet mogelijk. Mijn 2080 Ti komt nog niet eens dicht in de buurt. Ontwikkelaars zullen op consoles in veel games ongetwijfeld weer kiezen voor 30 frames per seconde. Gewoon slimme marketing om je product rond de introductie van de nieuwe consoles uit te brengen, zie Cyberpunk 2077.

[Reactie gewijzigd door NotSoSteady op 25 juni 2020 12:46]

Zat games zitten dik in de 100fps met een 2080ti hoor. Natuurlijk niet de cinematic games, maar games zoals Titanfall 2 en Doom eternal zitten toch vaak tegen de 144fps aan op 4k. Ligt heel erg aan de games die je speelt
Natuurlijk kan dat wel, afhankelijk van de game die je speelt. Het maakt nogal een verschil of je Tetris of Battlefield 5 speelt. Op mijn PlayStation 4 speel ik al jaren Fifa op 4k resolutie op 60 fps. Dat is geen enkel probleem kan ik je vertellen.
Ik denk dat je wel begrijpt wat ik bedoel, want iedereen snapt hier wel dat Tetris ook met 1000 frames per seconde kan worden weergeven. Maar daar koop je een dergelijke monitor (vermoedelijk) niet voor. Daarnaast zeg ik in 'veel games', waarmee ik aangeef dat het niet alle games zijn.

[Reactie gewijzigd door NotSoSteady op 25 juni 2020 12:52]

Zoals gezegd, er stond wat anders toen ik jouw bericht las :) mijn punt is dat jij heel erg onderschat wat de nieuwe consoles kunnen. Dat is absoluut geen "natuurlijk niet" waard en ligt veel genuanceerder.

[Reactie gewijzigd door q-enf0rcer.1 op 25 juni 2020 14:51]

Dit gaat wel weer de hoofdprijs kosten natuurlijk. Die gaan niet onder de 1000 euro duiken?
Het lijkt erop dat er in ieder geval diverse 27" LG panelen die deze specificaties halen in Q3/Q4 van dit jaar beschikbaar gaan zijn voor een degelijke prijs. Wat MMD precies doet met de prijs is natuurlijk aan hen maar sub 1000 zou haalbaar moeten zijn.

Bron: https://evedevices.com/pages/order

[Reactie gewijzigd door -Cn- op 25 juni 2020 12:18]

Mja maar 650 is nog steeds flink. Dat is even duur als de console die je eraan hangt.

Verder 99 dollar voor een standaard. Apple werd voor gek verklaard erover.
Verder 99 dollar voor een standaard. Apple werd voor gek verklaard erover.
Met het verschil dat het bij de 1 een onderdeel is van het scherm zelf (en dus in de kostprijs zit) en het bij Apple een los te kopen accessoire was/is en het scherm zelf dus ook al voorzien is van een andere standaard.

[Reactie gewijzigd door CH4OS op 25 juni 2020 13:01]

Oja, Eve, met een perfect track record waaruit blijkt dat ze super betrouwbaar zijn, toch? 8)7
Ik zou Eve inderdaad links laten liggen. Wil je een betaalbare 4k monitor met 120hz + en 1ms refresh rate dan raad ik de LG 27GN950 aan. Die is wat duurder maar dan weet je in ieder geval dat je daadwerkelijk een monitor binnen krijgt :+ Dat is trouwens hetzelfde paneel. Het enige probleem is dat LG nog niet heeft bevestigd of er HDMI 2.1 op komt.

[Reactie gewijzigd door q-enf0rcer.1 op 25 juni 2020 20:42]

55 inch? Is dat niet gewoon een TV?
Qua grootte wel.

Maar tv's hebben meestal geen hoge refreshrates
Maar wel extra "beeld verbeter" opties die je response tijd verhogen.
En "overbodige" smart TV software.

Dat zijn dingen die je niet wil op een monitor.

Vandaar dat er nu meerder fabrikanten met dit soort monitors aankomen
BFGD, of te wel big Format Gaming Display
Heel verwarrend. Ze komen volgende maand met nieuwe schermen en deze worden medio oktober/november alweer vervangen :?

In ieder geval hebben deze wel HDMI 2.1.
Over de implementatie van HDMI 2.1 op deze monitoren is echter niet veel duidelijk. We hebben bij andere fabrikanten ook al meerdere verschillen gezien.
Kijk das interessant, zal dan ook wel HDR op zitten lijkt mij.
Een huidige amoled 55inch 120hz komt hier toch wel mee in de buurt, waarom zou je veranderen?
Beide consoles gaan echt niet meer dan 60fps spelen bij nieuwe games.

Slaat dus helemaal nergens op.
Dirt 5 heeft een 120fps modus voor de Series X.
Ok dat is echt het eerste wat ik hoor.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True