Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

MMD brengt 55"-Philips-monitor met 4k120Hz-paneel en Ambiglow uit voor 1299 euro

MMD kondigt twee nieuwe Philips Momentum-monitoren aan, gericht op consolegamers. Het topmodel is een 55"-monitor met een 4k120Hz-paneel, een DisplayHDR 1000-certificaat, driezijdige Ambiglow en een ingebouwde soundbar van Bowers & Wilkins.

De Philips Momentum 558M1RY gebruikt een va-paneel met een resolutie van 3840x2160 pixels en een backlight met 144 zones. Volgens de fabrikant haalt de monitor een piekhelderheid van 1200cd/m². Het paneel kan 95 procent van de dci-p3-kleurruimte weergeven en heeft een contrastverhouding van 4000:1. Het 120Hz-paneel ondersteunt variable refresh rate en volgens de fabrikant komt de monitor in aanmerking voor AMD's FreeSync Premium Pro-certificaat.

Het scherm heeft hdmi 2.0-aansluitingen en is dus in combinatie met consoles te gebruiken met de maximale resolutie van 3840x2160 pixels bij maximaal 60Hz. Ook is het mogelijk om via hdmi 2.0 een resolutie van 2560x1440 pixels met 120Hz weer te geven. De resolutie van 4k kan alleen met 120Hz gecombineerd worden als de displayport 1.4-aansluiting wordt gebruikt. Consoles hebben die aansluiting niet, dus dat is weggelegd voor pc-gamers.

MMD voorziet de Philips Momentum 558M1RY van een geïntegreerde soundbar die door audiomerk Bowers & Wilkins wordt gemaakt. In de soundbar zitten twee tweeters, twee midspeakers en een woofer. Via software zijn verschillende equalizerstanden in te stellen, waarbij het geluid geoptimaliseerd kan worden voor racegames, rpg's of shooters en actiegames.

Ook kondigt MMD de Philips Momentum 278M1R aan, een 27"-monitor met 4k-ips-paneel en een verversingssnelheid van 60Hz. Deze monitor is volgens de fabrikant geschikt voor consolegamers vanwege de lage inputlag. Die zou bij de 27"-monitor 1,5ms bedragen en bij de 55"-versie 2,5ms. Volgens MMD zijn de monitoren in dat opzicht veel sneller dan tv's.

MMD brengt sinds 2018 monitoren in zijn Momentum-serie uit, gericht op consolegamers. De twee nieuwe modellen hebben een volledig nieuw ontwerp. Verder legt de fabrikant nadruk op de verbeterde implementatie van Ambiglow; bij de eerste monitoren zat de verlichting alleen aan de onderkant. Het nieuwe 55"-scherm heeft leds aan drie zijden en bij de 27"-monitor met verstelbare voet zit de verlichting aan vier zijden.

Eind juni verschijnt de 558M1RY voor een adviesprijs van 1299 euro. De kleinere 278M1R komt eind juli uit voor een adviesprijs van 449 euro. MMD heeft tegenover Tweakers bevestigd dat er later dit jaar, gelijktijdig met de de release van de next-genconsoles, Momentum-monitoren met hdmi 2.1-aansluiting uitkomen. Die aansluiting is nodig om de 4k120Hz-opties van de PlayStation 5 en Xbox Series X te benutten.

Monitor Philips Momentum 558M1RY Philips Momentum 278M1R
Paneel 55", va, 3840x2160 pixels 27", ips, 3840x2160 pixels
Verversingssnelheid 120Hz 60Hz
Responstijd 4ms (grijs-naar-grijs) 4ms (grijs-naar-grijs)
Maximale helderheid Normaal: 750cd/m²
Hdr-modus: 1200cd/m²
350cd/m²
Contrastverhouding 4000:1 1000:1
Hdr-certificaat VESA DisplayHDR 1000 -
Kleurweergave 95% dci-p3, 125% srgb 89% Adobe-rgb, 105% srgb
Ambiglow Driezijdig Vierzijdig
Geluid Bowers & Wilkins-soundbar
2.1, 40W
2x 5W
Aansluitingen 3x hdmi 2.0, 1x displayport 1.4 2x hdmi 2.0, 1x displayport 1.4
Verkrijgbaar vanaf Eind juni Eind juli
Adviesprijs 1299 euro 449 euro

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Julian Huijbregts

Nieuwsredacteur

25-06-2020 • 12:00

119 Linkedin

Reacties (119)

Wijzig sortering
MMD kondigt twee nieuwe Philips Momentum-monitoren aan, gericht op consolegamers.
en
De resolutie van 4k kan alleen met 120Hz gecombineerd worden als de displayport 1.4-aansluiting wordt gebruikt. Consoles hebben die aansluiting niet [..]
Dat rijmt toch niet?

[Reactie gewijzigd door amas op 25 juni 2020 12:02]

Ik zie het probleem niet zo.

Zover ik weet zijn er geheel geen consolegames aangekondigd die denken meer dan 60 fps op 4K te halen.

Bij een PC is 120Hz relevant, omdat je zelf de hardware, grafische kwaliteit, en daarmee framerate bepaald. Bij consoles is dat niet zo, en vaak zijn games geoptimaliseerd om op 30(!) fps te draaien.

Er zijn misschien uitzonderingen, maar voor de grote consoles is dat hoogst uitzonderlijk. Volgens mij is 4K 120 Hz voor consoles enkel een gimmick en niet iets wat je echt kan gebruiken.

En je hebt wel Freesync op moderne consoles, dus je hoeft geen hogere refresh rates voor als de refresh rate en FPS ongelijk gaan lopen.
Alleen ben je wel voorbereid voor zelfs de consoles daarna en een tv
/monitor koop je niet voor een paar jaar.
Er komt dit jaar een Sony PS5 uit die 8K resolutie ondersteunt en 4K bij 120Hz doet.
Ja, leuk. Maar zijn er ook games die op dat apparaat draaien die 4K met 120 fps draaien?

De huidige consoles doen prima 4K 60Hz, maar games draaien alsnog op 4K 30fps. Enkele games voor de huidige consoles kunnen wel wisselen naar 60 fps mode op 4K, maar da's een zeldzaamheid en gaan ten kostte van grafische kwaliteit.

Bij consoles worden games geoptimaliseerd voor grafische kwaliteit, niet refresh rate, en worden ze uitgebreid geoptimaliseerd met weinig te kiezen voor de gebruiker.

Ik geloof niet dat devs er moeite in gaan stoppen om ook een 4K >60fps in games te stoppen, omdat enerzijds dit echt niche is (mensen moeten een heel nieuwe TV hebben), en anderzijds 4K al extreem zwaar is, en ik niet denk dat ondanks de rumoeren over de prestaties van de PS5 hij krachtig genoeg zal zijn om goed 4K >60fps op goede kwaliteitsinstellingen te draaien. Als je dat nu op een PC wilt, kom je al heel snel boven de €1000 uit met de huidige games, en wie weet tipt de PS5 daar aan (ondanks dat ie volgens geruchten veel goedkoper dan dat is), maar de games worden zeker ook zwaarder en mooier.

Mijn gok is dat triple-A nog gewoon "cinematic" 30fps blijft op de PS5. Als een dev er de moeite in steekt, worden PS4 titels misschien 60fps op de PS5, als ze een rerelease krijgen zoals o.a. GTA V (want zonder dat is de framerate gewoon locked).
Daar gaat het niet om. Mensen die in zo'n scherm investeren willen iets dat niet eind dit jaar al 'achterloopt'. Iets met een doelgroep die erg gevoelig is voor specificaties.

Verder denk ik dat jij en ik het meer eens dan oneens zijn, maar dat is allemaal veel te rationeel :P

[Reactie gewijzigd door Exirion op 25 juni 2020 15:12]

Futureproofing is onzin, dat is algehele kennis nu toch. De xbox sx en ps5 gaan een jaartje of 10 mee, tegen die tijd koop je een beeldscherm voor een appeltje en een eitje tegenover iets wat je nu een rib uit je lijf kost, en aanzienlijk beter presteert ook nog.

Videogames gaan ook nog eens aanzienlijk zwaarder worden door de bizarre ophoging van specificaties in de console's, dus zelfs de duurste gpu's op t moment zijn compleet waardeloos over een jaar of 2/3.

Goed, nu zever ik dit tegen jouw aan, terwijl ik dit eigenlijk aan pubers moet uitleggen die ietwat te gevoelig zijn voor verkooppraatjes en specificaties. Maar die luisteren dan weer niet, en als ze wel reageren is het meestal zoeits als "okay boomer".

[Reactie gewijzigd door Luke Skyballer op 25 juni 2020 15:37]

De nieuwe ACER Predator XB3-serie monitoren hebben G-Sync,240Hz, gtg 0,5ms en een 4k-resolutie, Een 8x snellere gtg en een 2x hogere verversingssnelheid. dus de 27" variant loopt al achter voor deze op de markt is.

Het voelt allemaal beetje een cash grab door de Philips marketing molen uit de portemonnee van console spelers.

[Reactie gewijzigd door Hidde_S op 26 juni 2020 08:08]

Hoezo een cash grab?
Ik begrijp je vergelijking eigenlijk niet...
De 27" Acer moet 899 kosten terwijl de Philips 449 als adviesprijs mee krijgt en als je de snelle panelen wilt vergelijken kost de Philips inderdaad meer, maar daar krijg je ook 4x meer schermoppervlak voor terug. Beetje appels en peren dus...
Als bonus: de Ambiglow is natuurlijk nog een bijkomstig USP, samen met B&W speakers op het grote model.
Om 4k op 120 fps af te spelen, begint de pc vanaf de €2000 zou ik zeggen. En dan is het nog maar een selectie minder zware games die dergelijke framerates halen.
De playstation gaat niet 1000 euro kosten. Zeker niet eens boven de 600....vergeet niet dat de ps3 het juist slecht deed door de hoge kost prijs, Microsoft gaat deze generatie super agressief zijn met de prijs, als Sony aankomt met een console die 600 euro kost, dan heeft Microsoft gewonnen
Het 120Hz-paneel ondersteunt variable refresh rate en volgens de fabrikant komt de monitor in aanmerking voor AMD's FreeSync Premium Pro-certificaat.
En je hebt wel Freesync op moderne consoles, dus je hoeft geen hogere refresh rates voor als de refresh rate en FPS ongelijk gaan lopen.
Als het scherm dus variable refresh heeft, dan maak je hier graag ook gebruik van tot de 120hz dat het scherm aankan en dus niet maar tot 60hz.
Je hebt enkel baat bij die extra freesync range als je console ook meer dan 60 fps genereert. Genereert je console minder dan dat, dan houdt freesync de FPS en refresh rate gelijk. Zonder Freesync/GSync heb je graag hoge refresh rate om tearing te minimaliseren zonder VSync te gebruiken, maar met Freesync heb je geen tearing.

En zoals gezegd, consolegames worden veelal geoptimaliseerd voor 30 FPS, dus blijven veelal ver van dat limiet weg.

Natuurlijk, als je het gratis zou kunnen krijgen, dan is het beter, stel dat je de één of andere low-poly shooter voor je console vind die toch over de 60 fps heen gaat op 4K, maar dit is echt niche. Ik begrijp best dat als je als fabrikant zegt we optimaliseren dit product voor consoles, en je wilt niet overdreven veel geld uitgeven, enkel HDMI 2.0 een logische keuze is.

En natuurlijk wil je wel die volle range als je er een high-end game-pc op aansluit, of als je de resolutie opzettelijk terug schroeft om een hogere fps te halen, en dat krijg je dan ook. Enkel op 4K via HDMI heb je dit limiet.
Juist Henk, vooral veel jonge mannetjes die op youtube/reddit ect verkondigen dat je VRR moet hebben voor wanneer de nieuwe console's uitkomen.

Zo heb je de Panasonic GZ2000, binnenkort vervangen door de hz2000, met extra koeling voor de oled cellen en zodoende hogere peak brightness en betrouwbaarheid. Maar dus geen hdmi 2.1, dat gezeik dan over 'gemiste kansen' en 'future proofing' (dat gaat dus niet) is ronduit irritant. Het is in principe de ultieme OLED TV als je niet naar het prijskaartje kijkt, maar wordt afgefikt door op het internet véél te aanwezige puberale gamers die achter elk verkooppraatje aanhobbelen wat ze tegenkomen.

En dan hebben we het nog niet eens gehad over lage latency, "hoezo hebben deze TV's geen <5ms latency?" Alsof je daar wat van merkt, je bent 'Shroud' niet of een van die andere spasten die reageren binnen 50ms.
Alsof je daar wat van merkt, je bent 'Shroud' niet of een van die andere spasten die reageren binnen 50ms.
Klopt, je moet alleen niet vergeten dat input lag van een scherm bovenop alle andere lagcomponenten getelt kan worden. Zo is er (mogelijke lage) input lag van je input peripherals (controllers, muis, tobo), van het systeem, van het spel/de engine zelf. Vanaf zo'n 50ms ga ik het wel merken qua scherm alleen al (bij 20-30ms nagenoeg niet). Dus alle beetjes helpen zeg maar. Ik snapte een hele tijd niet dat mensen fijn konden gamen op een lcd (monitor of TV) met lage motion resolutie en hoge input lag vanaf het crt tijdperk, nog los van responsetijd en hertzfrequentie. Echt een pro player ben ik nooit geweest maar kon goed meekomen in unreal tournament, q3, urban terror (q3 UT mod), en nu nog in Apex legends op de ps4. Wel mede dankzij goede setup qua minimale lag-componenten, maar nu waarschijnlijk standaard reactievermogen (leeftijd..)
/fixed
Juist Henk, ik zie vooral veel jonge mannetjes die op youtube/reddit ect verkondigen dat je VRR moet hebben voor wanneer de nieuwe console's uitkomen.

Zo heb je de Panasonic GZ2000, binnenkort vervangen door de hz2000, met extra koeling voor de oled cellen en zodoende hogere peak brightness en betrouwbaarheid. Maar dus geen hdmi 2.1, dat gezeik dan over 'gemiste kansen' en 'future proofing' (dat gaat dus niet) vind ik ronduit irritant. Ik vind het in principe voor mij de ultieme OLED TV als je niet naar het prijskaartje kijkt, maar wordt afgefikt door op het internet véél te aanwezige puberale gamers die achter elk verkooppraatje (gekoelde oled en hogere peak brightness is geen verkooppraatje, echt niet!) aanhobbelen wat ze tegenkomen. Ik trek me dit dermate aan dat het met stoort.

En dan hebben we het nog niet eens gehad over lage latency, "hoezo hebben deze TV's geen <5ms latency?" Alsof ik daar wat van merk, ik bent 'Shroud' niet of een van die andere spasten die reageren binnen 50ms.
Hihi, I see what you did there. Het is wel een bewezen verkooppraatje dat makkelijk te verifiëren is.
Peak brightness is idd een stuk hoger, op volledig wit vlak na, dan is het verschil miniem.
Betrouwbaarheid baseer ik op reviews die stresstestjes doen waar normaal image retention bij voorkomt, enkel de gz2000 had dit niet. De conclusie was in alle gevallen dat de koeling er voor zorgt dat de OLEDs langer mee gaan.

Nadeel is dat de tv dikker en zwaarder is dan gebruikelijk, echter zit er wel 140watt aan door technics afgestelde speakers in verwerkt, het totaal plaatje ziet er visueel top uit naar mijn mening.

Als je niet naar het prijskaartje kijkt, bied de tv theoretisch gezien de beste specificaties en kijkervaring.
In de praktijk is het maar de vraag of je veel verschil tussen 750nits of 950nits gaat zien. Zo vaak komen felle highlights tussen 750 en 950 nits niet voor, en tone mapping in de lg x serie werkt erg goed, niet echt bedoeld voor de puristen echter.

[Reactie gewijzigd door Luke Skyballer op 25 juni 2020 19:39]

Nou ja, een casual gamer lijkt relatief meer winst te halen uit lage latency dan de professionele gamer. Dus in die zin is het niet zo raar om op latency te letten als je probeert een beetje mee te doen.
Dirt 5 is 4k120fps op de Xbox Series X.
Dirt krijgt een 120fps-optie. In combinatie met welke resolutie is nog niet bekend.
Dat is inderdaad heel vreemd, dus je hebt er niks aan. Waarom maak je dan een display voor consoles?

Daarnaast vind ik VESA DisplayHDR 1000 jammer, ik had liever de VESA DisplayHDR 1400 gehad. HDR is een streefpunt in games tegenwoordig en dan wil je wel de beste HDR performance.

Misschien een beetje offtopic:
Ik zit op de VESA website te kijken en zie ook de volgende certificeringen staan:
VESA DisplayHDR 400
VESA DisplayHDR 500
VESA DisplayHDR 600

Maar hier heb je toch helemaal niks aan? HDR wordt pas interessant met minimaal 1000 cd/m2. Ik snap niet dat deze certificeringen bestaan eerlijk gezegd.
Daarnaast vind ik VESA DisplayHDR 1000 jammer, ik had liever de VESA DisplayHDR 1400 gehad. HDR is een streefpunt in games tegenwoordig en dan wil je wel de beste HDR performance.
Ja, en ik wil HDR 1600 of nog meer.

Er zijn op dit moment nauwelijks tv's of monitoren die überhaupt HDR 1000 of meer ondersteunen.
Totaal 17 monitoren van de 2700 in de Pricewatch, van die 17 zijn er 2 met HDR 1400.

Volgens deze site: https://www.displayninja.com/hdr-monitor-list/

3 monitoren met HDR 1400 en 2 met HDR 1600.
Op die site scharen ze overigens HDR 1000 al onder True HDR.

Je kunt wel van alles willen, maar het moet er wel zijn.

Een van de beste (Volgens de reviews) HDR TV van 2020, de LG C9 doet 800 Nits.
https://www.t3.com/reviews/lg-gx-oled-4k-tv-review
"The LG GX’s HDR performance is in line with previous LG panels. We measured an HDR peak at around 800 nits, which is more than enough for bright specular highlights (light flares, reflections, fireworks, that kind of thing)."

Deze monitor zou 1300 euro gaan kosten. De enige andere 55+ inch monitor die 4K heeft en HDR1000 kost € 3400!
Ja en?
Dit is een monitor en geen tv.

Hij doet sowieso 1200 nits, maar dat is geen standaard.

Op 120 hz.
Met weinig inputlag.
Met 3-voudige Ambiglow.
Met een B&W soundbar.
Met Displayport 1.4 (dus je kunt daadwerkelijk dat ding vol aansturen met een pc.

Dat heeft die tv van jou niet, zeker niet voor deze prijs.
Maar hier heb je toch helemaal niks aan? HDR wordt pas interessant met minimaal 1000 cd/m2. Ik snap niet dat deze certificeringen bestaan eerlijk gezegd.
Niet per se. De eerdere generaties OLED schermen kwamen ook niet boven de 600 cd/m2, maar waren uitstekend geschikt voor HDR. Dit heeft te maken met het contrast, die is immers bij OLED oneindig door de perfecte zwart weergave op pixel niveau. Zo zijn ook bijvoorbeeld schermen met 1400 cd/m2 niet automatisch geschikt voor HDR, want zonder FALD kun je simpelweg niet het contrast bereiken dat nodig is voor HDR. Het merendeel van de monitors in de pricewatch met ondersteuning voor een HDR signaal of zelf een HDR rating als VESA DisplayHDR 600 kan geen HDR correct weergeven, omdat ze edge-lit zijn.

Daarbovenop geeft een hoge piek helderheid van 1400 cd/m2 HDR wel nog meer impact. Zo ondersteund Dolby Vision als HDR formaat tot wel 4000 cd/m2 voor de weergave van films.

[Reactie gewijzigd door JackDashwood op 25 juni 2020 12:50]

Maar dan is die standaard weer een beetje nietszeggend want met de 400-600 certificatie krijg je ook IPS panelen die veel minder contrast halen maar wel net genoeg om die specificatie te halen. Een OLED paneel wordt dan vergeleken met een kwalitatief heel minderwaardig product dat dezelfde certificatie krijgt.
Kort gezegd zou dat betekenen dat ik vol in de marketing ben getrapt door afgelopen september deze monitor te Kopen? Ik heb de HDR functie nog niet gebruikt eigenlijk, maar dat zou dus geen zin hebben?

https://tweakers.net/pric...rijs-zwart/specificaties/
Toevallig heeft dat model wel 8 dimming zones. Dat is alsnog niet heel goed, maar al een stuk beter dan alleen edge-lit monitoren, want die hebben helemaal geen dimming zones. Hoeveel dimming zones je nodig hebt voor 'goede HDR' is subjectief. Ik zeg zelf iets van 50 zones voor een 55" scherm voor degelijke HDR en 250+ voor goede HDR.

[Reactie gewijzigd door JackDashwood op 26 juni 2020 08:49]

Hoeveel dimming zones je nodig hebt voor 'goede HDR' is subjectief. Ik zeg zelf iets van 50 zones voor een 55" scherm voor prima HDR en 250+ voor goede HDR.
Ik volg het niet, zeg je nou dat 50 zones beter is dan 250? Of je realiseert je niet dat prima iets betekent als fantastisch/bijzonder goed/uitstekend/het beste?
Bedankt. Ik had eigenlijk over de dimming zones heen gelezen. Ik ben wat aan het stoeien geweest met de HDR functie, maar windows 10 kan er geen kaas van maken lijkt het. Grappig eigenlijk dat als je het in W10 aan zet, het scherm dof grijs wordt... ik moet nog maar eens flink gaan inlezen. Ik hoop wel dat er wat meer games uit gaan komen die dit ondersteunen, daar heb ik het toch eigenlijk wel een beetje voor gekocht...
Maar hier heb je toch helemaal niks aan?
Valt wel mee: HDR betekent een groot bereik. De genoemde waardes zijn alleen de maximum-waardes. Stel dat je een scherm hebt dat 1000 nits haalt, maar puur zwart 2 nits is. Dan is het contrast niet zo hoog.
Daarom worden OLED's ook zo geprezen: hun maximum helderheid is niet zo hoog, maar zwart is ook echt zwart en daardoor het contrast enorm hoog.

Er is nu ook, naast de HDR 400/500/600/100/1400 ook een 400/500 true black certificaat, die ook iets zegt over het minimum aan nits. HDR heeft helaas geleid tot sterk versnipperde standaarden.
Ik heb mn oude samsung plasma 10 jaar gebruikt en amper ingebrand (na 10 jaar een beetje). toen was eht tijd voor een OLED: veel beter beeld. Ik maak me niet zo druk om het inbranden, dat is bij normaal verantwoord gebruik alleen iets voor na 10 jaar en dan wil je toch een nieuwe.
Je gaat alleen nooit 900cd/m² én 0,015cm/m² naast elkaar halen. Dan stijgt de zwaartwaarde naar zo'n 0,2cd/m². De X900E heeft 48 local dimming zones, dus een hoog lokaal contrast zoals dat kan bij OLED TV's zal nooit lukken. Ik heb thuis de opvolger, een Sony 75XF9005 en een LG 65B6 en geloof me dat de zwartwaardes en het contrast in de werkelijke beleving ver uit elkaar liggen.
Voor het beste uit beide werelden zullen we naar microled moeten: daar kun je elke individuele pixel aan en uit zetten. Voordeel boven OLED is de maximale helderheid.
Het gaat om de input-lag. Die is extreem laag bij deze schermen. Dat wil je als (console)gamer graag.

Die DP-poorten zijn uiteraard om PC-games te spelen. :)
HDR wordt pas interessant met minimaal 1000 cd/m2.
Als je normaal al 100% helderheid gebruikt misschien wel, maar als je normaal maar 10% gebruikt heb je nog best wat over voor HDR effecten.
4k 120fps is dan ook wel een beetje teveel van het goede, ook voor de nieuwe generatie consoles. Ik denk dat je voornamelijk 4k 60fps of 2k 120fps gaat zien.
Klopt, maar het is maar de vraag of de console dan wel terugschakelt. De huidige consoles kunnen volgens mij alleen fhd of uhd uitsturen en bijvoorbeeld geen qhd. En ik meen dat als je je console ingesteld hebt op uhd maar de game rendert op fhd, dan wordt er alsnog een uhd signaal gestuurd (geupsampled). En om nou de settings in te duiken iedere keer dat je dirt 5 op 120 Hz wil gaan spelen...
Xbox One X doet gewoon native 1440p hoor.
Ah ja dat wist ik even niet zeker meer, dat is netjes :)
Alsnog vermoed ik echter dat je dat zelf in zal moeten stellen als het scherm of uhd op 60 Hz kan, of qhd op 120 Hz. Niet zo handig dus als je voor sommige spellen steeds handmatig moet switchen.
Wellicht dat Microsoft daar ook nog wel iets slims voor inbouwt, maar ik zou er niet vanuit gaan. Als er dan een versie komt in het najaar die wel gewoon HDMI 2.1 ondersteunt waardoor het sowieso geen issue meer gaat zijn dan zou ik toch daarop wachten.
Ik vermoed eigenlijk dat 4k30fps al een probleem wordt voor de recente spellen als Last of Us 2, Red Dead 2 etc. Als je dan de settings iets aanpast zul je wellicht 4k60fps kunnen draaien, met wat softwarematige smoothening en motion blur die bijna iedereen op console aan laat staan, als het al uit kan worden gezet.
Ik vermoed eigenlijk dat 4k30fps al een probleem wordt voor de recente spellen als Last of Us 2, Red Dead 2 etc.
Dat is al geen probleem op de Xbox One X. De GPU en CPU's zijn zo gespect dat de Xbox Series X het dubbele moet kunnen halen.
Dat lijkt me enigszins sterk, want in vergelijk met een Xbox One X GPU benchmarked een 1080Ti op 193%, dus bijna twee keer zo snel, en ik haal 30-35 fps in RDR2 op 4k. Sure, je kan de renderkwaliteit zo ver omlaag schroeven dat je dat 4x zo snel kan renderen, maar console GPUs zijn geen magic, en ergens lever je dus flink in.
Wat je op de PC haalt is niet zo interessant. Wat interessant is is wat RDR2 nu op de Xbox One X doet, en die doet 4k op nagenoeg locked 30fps, aldus Digital Foundry. Hij zou dus, met dezelfde graphical fidelity, ook 4k 60fps moeten halen op de Xbox Series X.

Je zou er natuurlijk gewoon voor kunnen kiezen om die fidelity omhoog te schroeven en een lagere framerate te accepteren. Geen idee of dat een optie wordt in die game.

[Reactie gewijzigd door .oisyn op 25 juni 2020 17:48]

Dat is dus precies wat ik zeg. Consoles zijn geen magic, jij weet dat ook :) Anders zou nvidia die gpus ook wel verkopen. Sure je kan de graphics zo ver omlaag schroeven dat je 120hz op 8k haalt ;) Dus wat je op de PC haalt is wel interessant want dat zet de limieten. Als de One X 30 fps op 4k haalt dan is hij dus blijkbaar twee keer downscaled in fidelity vergeleken met de PC op de console. Het is vrij simpel hoeveel shader cores je hebt.
Tja misschien dat het genoemde spel juist wel erg goed optimized is, dan kunnen we er natuurlijk niks tegen inbrengen. Met 'optimizen' worden vaak ook de render distances en overige grafische instellingen bewerkt, zonder dat het erg opvalt. Om een extreem voorbeeld te geven: Witcher 3 op PS4 vs PC. Dat is een last-gen console maar het spel is ook al meer dan 5 jaar uit. Je zou dan toch verwachten dat het spel op de komende consoles heel goed kan draaien maar op de PC lukt het NET om met een 2080 en een Core i7 5960X 4k@60fps te halen (op ultra, dat dan weer wel).

Deze twee onderdelen kosten je 2000 euro. Oke, het kan waarschijnlijk ook met een cpu van 300 euro maar dan nog.

Dus mijn vermoeden is dat het nooit hetzelfde zal voelen of zal spelen als op PC. Ik persoonlijk, en met mij velen, kunnen niet tegen motion blur of vinden het afschuwelijk.

Wellicht zullen ze 1080p@60fps upscalen naar 4k@60fps met iets dergelijks als AMD's freesync, als dit uberhaupt mogelijk is.

Een console kan natuurlijk niet 2000 euro kosten, zeker niet als je realiseert dat de PS4 bij launch 500-600 euro was, de PS4 pro en de XBOX one rond de 550. Daarnaast, ik weet dat de cpu's en gpu's in de laatste jaren steeds veel zuiniger zijn geworden, maar om nou de performance van een desktop te vergelijken met die van een console zul je echt dezelfde afmetingen moeten hanteren om extreme hitte te beperken, o.a. door waterkoeling oid ($$$). Lijkt me stug dat de PS5 en nieuwe XBOX een tdp van 300+ watt hebben.

De volgende generatie, dus niet die van dit jaar, zal veel beter 4k aankunnen, misschien op 60fps in de zwaardere, grafische games.

https://www.youtube.com/watch?v=HcNQVuNo_kY

Dit is wel speelbaar, maar als je PC gewend bent komt het dichter bij niet speelbaar (rare frame-drops en freezes) dan bij leuk. Ook, geupscaled.

[Reactie gewijzigd door rubenkemp op 26 juni 2020 12:23]

Ik denk dat je voornamelijk 4k 60fps of 2k 120fps gaat zien.
De game world kan toch op een lagere resolutie gerenderd worden dan de game UI?

Waarom niet gewoon een HDMI 2.1 input?
Wellicht is het de bedoeling dat je niet alleen je consoles aansluit, maar ook je PC? Die zou het wel kunnen leveren, maar dan is de vraag wat de andere poorten aankunnen.
Zal wel om de input lag ofzo zijn, of huidig gen consoles. Het nieuws wat later vermeld wordt met hdmi 2.1 is veel interessanter.
Word daar niet mee bedoeld, de huidige consoles?

p.s. niet echt op de hoogte van HDMI poort op de nieuwe consoles (neem aan 2.1)
Op de nieuwe consoles zit ook geen DP. Ook heel onlogisch omdat bijna alle televisies die op de markt zijn uitsluitend gebruik maken van HDMI.
Er is op dit moment voor zover ik weet bijna geen tv die volledig HDMI 2.1 kan weergeven en dan met name 4K bij 120Hz met RGB 4:4:4 chroma sampling. Zelfs de nieuwe nieuwste Lg oleds niet https://www.homecinemamag...-tvs-blijkbaar-toch-niet/
wel jammer dat de nieuwe generatie tv's monitoren dus niet volledig de hdmi 2.1 standaard volgen . en dat men maar een subset van HDMI 2.1 eruit pikt om te volgen, dit maakt het er allemaal niet makkelijker op. Zelfs de nieuwste oleds van Sony ondersteunen het niet volledig, terwijl we aan de vooravond staan van de introductie van de PS5.
Dat is foute informatie die je geeft. Lees op zijn minst even het hele artikel door waar je naar linked voordat je dit gaat roepen. De HDMI 2.1 aansluitingen op de nieuwste generatie LG OLED TV's ondersteunen wel 4K @ 120Hz met RGB, of chroma 4:4:4 (zijn twee verschillende dingen trouwens) en met HDR oftwel 10-bit content. Alleen 12-bit gaat niet werken wegens de beperking van de bandbreedte van 48Gbps (full spec) naar 40Gbps. Dat maakt niet uit, want 12-bit content bestaat praktisch niet en de panelen zelf ondersteunen ook geen 12-bit. Een storm in een glas water dus.
Ik vraag me af waarom ik een gewone tv zou kopen?

Als ik deze monitor heb, dan kan ik toch al gewoon tv kijken en gamen via hdmi...

En als ik nog meer wil eventueel een receiver ertussen.
Nee, tv kijken gaat niet leuk op monitoren. In tv's zitten allerlei beeldprocessoren die het ( doorgaans 24p ) signaal omzetten naar een voor film/video mooi en soepel beeld. Deze wil je niet missen.. sluit je mediabox maar eens op je monitor aan. Ziet er niet uit..
Die LG TVs doen toch wel gewoon 10-bit 2160p120 4:4:4?
Wat ze blijkbaar niet doen is 12-bit..
Klopt, wat ik heb begrepen is dat er zelfs maar een paar tv's van de nieuwe line-up van Sony HDMI 2.1 ondersteunen. Dat verbaast mij eerlijk gezegd wel, je wilt toch de ps5 volledig benutten?
Je mag toch ook een monitor aansluiten op een console? Lang niet iedereen sluit hem aan op de tv. Ik blijf het raar vinden dat ze er niet gewoon DP 1.4 op zetten, en bijna elke monitor kan je aansluiten. Probleem opgelost.
Ik hoop niet dat het een trent gaat worden met ingebouwde soundbars. Dat doet me echt veel te veel denken aan dit. Daarbij is de geluidskwaliteit vaak om te huilen. Een heel specifieke doelgroep dus lijkt me.

Dat ambiglow lijkt me overigens wel wat, zeker bij bijvoorbeeld savond's gamen of werken o.i.d.
Bowers & Wilkins heeft op zich wel een naam om hoog te houden, dus ik heb wel hogere verwachtingen dan wat er normaal gesproken in een TV zit.
Maar een optie zonder soundbar zou beter zijn.
Bowers & Wilkins heeft op zich wel een naam om hoog te houden,
Waren die laatst niet overgenomen door een investeringsmaatschappij? ;)
Bowers & Wilkins is niets anders dan een stickertje in dit soort gevallen. Net als luxe audiomerken in de auto. Veel grote merken doen het, zo ook Dynaudio bijvoorbeeld. Het is niets anders dan hoe er een Beats by dre sticker op een telefoon terecht komt.

Het stickertje zorgt er niet voor dat het daadwerkelijk klinkt als de zuilen en monitor-speakers die ze verkopen. :) Waarschijnlijk klinkt een simpele JBL draadloze speaker hetzelfde, zoals bij de meeste soundbars.

Ik snap het overigens prima marketing technisch gezien, maar vind het een negatieve ontwikkeling.
Maar Bowers & Wilkins zal hun naam niet verhuren als het totaal crap geluid is, want dan krijg je alleen maar een negatief sentiment bij de naam.
Er staat 'Bang & Olufsen' op mijn laptop. Stoer!
Er komt 'Dolby Atmos' audio uit mijn mobiele telefoon. Wow!

In de praktijk klinken ze allebei niet bijzonder en zijn ze niet gemaakt om kwalitatief hoogwaardige audio op te beluisteren. Dus: het staat leuk op de behuizing. Het klinkt stoer als marketingpraat, maar in de praktijk betekent dit niet automatisch 'hoogwaardige audio', omdat een bepaald merk of bepaalde techniek ondersteund wordt. Dat kan natuurlijk ook helemaal niet in dergelijke form-factors. Echte high-end audio is overigens - als het al mogelijk zou zijn in dat formaat - veel te duur om in zo'n product te bouwen.

Wat wèl zou kunnen is een goede DAC in de mobiele telefoon, dat scheelt al 'n heleboel wanneer je met bijv. in-ears ofzo luistert naar muziek en hoeft de prijs van 't apparaat niet eens veel hoger te maken. Ik zou wel goede in-ears erbij nemen (duik bijv. eens in 'chi-fi', interessant!). De geluidskwaliteit van meegeleverde oortjes en de 'buds' of 'pods' is erbarmelijk als je dat eenmaal gehoord hebt.

[Reactie gewijzigd door Cavalino op 25 juni 2020 17:32]

Het is uiteraard niet alsof er een hifi module in normale apparatuur is gestopt, maar ik heb bijvoorbeeld een Samsung Chronos 7 laptop met JBL speakers en subwoofer, en dat geluid is wel degelijk een stuk beter dan een willekeurige andere laptop. Uiteraard zit er een deel gevoel bij, maar als merk wil je ook juist staan voor je naam IPV alleen maar te cashen met crap geluid.
55" is toch een TV en geen monitor.
Een TV heeft toch meestal een tuner en speakers..
Ik kan zo geen scenario bedenken waarbij je een 55" op je bureau wil, zal wel voor een reclame zuil of in een vergaderruimte gebruikt worden.

Bij monitor denk ik altijd aan dat het ding op een bureau staat, dat mag dan een behoorlijk diepe bureau worden of een stijve nek krijgen.

[Reactie gewijzigd door mr_evil08 op 25 juni 2020 14:38]

Dat dachten we ook over 49" (super wide) monitoren en zie hier..
55" is even breed en iets hoger.

[Reactie gewijzigd door Olaf van der Spek op 25 juni 2020 15:50]

Deze heeft toch de soundbar als speakers? Een tuner maakt het verschil, al denk ik dat weinigen die tegenwoordig nog gebruiken. Wat wel mist is een afstandsbediening, of iig ir-ontvanger. Dan is dit een ideale 'tv'.
Er zijn nog genoeg mensen met "coax" in Nederland hoor. ;-)
Dus die tuner wordt nog vollop gebruikt bij TV.
Hangt van het gebruik af. Ik heb het wel eens gezien bij een klant dat ze op schermen data en beelden in de gaten hielden van schepen die bijgeladen werden. Gebruikten ze televisieschermen voor. Voor hen zou het ideaal zijn. Denk verder bijv ook aan demo-schermen, een retailer die een computer samenstelt of het doornemen van de configuratie van een auto samen met een klant.
Wel jammer dat de schermen dan HDMI 2.0 hebben, kun je dus niet 120fps op 4K afspelen volgens mij.

Edit: zie nu pas dat het artikel ook aangeeft dat de schermen met HDMI 2.1 pas later komen. Toch lijkt mij dan het scherm wat nu HDMI 2.0 heeft een beetje overbodig.

[Reactie gewijzigd door NickDLH op 25 juni 2020 13:10]

Via displayport 1.4 kan het wel.
Dat is waar, al denk ik wel dat de volgende generatie consoles wel weer HDMI (2.1) zullen zijn en geen displayport.
Dit zou zomaar eens mijn nieuwe TV kunnen worden. Ik wil m'n Ambilight niet kwijt, maar afgezien van één HDMI-in, gebruik ik de functies van m'n TV totaal niet. En nee, ik vind nou niet dat die DIY-oplossingen met LED-strips en een extra HDMI-box enzo een goede oplossing zijn.
Dit is inderdaad een prachtige TV voor alle mensen die geen smart functionaliteiten willen. Jammer dat de vormgeving zich slecht leent voor bijvoorbeeld ophanging aan de muur.
4K120hz, console gericht, HDMI 2.0 |:(

Geef het dan op zijn minst een HDMI 2.1 poort, nu heb je er nog niet zoveel aan omdat je constant zit te switchen van output resolutie als je gebruik wilt maken van de 120Hz verversingssnelheid plus je krijgt extra onnodig up- en downscaling als je op 1080p of 1440p output.

(output resolutie != render resolutie)

[Reactie gewijzigd door Caayn op 25 juni 2020 12:10]

USB:
1 x USB-B (upstream), 4 x USB 3.2 (downstream met 2 B.C 1.2 voor snel opladen)

dit is ook maar karig.

De vorige versie (43"), heeft wel usb C met power delivery. Die heeft dan weer enkel een ambiglow vanonder...frustrerend.
Veel bedrijven lijkt nog huiverig voor HDMI 2.1....
Zou er iets nog niet goed zijn want het duur lang?
En de compatibility problemen tussen hdmi2.1 tv's, consoles en videokaarten lijkt toch wel in die richting te wijzen.

[Reactie gewijzigd door Countess op 25 juni 2020 16:36]

Het probleem is dat de chipset die ze gebruiken om het signaal 'aan te pakken', te verwerken, en door te sturen naar het daadwerkelijke paneel, ook daadwerkelijk die input moet ondersteunen.
Vaak zie je met een nieuwe (versie van een) standaard dat er eerst maar een of twee chipsets beschikbaar komen die dat ook kunnen, en die zijn dan ook gelijk relatief best wel duurder dan de concurrentie.

Elke dollar die je kwijt bent aan onderdelen is er één die je in elk geval niet meer als winst kunt boeken (en ga er maar van uit dat je voor elke dollar aan BoM cost ze-ker drie á vier euro aan uiteindelijke adviesprijs moet rekenen, wil je uiteindelijk uit de kosten komen!)

Daar komt bij dat het heel goed kan dat geen van die nieuwe chips/chipsets ook álle features die je écht graag in je product wil kunnen adverteren, ondersteunen. Niet zelden is het een dilemma of je óf die nieuwe inputstandaard ondersteunt, óf een stukje beeldverwerkings-tech die je per sé nodig hebt bieden kunt.

De hele markt ondersteunt (economisch, that is) ook maar een betrekkelijk beperkt aantal verschillende chipsets; niet elke niche aan TV/monitor heeft helemaal z'n eigen speciaal daarop toegespitste meuk aan boord. Je gaat dus ook sowieso niet zomaar even een aparte chipset rollen voor een niche-ish eindproduct als dit!

Eind van het liedje is dat het enige wat er niet goed is aan HDMI 2.1, de beschikbaarheid van vereiste componenten die het ondersteunen is - en de traagheid waarmee die beschikbaarheid op gang komt is ook wel domweg een functie van hoe beperkt nuttig HDMI 2.1 echt is; het is soort van een vergaarbakje van alle functies die leuk zijn als extraatje, maar soort van niet echt op een gewone consumenten-TV/monitor thuis horen (want dat doet HDMI 2.0 al vrij aardig).

Weet je nog hoe lang het duurde voordat videokaarten alom HDMI 2.0 begonnen te ondersteunen? Ik nog wel, en dat was frustrerend lang.

(compatibility-issues tussen HDMI 2.1 devices zijn geen compatibility issues, meer dat je een apparaat HDMI 2.1 mag noemen zonder de hele kerstboom/kitchen-sink aan features te ondersteunen. Als niet al jouw apparaten de feature die je zoekt ondersteunen, werkt ie niet. Nogal wiedes :+ )
Misschien een domme vraag, maar hoe kan een 60Hz paneel een inputlag hebben van 1,5ms? 60Hz is circa 17ms, dus een lagere inputlag kan toch niet? Het scherm kan immers niet sneller verversen en dus de resultaten van de input tonen?.
Input lag is de extra lag en heeft niet zoveel met de refresh rate te maken.
Juist wel toch, een 60Hz scherm kan niet sneller reageren dan zo'n 17ms, of kan het meer beelden dan 60fps tonen?
Nee, maar alsnog gaat input lag over iets anders..
Met inputlag word bedoeld hoe lang het duurt voordat de hardware het nieuwe singaal detecteerd en verwerkt van de videokaart. Verversingsnelheid is hoe lang het duurt voordat een paneel het signaal omzet naar een nieuw beeld.

Inputlag daar dus bovenop ;)
Dat lijkt me ook de meest logische interpretatie. De Hz van een scherm is dus verreweg de dominante factor voor inputlag. Geen wonder dat dat 144Hz schermen zo geliefd zijn bij gamers, de inputlag is daarbij meer dan gehalveerd.
De inputlag is niet gehalveerd bij 144Hz. De inputlag is constant. Met een een inputlag van 10ms wordt ieder frame (ongeacht de refreshrate) met 10ms vertraging getoond. De inputlag is altijd bovenop de tijd tussen twee frames.

Dit is ook de reden dat ik voor arcade-emulatie een beeldbuismonitor gebruik. Deze is volledig analoog en heeft een inputlag van 0. Geen enkel plat scherm dat in de buurt komt.
Als een scherm 17ms refreshrate heeft en 5ms inputlag gaat het dan niet als volgt?:

t=0ms binnenkomst beeld
t=5ms beeld verwerkt
t=17ms beeld op scherm
repeat.

Als het bovenop de refreshrate komt loopt de Hz in de soep, dus dat lijkt me eigenlijk heel vreemd, want het scherm toont altijd 60 keer per seconde een nieuw beeld, niks meer, niks minder. Als het 17+5 wordt, dan gaat de Hz naar 45 beelden per seconde.

[Reactie gewijzigd door JoeB2C op 25 juni 2020 13:05]

Nope, verwerking gebeurd terwijl het vorige beeld / de vorige beelden weergegeven worden.
Nee, inputlag is de lag tussen je input (muisklik) en wanneer je scherm dat weergeeft (dus niet wanneer jij t ziet en/of hebt verwerkt).

Althans, er is geen harde definitie natuurlijk, maar is dit meest gangbare.
1.5ms is de tijd die nodig is om een beeld te tonen niet om hem te renderen of hoe snel een scherm kan wisselen tussen twee frames ;)

Als je bron (PC, console, dvd speler, etc) een frame stuurt naar het scherm dan heeft het scherm 1.5ms nodig om dit weer te geven.
Maar een frame dat naar het scherm gestuurd wordt wordt toch gewoon in een wachtrij gezet tot de volgende frame na 1/60e seconde die het scherm kan weergeven? Het scherm kan niet sneller reageren dan zijn verversingssnelheid toch?
Nee. De verversingssnelheid is de tijd tussen twee frames in, ongeacht of de frames uniek zijn, dat is inderdaad "snelheid / second". De input lag van een scherm geeft aan hoelang het scherm nodig heeft om een frame daadwerkelijk te tonen, een soort offset als het ware.

Bijvoorbeeld:
Gegeven een perfecte video met 16.6ms frametimings op 60hz en dit scherm met 1.5ms input lag. Iedere frame van de video wordt netjes voor 16.6ms weergegeven maar iedere frame heeft een vertraging van 1.5ms omdat het verwerken van het frame en aansturen van de pixels door het scherm tijd kost (1.5ms in dit geval). Zou je dezelfde video op een 120Hz scherm afspelen blijft de tijd tussen twee unieke frames nog steeds 16.6ms.

De tijd tussen frames in blijft gelijk en de verversingssnelheid wordt niet aangepast, de gehele video wordt met een vertraging van 1.5ms weergegeven.

[Reactie gewijzigd door Caayn op 25 juni 2020 13:52]

Inputlag is niet hetzelfde als verversing snelheid. Inputlag is de tijd die het kost om de informatie die binnen komt (van de hdmi/dp) op het beeldscherm te zetten. Je wilt dus dat de maximale inputlag lager is als je verversing snelheid. Anders heb je kans dat het scherm twee dezelfde beelden laat zien.
Kan een scherm halverwege de verversing een nieuw beeld tonen? Ik dacht dat een 60Hz scherm nooit meer dan 60fps kan tonen, en dus per definitie een vertraging van 17ms tussen input en output heeft.
Klopt, maar het is niet zo dat als het frame binnen komt, direct op het scherm wordt gezet. Het wordt opgeslagen in een buffer. Dus als de input lag hoger is, kan het zijn dat het nieuwe frame nog niet volledig in het buffer zit en dan krijg je op je scherm de gedeeltes te zien van het "oude" frame en het "nieuwe" frame. Dit wordt ook wel screentearing genoemd.
Kan een scherm halverwege de verversing een nieuw beeld tonen?
Als vsync uit staat kun je beeld van twee verschillende frames op je monitor hebben ja..
Groot fan van Amilight/Ambiglow

Die 27 lijkt me wel wat!
Wat is het verschil tussen die 2? Ambilight en Ambiglow?
Is hetzelfde, waarschijnlijk Amilight voor TV's en Ambiglow voor gaming monitors
Ik weet niet hoe dat gaat met deze nieuwe monitoren, maar het Philips Ambiglow scherm wat ik hier voor mijn neus heb staan is in de praktijk niet werkelijk te vergelijken met Ambilight uit diezelfde periode zoals ik dat elders heb gezien. V.w.b. verwerkingsnelheid en kleuren variëteit is Ambiglow met mijn monitor niet werkelijk fantastisch. Daar heb ik het scherm destijds echter ook niet voor aangekocht, extraatje zullen we maar zeggen. Ik heb het wel altijd op actief staan omdat wat licht aan de achterzijde van het scherm wel prettig kijkt.

Nu zitten er echter al flink wat jaren tussen de beschikbaarheid van mijn monitor en wat er nu is aangekondigd, dus mogelijk is Ambiglow 2020 totaal niet te vergelijken met 2012, in positieve zin bedoel ik dan ;)

Edit: "bij de eerste monitoren zat de verlichting alleen aan de onderkant." << het zit bij mij aan beide zijkanten.

[Reactie gewijzigd door hardware-lover op 25 juni 2020 13:20]

Nog niet perfect, maar het gaat wel de goede kant op.
Heerlijk, een groot scherm zonder TV tuner en zonder Smart TV.
Dit zou voor mij perfect zijn voor in de woonkamer in combinatie met:
- Apple TV voor TV kijken met NL Ziet, Netflix, Youtube, Disney etc.
- PS5. Eventueel met een verloop van Displayport 1.4 naar HDMI 2.1

De soundbar zit ik zelf nog niet zo op te wachten en ben heel benieuwd naar de beeldkwaliteit.
Voor het zelfde geld heb je namelijk ook een LG OLED met 120hz en HDMI 2.1

[Reactie gewijzigd door yorroy op 25 juni 2020 12:16]

En op die LG zit ook nog eens Gsync.

Het idee is er en ik vraag me af wat de daadwerkelijke prijzen worden (die LG had ook een hogere adviesprijs).
Deze ga ik toch overwegen wanneer mijn huidige tv vervangen moet worden.
Het lijkt mij ook ideaal als tv. Chromecast en gaming pc eraan en het is een fantastische setup

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True