Samsung kondigt oledmonitors aan, waaronder 27"-1440p met 500Hz en 27"-4k

Samsung heeft diverse oledmonitors aangekondigd, waaronder de eerste 27"-4k-monitor van het bedrijf en het eerste qhd-oledscherm met 500Hz-verversingssnelheid. Samsung noemt nog geen prijzen of beschikbaarheid.

Het 27"-4k-model heet Samsung Odyssey OLED G8 G81SF en heeft een ppi van 165 en een verversingssnelheid van 240Hz. Het 27"-model met 2560x1440-resolutie heeft een verversingssnelheid van 500Hz. Dit model is de Odyssey OLED G6 G60SF. Beide modellen hebben volgens Samsung een gtg-responstijd van 0,03ms, ondersteunen AMD FreeSync Premium, Nvidia G-Sync en VESA DisplayHDR True Black 400.

Verdere details deelt Samsung nog niet, maar het bedrijf zegt ze wel te tonen op de CES-beurs volgende week. Dit geldt ook voor de andere monitors die Samsung aankondigde, zoals de 27"-Odyssey 3D G90XF. Dit scherm heeft een lenticulaire lens en een stereocamera aan de voorzijde van het scherm voor 3d zonder extra bril. Het scherm kan ook 2d-beelden omzetten naar 3d. Samsung meldt niet om wat voor paneel het hier gaat.

Smart Monitor M9 en ViewFinity S8

Samsung kondigt ook de Smart Monitor M9 M90SF aan, de eerste monitor van het bedrijf met 'on-device AI'. Dit analyseert de ingangssignalen om de scherminstellingen aan te passen aan het type content, zoals games, video of productiviteitstoepassingen. Dit kan de monitor ook per gamegenre. Samsung deelt niet concreet welke instellingen er op welke manier worden aangepast. Het scherm kan ook met 'geavanceerde AI-verwerking en neurale netwerken' content 'met een lagere resolutie' upscalen naar 4k. Dit moet 'ongeacht de oorspronkelijke resolutie' werken, stelt Samsung. De Smart Monitor M9 heeft een 32"-4k-oledpaneel met DisplayHDR True Black 400.

Het laatste scherm dat Samsung donderdag aankondigt is de ViewFinity S8 S80UD, 'de grootste 16:9-4k-monitor' van Samsung. Het gaat om een 37"-model waarvan het paneeltype onbekend is. Het scherm ondersteunt 99 procent van het sRGB-kleurengamma en kan de kleurtemperatuur aanpassen aan de hand van het omgevingslicht. Het scherm heeft ook een kvm-switch en een 90W-USB-C-aansluiting.

Samsung monitors CES 2025

Door Hayte Hugo

Redacteur

02-01-2025 • 16:11

75

Lees meer

Reacties (75)

75
75
41
3
1
23
Wijzig sortering
Ik heb even een Samsung Odyssey OLED G8 G80SD - 32" in huis gehad maar dat vond ik toch wel een behoorlijke tegenvaller. Eerste wat mij al gigantisch stoorde was de 1ste opstart met dat hele Tizen OS waar je dan eerst een aantal stappen moest doorlopen. Vervolgens was het een hele kunst om simpelweg displayport te kunnen kiezen om de monitor puur als pc-monitor te kunnen gebruiken.

Maar wat ik het meest tegenvallen vond was de helderheid ondanks dat ik vanwege mijn ooghandicap ( lichtgevoeligheid ) de monitor nooit boven 30 tot 50% helderheid gebruikte. Echter zelfs mij was de helderheid te laag echter als je de helderheid hoger zette werden kleuren onnatuurlijk helder. Van alles geprobeerd qua instellingen maar nee, kon mij absoluut niet bevallen. Mijn vermoeden is dat dit vooral dan met die anti-reflectiecoating te maken had.

Uiteindelijk gekozen voor een MSI MAG 341CQP QD-OLED monitor die mij wel heel goed bevalt en het gekke is dat daar dus ook een Samsung paneel in zit. Volgens de specs zou deze monitor ook een anti-reflectiecoating hebben maar blijkbaar veel minder agressief als Samsung. Helderheid bij deze monitor is dan ook heel goed en ik hem veelal op max 50% heb staan en het beeld dan heel helder is.
Volgens mij kan je Tizen uitzetten in de settings and dan functioneert het als een normale monitor, ben hier pas op gewezen nadat ik mijn Odyssey G8 OLED had teruggestuurd. Tizen is imo helemaal niet geschikt voor gebruik als monitor, elke keer als ik mijn laptop via USB-C inplugde dan verscheen de input helemaal achter aan de lijst met apps en mijn desktop liep vast als Windows het scherm uit deed. Tizen gaat er gewoon van uit dat het een TV is, en daar is het ook op ontworpen. Zo ook gigantische warning message bij disconnect, in waar je zou verwachten dat de monitor gewoon uit gaat.

[Reactie gewijzigd door 24hourpartypal op 3 januari 2025 19:24]

Eigenlijk zou het zo moeten zijn dat de monitor als 1ste opstart als 'gewone' monitor en je dan b.v. via het menu dan naar dat TizenOS kan switchen. Maar meest tegenvallen vond ik toch wel die helderheid en het net leek door die anti reflectiecoating dat er een soort van waas was. Beetje hetzelfde als wat ik bij mijn vorige monitor met IPS panel had, die had IPS glow, ongeveer dat effect zag ik ook bij die Samsung.

Gekke is alleen dat dus in die MSI die ik nu heb ook een Samsung panel zit met anti reflectiecoating, maar deze monitor is heel helder. En ja qua werking van de coating, hier zie je ook zo goed als geen reflectie dus vreemd dat het Samsung blijkbaar niet lukt bij hun eigen monitoren.
Bij Samsung telefoons toch idem qua kleuren?
Ligt aan de serie, bij de A serie zoals b.v. die A55 was ik ook eerlijk gezegd niet kapot van de kleuren. Daarentegen weer een heel verschil bij de S serie waarbij de kleuren wel weer levendig en brilliant zijn.

Ik bekijk het dan puur vanuit wat ik zelf prettig vind en dus niet vanuit technisch oogpunt. Kan best zelfs zijn dat de kleuren van b.v. een A55 misschien 'natuurlijker' zijn dan van een S serie. Alhoewel ik dat ook betwijfel want die kleuren zijn echt vale kleuren.
Ik zal het fijn vinden als Samsung op hun computermonitoren de hele Tizen-laag weglaat. De OLED-beheer functies zijn fijn, maar hoe alle dingen als apps, input-selectie, en andere zaken vindt ik minder nuttig. Het is een computer monitor primair, waarom zou ik er youtube op kijken als ik op het aangesloten apparaat een betere ervaring heb? Ik snap dat hele advertentie-model wat moderne schermen/TV's hebben, en vindt het erg jammer, maar Tizen is wel een van de slechtere ervaringen, zeker voor een computer monitor. Hoe het ook inputs qua namen veranderd is erg spijtig, alles "PC" noemen vertelt mij niet of iets HDMI, DP, of USB-C in is. Het feit dat er een afstandsbediening nodig is waar 4 reclame-knoppen opzitten is ook erg jammer.

Wat nog minder is, is dat als je hem als USB-dock gebruikt met een lading input/headset/andere zaken er aan, dat Tizen die apparaten kan "hijacken", zodat je bij een input-swap tijdelijk je devices (inclusief sommige audio) aan je monitor hebt hangen.

Tizen is iets wat deze anderszins geweldige monitoren (heb een PC aan een LG G2, en een PC aan een Samsung Oddysey G8 OLED, en de G2 is een geweldig scherm, maar de G8 is echt... zeker in HDR, zoiets anders), zeker qua respons, kleur, helderheid, toch wel een domper geeft.

[Reactie gewijzigd door Umbrah op 2 januari 2025 16:20]

Moet zelf toch wel zeggen dat het echt wel meer waarde heeft. Je kan tv kijken op de monitor zonder dat de computer aan hoeft te staan scheelt weer stroom en je zit niet vast aan je bureau zonder weer iets te moeten kopen zoals een draadloos keyboard met trackpad ofzo. Wij hebben er dan ook 2waarvan 1 in de keuken en nog 1 in de eetkamer staan en die word veel gebruikt in beide standen als mini pc monitor en los als tv.
Waarop gedoeld wordt indien er smartfunctie,s opzitten is het scherm veel langzamer met opstarten(in/uitschakelen), kan vervelend werken als dit je computermonitor is.

De hardware in het scherm is vaak niet van dusdanig kwaliteit dat het redelijk vlot gaat.

[Reactie gewijzigd door mr_evil08 op 2 januari 2025 21:24]

Waarop gedoeld wordt indien er smartfunctie,s opzitten is het scherm veel langzamer met opstarten(in/uitschakelen), kan vervelend werken als dit je computermonitor is.

De hardware in het scherm is vaak niet van dusdanig kwaliteit dat het redelijk vlot gaat.
Ik vind het redelijk vlot op mijn g8(voorlopig toch).

Ik erger me vooral aan het feit dat je 7-8 knoppen op de afstandbediening moet induwen om van input te switchen.

En automatisch van input swotchen doet die niet, dus als ik mijn laptop insteek terwijl mijn pc uitstaat dan pakt die niet automatisch mijn laptop maar moet ik manueel het display aanzetten, op de home-knop klikken, 1x omlaag(want ads!) en dan helemaal naar rechts en de input bevestigen, dit kon simpelweg worden opgelost met een knop op de monitor om van input te switchen.

Aan de andere kant heeft het de meerwaarde dat je zeer bruikbare speakers hebt(waardoor ik geen externe speakers meer nodig heb), is het instellingen menu veel beter als dat van andere monitors, en kan ik snel even netflix openen zonder in de browser van mijn pc te moeten duiken...
Een LG OLED C3 42" is vlot met opstarten springt naar de laatst gebruikte HDMI input.
Ik moet alleen eerst de TV aanzetten met de afstandsbediening en daarna de PC.
Ik zag dat er ook een aan/uit knopje onderop zit.

Op het moment weer even een oude 27" Dell in gebruik maar ik mis wat schermruimte.
anders gezien kost die interne computer gewoon *altijd* extra stroom, ook als je het scherm alleen als monitor wilt gebruiken en de compute elders doet.
Dan kan zo iemand beter een TV kopen.

Of als het per se een monitor moet wezen, een 3rd party stick zoals een chromecast.

Wat ook nog beter is ook, als de updates ervan stoppen vervang je de stick voor nieuwe, terwijl nu je net als met een TV opgezadeld zit ermee.

Want het zit er vooral erop om extra data te graaien, en daarmee extra centen te verdienen voor de fabrikant, en hoewel ik het niet fijn vind dat TVs mee kunnen kijken wat je met je TV doet, ik doe veel meer persoonlijke dingen op mijn PC, dan heb ik liever een domme monitor.

"Maar dat kan toch uit" of "dan koppel je die scherm niet aan het internet" zullen sommigen zeggen.

Die zooi zit er met een reden op, en mensen gaan het net zo makkelijk accepteren als met de TV markt, straks zijn alle monitoren "smart" en endigt de monitor markt met zelfde ellende als de TV markt (deze is nog erger want "AI")

[Reactie gewijzigd door Mizgala28 op 2 januari 2025 18:58]

Een Chromecast achter een (domme) monitor is dan toch veel beter om "TV" te kijken? Zie de meerwaarde echt niet om dit ingebouwd te hebben. TV's liever ook niet maar dat kan ik nog enigszins begrijpen. Uiteindelijk is het simpel, de TV/monitor gaat langer mee dan de OS ondersteuning. Dan liever hierop besparen en dit zelf verzorgen met een simpel extern apparaatje.
Onlangs de LS49CG934SUXEN (49" inch Samsung QD Oled display) in huis gehaald. Er is ook een LS49CG935SUXEN, die is nieuwer maar enige verschil is de tizen laag. Die zit er op de G934 dus niet op. Wellicht interessant om te weten dus dat op dit moment hun tizen panelen ook zonder tizen verkocht worden. Hoe lang dat nog gaat duren durf ik uiteraard niet te zeggen.

Zelf heb ik het Tizen gedeelte op een monitor ook niet begrepen. Ik lees dat sommige mensen het fijn vinden want dan kunnen ze tv kijken zonder de computer aan te zetten. Maar als je tv kijkt met een decoder zul je alsnog een hdmi kabel aan moeten sluiten (dat kunnen die displays zonder Tizen ook prima). Of zijn het dan toch de apps die men wilt gebruiken? Dat kan ik me dan nog enigszins wel voorstellen (persoonlijk zou ik er dan eerder een shield of google tv aan hangen al is het maar omdat die vaak sneller zijn dan ingebouwde apps).
Ik vraag me bij tv's en monitoren af wat nu OLED is. Is het de achtergrond verlichting? Is het een witte OLED met een kleurenmasker? Of is het RGB-OLED?
Bij OLED kan je sowieso elke pixel individueel aansturen en heb je dus diep zwart en geen backlight bleeding (doorschijning door de achtergrondverlichting). Bij Lg's WOLED heb je witte dots met een kleurfilter + een witte OLED dot voor extra brightness, bij Samsung's QD-OLED heb je blauwe dots (in een wat vreemde configuratie) met quantum dots er overheen die de frequentie van het licht veranderen (wat beter is dan een kleurfilter omdat het filter licht tegenhoud en dus verlies betekend).

[Reactie gewijzigd door uiltje op 2 januari 2025 17:55]

Bij LG zijn het overigens allemaal witte OLEDs waarvan 3 een kleurfilter hebben. Ze gebruiken dus niet OLEDs die verschillende frequenties uitzenden.
Bij LG zijn het overigens allemaal witte OLEDs waarvan 3 een kleurfilter hebben. Ze gebruiken dus niet OLEDs die verschillende frequenties uitzenden.
Heeft elke subpixel bij LG een eigen OLED dan?

Dacht altijd dat WOLED juist 1 led was per pixel ipv per subpixel. Maar kan er vrij weinig concrete info over vinden om dat met zekerheid te zeggen.

[Reactie gewijzigd door watercoolertje op 3 januari 2025 10:12]

@watercoolertje en @roelie101 , dat kan toch helemaal niet? Je zou dan alleen maar de intensiteit van een gehele pixel aan kunnen sturen en niet van elke kleur individueel. Het is immers geen actieve filter. Iedere subpixel moet dus individueel licht geven en kwa intensiteit geregeld moeten worden. Anders kun je nooit een x aantal miljoen kleuren produceren. In het youtube filmpje van Roelie is de licht gevende laag versimpeld weergegeven. Want ook de QD laag is niet een actieve laag.
Klopt wat jij zegt. WOLED gebruikt 1 witte pixel met 4 filters erover RGBW.
QD-OLED gebruikt een blauw pixel met 3 QuantumDots (komt neer op een soort filter) RGB.
Link: op min2:30
https://www.youtube.com/watch?v=y4pHSaFo664&t=62s

[Reactie gewijzigd door roelie101 op 3 januari 2025 10:23]

Klopt. Bij Samsung zijn ze allemaal blauw, en gebruiken ze quantum dots om de golflengte omlaag te drukken zodat groen en rood verschijnt. Conversie, maar uiteindelijk stiekem een soort van filter.
Wel apart dat Samsung blauwe LED's gebruikt. Ik dacht dat blauwe LED's het snelst slijten.
Krijg het idee dat maximaal hertz een marketing ding gaat worden.
Verschil tussen 60>144 was groot, 144>360 minimaal, vraag me af of 500hz nog zin heeft.
Elke keer weer bij elk nieuwsartikel over monitoren komt dit weer naar boven. Als ik kort maar krachtig mag wezen: ja het heeft zin. Nee je hoeft er geen professioneel gamer voor te zijn. Als je 144hz goed vind (en dat is het ook), kan je met 500hz dubbele BFI doen voor effectief 166hz maar dan met een beeld dat vele malen scherper is. Met 1000hz heb je geen BFI meer nodig. Hoger dan 1000hz weet ik niet of dat nog wel zin heeft. Lijkt me onnodig, net zoals 8000hz mouse polling rates.
Elke keer weer bij elk nieuwsartikel over monitoren komt dit weer naar boven.
En dat zal zo blijven, omdat een bepaalde groep van mensen altijd blijft aangeven dat hoe meer Hz des te beter is .. maar de meeste mensen het toch gewoon niet zien. Het is niet omdat jij of ik het verschil zien tussen 60Hz en 120Hz en 240Hz dat anderen dit ook zien.

In de PCshop heb ik schermen van dezelfde merken gewoon voor mij, met de verschillen in Hz en van FullHD, naar QHD, naar 4K. Het mooiste beeld heb je gewoon in 4K, zelfs al is dit op 60Hz.

Maar ja, QHD op 120Hz is beter voor actiegames en vooral competitie .. maar dan moet je GPU ook wel mee en dat vergeten de meesten soms.

toen FullHD van 120Hz naar 144Hz ging was dit het volgende walhalla dat nauwelijks verschil gaf, maar alle gamers moesten dit wel hebben. Maar QHD op 120Hz is gewoon beter beeld dan FullHD op 144Hz of 240Hz. Dat wordt momenteel dan ook het meest verkocht, omdat het betaalbaar is en je hier geen RTX4080 of RTX4090 voor moet installeren zoals bij 4K wel het geval is.
In de PCshop heb ik schermen van dezelfde merken gewoon voor mij, met de verschillen in Hz en van FullHD, naar QHD, naar 4K. Het mooiste beeld heb je gewoon in 4K, zelfs al is dit op 60Hz.
Je haalt hierbij twee zaken door elkaar: beeldkwaliteit (resolutie, maar bijvoorbeeld ook kleurweergave, contrast, enzovoort) en responsiviteit (verversingssnelheid, maar ook input lag, enzovoort). Als je meer detail en scherpte wilt zien, kies je voor een hogere resolutie, zoals 4K. Wil je echter meer vloeiendheid en snelheid, dan is een hogere refresh rate, zoals 240Hz of meer, de betere keuze. Bij games draait het niet altijd alleen om beeldscherpte, maar juist om snelheid en soepelheid in weergave, zeker wanneer je competitief speelt.

Je hoeft het verschil niet altijd bewust te merken om er toch voordeel van te hebben. Bij sommige dingen merk ik zelf ook niet direct verschil, maar als je het meet, blijkt het gewoon beter te zijn (daarom wil je ook data driven werken). Bijvoorbeeld bij hogere Hz-schermen: ook al zie je het misschien niet direct, feitelijke metingen laten zien dat je sneller reageert, meer consistent bent en beter presteert. Dat voordeel is er dus, ook als je het niet altijd doorhebt.

In deze video van Nvidia, uitgelegd door een expert, wordt de relatie tussen de verversingssnelheid van monitoren en de frame rate gedetailleerd besproken. Een hogere Hz-waarde en frame rate zorgen voor een soepelere weergave, wat vooral bij snelle games een groot voordeel kan zijn. Dit komt doordat objecten sneller en duidelijker herkenbaar zijn, wat bijdraagt voor tijdige reacties. Je ziet namelijk sneller een update. Een 360Hz monitor toont elke 2.8ms een beeld een 500hz monitor elke 2ms. Elke kleine verbetering die de reactie tijd verlaagd is een voordeel, maar wel een voordeel die per stap hoger steeds kleiner wordt.

Je wilt de Hz van je monitor en de frame rate het liefst zo hoog mogelijk hebben. 540 vs 240 of 144 is een stukje smoother en dat kan weldegelijk uitmaken. Zeker bij fast paced games is het fijn voor objectherkenning (Waarneming: er loopt iets) of om meer up to date frames te hebben om op te schieten en dus sneller kan klikken op de correcte plaats.

Op het tijdstip 5:12 in de video wordt een voorbeeld getoond waarbij een speler om de hoek komt en eerder zichtbaar is met een hogere fps. Zowel de hand als het lichaam van de tegenstander zijn fractioneel eerder te zien. Verder toont een grafiek op 5:59 dat spelers met een hogere fps en Hz een betere kill/death-ratio hebben.

Wetenschappelijke studies bevestigen dit voordeel: onderzoek van de Universiteit van Nottingham toonde aan dat gamers met een 240Hz-beeldscherm gemiddeld 30% sneller reageren op visuele stimuli dan gamers met een 60Hz-beeldscherm. Onderzoek van de Purdue University wees uit dat gamers met een 144Hz-beeldscherm 20% sneller reageren op targets dan gamers met een 60Hz-beeldscherm. Echter, de grootste stappen worden gemaakt bij lagere framerates, zoals verbeteringen in visuele responsiviteit bij overgangen van lagere naar matig hogere refresh rates (bijvoorbeeld van 60 Hz naar 144 Hz) volgens het tijdschrift 'Attention, Perception, & Psychophysics'. De voordelen bereiken een punt van afnemende meerwaarde.

Ik kwam zelfs dit onderzoek tegen waarbij CRT-schermen centraal staan: Bridgeman en Montegut (1993) toonden aan dat hogere flickerrates de leessnelheid kunnen verbeteren door de wachttijd tussen zichtbare tekstupdates op CRT-schermen te verminderen. Hoewel dit onderzoek zich specifiek richt op het lezen van tekst, wijzen de resultaten op de mogelijkheid dat soortgelijke principes ook van toepassing kunnen zijn op andere vormen van visuele verwerking, zoals bij videogames. Zie ook deze afbeelding: https://tweakers.net/foto...KxNDmKSWooPKWvG4GUFby.png
The higher the contrast ratio is, the shorter the reaction time tends to be. In addition, the faster the response time is, the shorter the reaction time is. Displays with high contrast ratio and fast response time are advantageous in terms of reaction time, which is also expected to be more advantageous in a fast-paced real gaming environment.
https://sid.onlinelibrary...doi/abs/10.1002/jsid.1198

Wat is de max?
Tests with Air force pilots have shown, that they could identify the plane on a flashed picture that was flashed only for 1/220th of a second. That is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second.
http://www.100fps.com/how_many_frames_can_humans_see.htm
Word in dit filmpje vanaf +/- 4:00 ook kort op ingegaan.

Note: Het originele onderzoek betreft de waarneming van zeer korte visuele stimuli onder gecontroleerde omstandigheden, wat niet direct 100% vertaalbaar is naar de perceptie van frame rates in videogames.

Linus Tech Tips heeft ook experimenten (niet wetenschappelijk) uitgevoerd met CS:GO op monitoren van 60, 144 en 240 Hz. De resultaten tonen aan dat spelers met hogere frame rates over het algemeen snellere reactietijden hebben. Linus concludeert dat vooral casual spelers baat hebben bij een upgrade van 144 naar 240 Hz, meer nog dan professionele spelers.

Op 33:51 concludeert Linus dat casual players (nog) meer baat bij de verhoging van 144 naar 240 hebben dan de professionelere spelers. Op 34:50 concludeert Linus eigenlijk hetzelfde als ik hierboven ook al opsomde vanuit de Nvidia clip.

De meerwaarde van een hoger Hz scherm is er dus wel degelijk, waar de limiet van effectief gebruik ligt kan ik zo niet vinden maar die ligt dus in ieder geval wel boven veel verkochte Hz monitoren die op dit moment op de markt te vinden zijn. Het lijkt me dat een scherm met 500 Hz of hoger zeker een effectieve toevoeging kan zijn voor voor gamers (Fast paced shooters, in de toekomst vr als ze kleiner kunnen worden, idem met pro drone vliegen) met een degelijke use case. Een hogere framerate zorgt voor een soepelere gameplay en een kortere input lag, wat onmisbaar is voor competitieve gamers.

Dit YouTube kanaal geeft trouwens een basis uitleg over hoe onze hersenen en ogen werken en hoe dit te vergelijken is met fps op een scherm.

Er is trouwens ook een reden waarom veel Pro gamers kleiner 24-25 inch) monitoren prefereren, naast zaken als hoge verversingssnelheid. Te grootte schermen gaan in je nadeel werken omdat je dan niet alles meer kan overzien binnen je (centrale) blikveld, hierdoor ga/moet je hoofdbewegingen maken wat impact heeft op je reactietijd.

Een voorbeeld: https://www.bnr.nl/podcas...-populariteit-van-esports
Vanaf min 31 gaat het over schermen. De standaard lijkt voor bijv. Pro Fortnite spelers op 25 inch te liggen als ik de equipement pages van verschillende pro teams bekijk.

Met de huidige monitoren is een snappy en responsive GUI vaak al meer dan voldoende voor het gros van de doeleinden. Het echte nut van hogere refresh rates zit hem voornamelijk in specifieke usecases, zoals competitieve games of andere toepassingen waarbij snelheid en precisie iets is wat van waarde is.

[Reactie gewijzigd door jdh009 op 2 januari 2025 21:32]

Het is niet omdat jij of ik het verschil zien tussen 60Hz en 120Hz en 240Hz dat anderen dit ook zien.
Je hoeft het verschil niet bewust te kunnen zien om er wel voordeel van te hebben :)
En elke keer weer leest iemand niet goed, nergens zeg ik dat het niet nodig is.
Ik zeg alleen dat de verschillen steeds kleiner worden om nog waar te kunnen nemen.
Ik heb wel goed gelezen. Je vroeg of 500hz nog zin heeft en dat heb ik affirmatief beantwoord. Nergens stel ik dat jij zei dat het onnodig is. Ik denk dat je mijn reactie betreft de regelmaat over dit onderwerp een beetje te persoonlijk hebt opgevat; ik probeer jou echt niet aan te vallen. Ik vind gewoon dat Tweakers hier iets mee kan doen. Niet een één af artikeltje, maar een "zie ook: heeft hogere refresh rates wel zin?" dat dan vervolgens bij elke artikel over monitoren wordt geplaatst.
Nee dat heb je niet, nergens zeg ik dat het onzin is.
nergens zeg ik dat het onzin is.
Je suggereerde het wel degelijk, maar nogmaals je trekt het jezelf te veel aan wat hij zegt.

Ik ben het overigens 100% met hem eens, we weten het wel er zijn mensen die er over twijfelen, prima maar is het nodig die twijfel (die elke keer weerlegd wordt) steeds weer aan te geven?
Je suggereerde het wel degelijk, maar nogmaals je trekt het jezelf te veel aan wat hij zegt.
Dat is het probleem met online, mensen geven hun eigen draai eraan en altijd op de negatieve manier.
Ik heb het nergens gezegt.
Je zei "vraag me af of 500hz nog zin heeft" en iemand gaf antwoord op die vraag.
Ik vraag mij af waarom zoveel producenten 27 Inch monitors maken. Bij 28 Inch kan je een word documentje of pdf op ware grootte toveren. Bij 27 Inch net niet?
https://dl.acm.org/doi/10.1145/3472749.3474783 Uit onderzoek is gebleken dat 1000hz eigenlijk net te weinig is voor muizen, en dat je vanaf 360hz eigenlijk minimaal 2000hz wil.

Ik vraag me alleen af of dat betekent dat je bij 1000hz monitoren meer wil dan dat, ik moet het onderzoek nog even goed doorlezen, heb alleen even geskimmed en de conclusie gelezen.
Als je games speelt die over de 500fps halen heeft het zeker nut, want dan worden tenminste alle frames die je gpu renderd ook weergegeven op je scherm. En het zorgt voor lagere inputlag en hogere motion clarity.
Volgens mij kan een gemiddeld mens ook niet meer dan 144hz zien.
Eerst kon men niet meer zien dan 24fps. Toen niet meer dan 60. Nu niet meer dan 144 :')

Het verschil is er, maar wordt steeds minder merkbaar hoe hoger je gaat. Meer dan 200hz is voor de meeste gemiddelde mensen echt compleet niet interessant. Nog even los van de hardware die je moet hebben om dat soort snelheden te halen op hoge resoluties.
24 FPS vraagt om specifieke manieren van opnemen of van motion blurring in video. Als je 24 FPS draait op een computer game dan wordt je echt mesjogge.
24, 30 en 60fps heeft iedereen wel kunnen zien, het kantelpunt zit rond 85-100fps, enige voordeel om hoger te gaan is dat spellen anders reageren, denk aan COD2 met 250fps ineens verder kon springen en de besturing minder "lag" heeft maar dat zit tussen de oren.
Spelletjes van vroeger waren daar op gebouwd waardoor het minder opviel.

Net als CRT monitoren op 60hz zag ik altijd flikkeren in Windows 9x terwijl het in MS Dos niet zo opviel.

[Reactie gewijzigd door mr_evil08 op 2 januari 2025 17:19]

Als ik mijn monitor switch van 120Hz naar 240Hz, ben ik regelmatig verrast hoe merkbaar directer en zuiverder het beeld functioneer bij gewoon desktop gebruik bij voornamelijk het verslepen van een venster bij 240Hz. Ik geloof dat ik met redelijke zekerheid kan zeggen of mijn scherm op 120Hz of 240Hz draait). Daarmee zeg ik niet dat het nodig is voor desktopgebruik (het draait bij mij meestal op 120Hz en dat is prima), maar zelfs hierbij merk ik het dus als 240Hz wordt gebruikt. En bij gaming merk ik het ook in een die enkele spellen waarbij ik de 240 Hz ook daadwerkelijk haal.

Waar baseer jij op dat het kantelpunt rond de 85-100 fps zit? Ik heb helemaal geen super ogen of dergelijke. Het gaat hier volgens mij puur om discussie of "een gemiddeld mens meer dan X aantal Hz kan zien" (zie reactie RcsProst), niet hoe nuttig of wenselijk het is, of hoeveel het daadwerkelijk bijdraagt aan het spelplezier.

Wat betreft dat laatste ben ik het met je eens als je zegt dat de grootste winst qua spelplezier in de stap van 60 naar 100-120Hz zit (85Hz was in mijn ervaring op mijn PC en de games die ik speelde daadwerkelijk een inferieure ervaring t.o.v. 120Hz).
Het verschil dat je nog kan waarnemen neemt enorm af als je vergelijkt tussen 30 en 60fps.
Verschil tussen 144>360fps bijvoorbeeld is minder dan 30>60fps.

Bij gamen draait het om response dat bereik je op hoger fps zonder tearing als het scherm het ook aan kan.

[Reactie gewijzigd door mr_evil08 op 2 januari 2025 21:21]

Daar zullen weinig mensen het met oneens zijn, dat het verschil tussen 30 en 60 fps het makkelijkst merkbaar is (30 fps is m.i. simpelweg niet leuk om überhaupt mee te gamen).

Ik denk dat het voor diverse interpretaties open is wat je precies met 'kantelpunt' bedoelde. Maar ik denk dat we het grotendeels eens zijn met elkaar. Boven het kantelpunt dat je noemt van 85-100Hz kunnen er nog steeds merkbare verschillen zijn, al geldt ook hier de law of diminishing returns en heeft het bij games met een harde FPS limiet (zoals COD2 blijkbaar met 250 FPS) ook weinig zin, en het is blijkbaar erg persoonsafhankelijk, want sommigen merken niet eens merkbaar verschil tussen 60Hz en 120Hz.
Het kantelpunt zit bij 85-100fps? Heb je daar een bron voor, want een korte zoekopdracht op Google leert dat dat onzin is.
Als 49 jarige computergebruiker recent een 180fps monitor gekocht. Na jaren van 60fps. Sinds corona game ik best veel en ik merk het verschil enorm tussen 60 en meer dan 120fps.

Merk het vooral bij games waar de hele wereld soms om je heen draait in een fractie van een seconde. Bij 60 fps is dat schokkeriger.

Het voelt bij hogere frame rates aan alsof er minder mentale inspanning nodig is om aan te voelen wat er gebeurt. Denk rally games, track mania, en waarschijnlijk first person shooters maar dat is niet mijn genre.

Meer cinematische games zoals red dead redemption 2 en Cyberpunk zijn prima te spelen op lagere frame rates. Zeker rdr2, dat is misschien wegens het film effect wel beter op 24Hz, rustig paardrijdend door de prairie 🤠
Is ook gewoon zo.

Heb zelf verschillende monitoren,
van FullHD op 240Hz, een QHD op 120Hz en een 4K op 60Hz.

Mag je een keer raden welke het mooiste beeld geeft ? .. die 4K op 60Hz natuurlijk, die wordt dan ook gebruikt om de laatste games te spelen en mijn videobewerking te doen.
4K 60Hz mooiste?!? Stilstaand beeld ja.. Zodra je gaat bewegen doet 60Hz gewoon bijna pijn aan je ogen, zo'n wazige bende als het wordt.. Ik merkte het meteen toen ik mijn huidige 160Hz scherm per ongeluk een keertje op 60Hz had gezet.. Daarvoor een 144Hz scherm gehad en ooit begonnen met 120Hz als hogere refreshrate scherm.. Zodra je dat gewend bent kan je echt niet meer terug naar 60Hz.. Ik begrijp echt niet dat mensen anno 2024 nog 60Hz schermen gebruiken om op te gamen op een desktop..
Het gaat hier toch niet om de beeldkwaliteit, maar puur om de verversingssnelheid.

Als jij achter je FullHD of QHD gaat gamen, dan wil je die toch ook minimaal op die 120Hz instellen als je een snelle game gaat spelen? Ik ga zelf dus geen snelle games meer op 60Hz spelen. Dan speel ik dus liever op lagere resolutie met 120Hz en een framerate die daar constant op zit of bij in de buurt komt.

Dat het voor sommige mensen niet uitmaakt dat een auto 600PK heeft i.p.v. de reguliere 75 tot 200PK, betekent nog niet dat 600PK puur een marketing dingetje is. Sommige mensen gebruiken een product anders en hebben andere behoeften. Dat maakt het nog geen marketing truc.
Enkel online bedoel je dan, want je gaat thuis echt geen games meer zitten spelen op FullHD of QHD eens je 4K hebt ervaren.

Voor Call of Duty Warzone en andere online games gebruik ik die QHD 120Hz, maar voor de beperkte beeldkwaliteit die Call of Duty Warzone geeft zou ik evengoed die FullHD 240Hz kunnen gebruiken.
geeft het verschil tussen die 120Hz en 240Hz mij de overhand in games, helemaal niet. Het is niet dat ik bepaalde dingen sneller zie gebeuren of bewegingen vloeiender zie ...

Natuurlijk wil ik een 4K monitor op 144Hz .. dan heb ik mooi beeld en een snellere refresh rate.
Maar is het de betalen centjes waard, nog niet .. ;)
Ik ben naar een 57" Samsung van 7680x2160 die tot 240Hz gaat overgestapt vanaf een 49" Samsung 5120x1440 die tot 240Hz gaat vanuit productiviteitsoverwegingen. Ik heb nog maar weinig tijd om te gamen.

De beeldkwaliteit in game vind ik gek genoeg niet extreem veel beter en is voor mij niet genoeg reden om te upgraden (want een dubbele UHD resolutie kost ook aardig wat performance). Bijv. in een game als Far Cry 6. Het lost het aliasing probleem nog steeds niet op (met een PPI van zo'n 140 zit je ook niet op dezelfde PPI van 163 met een 27" UHD monitor) en hebt wel minder frames per seconden (al viel het in het substantieel CPU bounded Far Cry me nog wel mee). Ik vind de PPI van 109 op mijn Samsung 49" wel acceptabel wat dat betreft. Het is het verlies in frames per seconds voor mijzelf gewoonweg niet waard. Your mileage may vary.

En dat was ook deels mijn punt. Gebruikersvoorkeuren verschillen. Dus ik moet ook niet mijn voorkeuren opleggen aan anderen. En ik kan me ook echt wel voorstellen dat UHD op 60Hz voor sommigen en zeker in sommige games de voorkeur heeft boven lagere resolutie en hogere FPS. Maar dat geldt simpelweg niet voor mij i.c.m. de games die ik speel. Heb jaren geleden een 27" UHD gehad en ondanks dat die een erg hoge PPI heeft en je daarmee het aliasing probleem van bijv. draden van hekwerk oplost, waardoor alle games er een stuk strakker uitzien, ben ik daar toch met tevredenheid vanaf ben gestapt.
Mijn 4k monitor met 144hz kan maximaal op 120hz lopen zonder compressie. Zijn er kabels die meer kunnen tegenwoordig? Of zijn de specs uit dit artikel alleen te halen met compressie?

[Reactie gewijzigd door DLSS op 2 januari 2025 16:34]

DP 2.1 kan dat, anders kom je met DSC (display-stream compressie) wel op de 144 of 240. Mijn monitor haalt ook maar 120hz op 4k maar met dsc aan kan ik naar 240. Maar DSC is niet altijd helemaal probleemloos, ik zag wat kaarten van nvidia die wat issues hadden hiermee. Zelf met AMD geen problemen, zelfs met een rx5700 niet wat toch wel een oudere kaart is ondertussen.
Hier geen problemen met DSC en Nvidia. Het is geloof ik ook niet standaard dat DSC met een Nvidia kaart problemen geeft.
Ik heb ook geen problemen met DSC icm met mijn RTX 4090. Maar ik vind het een beetje een ‘sigaar uit eigen doos’ om compressie te gebruiken. Ik wist niet dat er kabels waren die het zonder konden. Zal vast niet compatibel zijn met mij monitor (is al wat ouder).
Er zijn helemaal geen kabels die ervoor gaan zorgen dat je geen compressie hoeft te gebruiken. Ik weet niet waar je dat vandaan haalt.

Jouw kaart heeft Displayport 1.4 en die haalt op 4k zonder compressie maximaal 120 hz op 8 bit. Wil je meer, dan heb je dus compressie nodig, of je koopt een kaart met Displayport 2.1, zoals de snelste Radeons of de komende nieuwe GPU’s.
Dan is die 2.1 kabel toch nodig? In dat geval zijn er dus kabels die het zonder compressie kunnen.
Ja, als ik een 8K tv met een HDMI 2.1-videokaart ga aansturen met een HDMI 1.4-kabel, dan krijg je ook klote-beeld.

Dat wil niet zeggen dat je met puur een kabel geen andere voorwaarden hebt, wat jij suggereert.

Je hebt sowieso een DP 2.1-monitor nodig en een 2.1-capable videokaart.

Zonder die 2 kun je sowieso vergeten het juiste beeld zonder compressie te krijgen.

En het is prima mogelijk met een goede DP 1.4-kabel een 2.1-signaal door te geven. Maar dat signaal moet wel eerst gemaakt worden en ook ontvangen kunnen worden.
Huh? Ik suggereer dat helemaal niet, ik schrijf zelfs dat mijn monitor waarschijnlijk niet compatible is met een dergelijke kabel 😅. Schijnbaar is mijn 4090 ook niet compatible dus. Wellicht wat voor de 50xx serie haha.

[Reactie gewijzigd door DLSS op 3 januari 2025 00:57]

Tja,
Dan is die 2.1 kabel toch nodig? In dat geval zijn er dus kabels die het zonder compressie kunnen.
Alsof alleen de kabels van belang zijn.

Er is al sinds 2019 de Displayport 2.0-standaard die dit kan en sinds oktober 3022 zijn er de kabels.

nieuws: DisplayPort 2.0-kabels krijgen labels die bandbreedte aangeven

Nogal logisch dat die er zijn als er ook monitoren mee geleverd worden, nietwaar??

De monitoren met DP 2.0/2.1 worden al 1,5 jaar geleverd: uitvoering: Dell UltraSharp U3224KBA Zwart

uitvoering: ASUS ROG Swift PG32UQXR Goud, Multi-color, Zwart
Alsof alleen de kabels van belang zijn
Waar zeg ik dat in hemelsnaam? 😅 Je bent met jezelf aan het discussiëren. Voor de rest, thanks voor de info 👍. Ik zal me er eens in verdiepen als ik een nieuwe monitor / GPU ga kopen.

[Reactie gewijzigd door DLSS op 3 januari 2025 03:58]

Ik denk niet dat de kabels het digitale signaal comprimeren, denk dat het simpelweg de communicatie standaard van de monitor en de videokaart zijn. De draadjes geven gewoon signaal door.
Dat dacht ik dus ook altijd totdat ik tegen iets vreemds aan liep toen ik voor een aantal weken geleden een nieuwe O-led monitor kreeg met dan 175 Hz refreshrate. Aangesloten via de DP kabel die ik ook bij mijn vorige monitor altijd gebruikt had en verder geen goedkope kabel was. Echter, tot en met 100 Hz refreshrate ging het prima maar zo gauw als ik boven de 100 Hz ging ging het mis. Flakkerend beeld dus dacht ik eerst aan een defect aan de monitor. Toch toen maar eens een DP 2.0 kabel besteld en tot mijn verbazing kan ik nu prima naar 175 Hz met een strak beeld. Dus blijkbaar zit er toch wel degelijk verschil in bekabeling en versie, althans bij DP dan.
Ik vermoed dat je wellicht dikkere kabels of beter afgeschermde kabels nodig hebt voor die snelheid. Net zoals met 10Gbit netwerk, dan is Cat7a ook handig.
Gekke is dat de 'oude' DP kabel juist een goed afgeschermde kabel is en zelfs dikker als die nieuwe DP kabel. Alhoewel ik natuurlijk niet weet of de aders binnenin de kabel misschien dan bij die nieuwe kabel een grotere doorsnede hebben.
Inderdaad gek. Heen idee wat het verschil in DP versies specs is. Ff opzoeken.
Per toeval door een video van Linus op Youtube heb ik ontdekt wat denkelijk de rede is. Hij had namelijk een gloednieuwe monitor van Asus, een 4K O-led met 500 Hz refreshrate. Daar zat dus een vrij kort DP kabeltje bij waarna hij vertelde dat de lengte van de kabel belangrijk i.v.m. datadoorvoer. Dat nieuwe kabeltje wat ik nu heb is ook een kortere kabel en dat is dus denkelijk de rede, gewoon de lengte.
Kabel dikte is vaak, maar helaas niet altijd de maatstaf voor de performance van een kabel inderdaad.
Sommige kabels zijn dikker omdat de aders van aluminium of staal zijn (met een laagje koper erop gedampt, zodat het als koper uitziet), die zijn dan weer iets dikker om het verlies een beetje te compenseren.
Anderzijds heb ik ook dikkere kabels gezien die veel afscherming hebben, maar gelijkertijd dunnere koperen aders hebben. (dat is ook een manier om koper te besparen)

Er is wat dat betreft erg veel 'troep' te koop wat op eerste oogpunt eigenlijk best goed uitziet, maar dus slecht presteert. Zonder uitzondering allemaal Chinese kabels met vaak een westerse klinkende merknaampje erop. (if any)
Ben er ook ooit eens voor gevallen, zeer fraai uitziende kabels, maar in de praktijk en hoop gedoe mee gehad waarbij ik in eerste instantie niet de kabels maar de apparatuur ervan verdachte.
Nu uitsluitend officieel gecertificeerde kabels, zien er niet zo flashy uit, maar alles werkt wel probleemloos.
Ik begreep dat het een driverdingetje was bij het alt-tabben, dan ga je van wel-dsc naar niet-dsc en dat ging erg langzaam.
kijk hopelijk komen er 27 inch 4K glossy QD-OLED panelen op de markt nu ook
500Hz! Kan ik dan nog sneller op alles reageren? Ik speel al games zoals first persoon zoals Call of Duty of Battlefield in Multiplayer? Ik heb een Razer Cobra Pro muis met 30.000 DPI.

Ik vind uit eigen ervaring van 4K 60Hz naar 4K 144Hz wel waard en ik merk in het dagelijks gebruik wel dat er een verschil is tijdens het gamen. Ik vraag mij af of een 4090 dan nog snel genoeg is voor 500Hz?

[Reactie gewijzigd door Van der Berg op 2 januari 2025 17:51]

hoge DPI doet niets voor hoe snel je kan reageren, hogere hz wel, je ziet ook al muizen met 8000hz pollingrate tegenwoordig.
Mooi, maar helaas niet in zwart, dus jammer dan Samsung, gaan we lekker voor de Sony M10S.
Het is en blijft een soort Efteling van de meest recente LCD technieken.
Elke merk gooit weer een eigen benaming waardoor het nog ingewikkelder lijkt.
Je eigen scenario is wat de doorslag zal geven qua LCD techniek.
Even een dom voorbeeld "ik versus vader"

Ik kies voor een OLED omdat ik helderheid in mijn situatie belangrijk vindt.
Donkere pixels zijn in dit geval ook echt zwart wat bijvoorbeeld het kijken van diverse horrorfilms de ervaring een stuk beter maakt.

Mijn vader kiest voor QLED omdat de TV voor alles en nog wat wordt gebruikt.
Dit is dan ook gelijk een 90" en dus in deze casus een stuk voordelig is qua aanschaf.
Ook de "angst" voor een burn-in is natuurlijk niet aanwezig in dit geval.
Last van reflectie is in dit geval ook minder.

Binnen 10 jaar hebben we een LCD techniek voor iedereen.
Goedkoop? Nee dat zal wel niet maar ik verwacht wel dat er mooie ontwikkelingen zijn.
Fabrikanten zouden misschien qua technieken een beetje gas terug kunnen nemen.

OLED, QLED, OLED EVO, WOLED, QD-OLED etc etc etc
Het lijkt op een BMW met een M-pakket exclusief de personalisaties...
Als ik zulke berichten lees krijg ik toch nog steeds een cynisch gevoel, mbt de adaptatie van OLED in het (prijstechnische) middensegment van het monitorlandschap. Middensegment voor mij betekend €300-500.
Allemaal mooi dat ze steeds meer en nieuwe features toevoegen, met fresh rates van 200Hz+, maar iets in mij zegt dat dit niet de (productie) prijs van OLED panelen zal drukken noch de adaptatie van OLED in het middensegment zal bevorderen.

Op dit item kan niet meer gereageerd worden.