Samsung toont ultrawidemonitor met 7680x2160 pixels en 49"-oledmonitor

Samsung heeft op elektronicabeurs CES een aantal monitoren aangekondigd. Een daarvan is de nieuwe Odyssey Neo G9, het eerste model van de fabrikant met een ultrabrede versie van een 2160p-resolutie. Daarnaast presenteert het bedrijf een 49"-oledmonitor met een 240Hz-refreshrate.

De Neo G9 G95NC heeft een 57"-scherm met 7680x2160 pixels, zegt Samsung. Het gaat om een 32:9-verhouding, die Samsung vaak gebruikt op zijn brede monitoren. De recentste Neo G9 heeft een 1440p-resolutie en een diagonaal van 49". Net als zijn voorganger ververst de nieuwe G9 ook met 240Hz.

De monitor heeft waarschijnlijk een VA-paneel en in ieder geval een miniledbacklight, al is niet duidelijk hoeveel individueel dimbare zones er zijn. Het scherm is bovendien mat en heeft een kromming van 1000R, wat gelijkstaat aan de kromming van een cirkel met een straal van een meter.

De monitor ondersteunt DisplayPort 2.1 en Display Stream Compression. Het is nog onbekend wanneer de monitor uitkomt en tegen welke prijs. Het was al bekend dat Samsung werkte aan de monitor, omdat AMD het bestaan ervan noemde in zijn keynote.

Samsung Odyssey Neo G9 2022
Samsung Odyssey Neo G9 2022

Er is wel een nieuwe 49"-monitor, maar dat is een ander model: de Odyssey OLED G9. Die heeft, zoals de naam doet vermoeden, een oledscherm met 1440p-resolutie en een 32:9-schermverhouding. De OLED G9 heeft een 1800R-kromming en een refreshrate van 240Hz.

Ook komt Samsung met een Viewfinity S9, een 27"-monitor met 5k-resolutie van 5120x2880 pixels. Die heeft boven het scherm een 4k-webcam voor gebruik in videomeetings. Bij de nieuwe versie van de Smart Monitor M8 is er naast een 32"-versie nu ook een 27"-variant. Nieuw is bovendien dat gebruikers het scherm kunnen kantelen. De ingebouwde webcam heeft een upgrade gekregen naar '2K'. Samsung maakt ook van de andere monitoren geen releasedata en prijzen bekend.

Samsung Viewfinity S9 2023Samsung Odyssey OLED G9 2023Samsung Smart Monitor M8 2023

Door Arnoud Wokke

Redacteur Tweakers

02-01-2023 • 17:02

119

Lees meer

Reacties (119)

119
119
95
1
0
12
Wijzig sortering
Vraag voor de kenners, voor het aansturen van een dergelijke scherm (voornamelijk de resolutie) heb je daar specifieke videokaarten voor nodig die dat aankunnen? ik kan me voorstellen dat niet elke videokaart om kan gaan met de resoluties van dit scherm, toch?

Edit: Bedankt iedereen voor de inzichten en antwoorden. Conclusie is dat het voor "normaal" gebruik geen probleem is voor de huidige generatie laptops en videokaarten. Voor gamen wel, maar dat spreekt voor zich :)

[Reactie gewijzigd door david-v op 23 juli 2024 05:15]

Helemaal niets speciaals nodig. Mijn G9 via HDMI <~> usb-c aansluiten op een werk laptop zonder videokaart werkt gewoon zonder probleem.

Gamen op die resolutie is eerlijk gezegd wel een horror bij veel games. Heel veel (kleinere) steam games plakken hun UI links en rechts, wat veel te ver is om naar links en rechts te kijken. Bij racegames ofzo is het wel leuk maar bij bijna al het andere zet ik hem op 3440x1440 (21:9) in plaats van 5120x1440 (32:9). Of gewoon default 2560x1440 (16:9) bij competitive games, dan wordt ie basically even casual 27inch met 240hz.
Dat is enigszins kort door de bocht.

Uiteraard heeft je laptop een videokaart, alleen is die ingebouwd in de CPU, een iGPU. (ik laat beeld via USB, met een videokaart in de USB adapter gebouwd even buiten beschouwing, veel van die dingen doen op Full HD resolutie al niet meer dan 30Hz als ik het me goed herinner).
Correctie: Henkieschmenkie legt helder uit waarom het wel klopt wat je zegt. Ik mijn ogen was een videokaart hetzelfde als een GPU, maar dat is dus inderdaad niet zo.

En met HDMI ga je de maximale refreshrate van de huidige Samsung Neo G9 over HDMI (144hz) sowieso niet halen. Zelfs met een huidige range Intel 12th Gen haal je maar 60Hz bij 4096 x 2304 Hz https://ark.intel.com/con...cache-up-to-4-70-ghz.html.

Ik heb het dus over het huidige Neo G9 model met een resolutie van 5120x1440 = 7.372.800 pixels. En dat is hele andere koek dan de aankomende Neo G9 met een resolutie van 7680x2160 = 16.588.800 pixels.

Met een Tiger Lake Intel 11th Gen CPU kun je volgens mij hetzelfde halen. Maar met Intel 10th Gen en ouder (nog zat werklaptops die dat hebben) haal je die 60Hz via HDMI dus gewoon niet eens https://www.intel.com/con...0-ghz/specifications.html en blijf je gewoon steken bij de 30Hz. Ik krijg daar hoofdpijn van en weet dat een hoop andere mensen het ook helemaal maar niets vinden. Edit: ook in de Intel 10th generatie heb je met een Ice Lake (wederom niet de snelste in de generatie, bijv. een 1065G7 https://www.intel.com/con...0-ghz/specifications.html) nog een soort tussenresolutie/bandbreedte, en kun je goed zitten wat betreft de huidige Neo G9.

Sterker nog, ik vind 60Hz al zonde bij zo'n monitor als dit (ook voor non-gaming gebruik). Ook voor kantoorwerk is een 120Hz ervaring fijn. Daarna (met nog hogere refreshrates), toegegeven, neemt de meerwaarde behoorlijk af (wat mij betreft althans en ik hoor al bij de groep die vloeiend beeld tijdens het scrollen, schermverplaatsen etc. erg kan waarderen).

Met een displayport aansluiting zit je al iets beter, maar nog steeds haal je dan maar 60Hz met een Intel 10th Gen CPU (zie vorige link).

En met de 7680x2160 pixels van dit nieuwe model is me nog onduidelijk wat het gaat worden. Als ik het goed zie/bereken zou je de 120Hz dan wel met een Intel 12th Gen via DisplayPort kunnen halen, maar zeker niet via HDMI, het is dan gewoon weer 30Hz, en dat is voor velen vervelend.

Natuurlijk merk je bij gaming de refreshrate het meest. Maar alle comments die stellen dat je probleemloos hiermee een fijne ervaring hebt, zonder dat je een speciale videokaart nodig hebt gaat echt te ver. Je hebt gewoon de laatste Intel generatie laptop iGPU nodig, of een Tiger Lake model van de 11e generatie (dat zijn juist niet de allersnelste CPU's in die serie).

En daar komt nog bij dat we hier nu van een rooskleurig plaatje uitgaan, waarbij we aannemen dat DisplayPort 1.4 en HDMI 2.1 ook maximaal ondersteund wordt. En dat is juist iets waar je niet vanuit zou moeten gaan, zeker o.b.v. recente historie: bij de huidige Samsung Neo G9 werkt Display Stream Compression alleen maar via DisplayPort 1.4, niet via de HDMI 2.1 verbindingen. Dat zorgt ervoor dat de Samsung Neo G9 met een perfecte HDMI 2.1 verbinding maar tot 144Hz gaat, terwijl de DisplayPort 1.4 met DSC tot en met 240Hz gaat. Als Samsung dadelijk ook dergelijke shortcuts heeft moeten nemen bij DisplayPort 1.4 en HDMI 2.1, is het plaatje wellicht nog een stuk minder rooskleurig.

Dit allemaal is overigens de reden dat ik met een eGPU aangesloten op mijn werklaptop zit. De meesten van ons hebben niet heel veel invloed op de hardware die in hun werklaptop zit, hoe oud die modellen zijn en hoe lang ze mee moeten gaan. Mijn laptop is nu zo'n 2,5 jaar oud en heeft een Intel 8665U. Bedrijf was blijkbaar wat langzaam met vernieuwen dit jaar. Heeft mede ermee te maken dat bedrijven graag standaardisatie willen voor makkelijk onderhoud. Overigens had het niet per se verschil gemaakt als ik een snelle 10th generatie CPU had gehad, want zelfde architectuur (al zijn er ook Ice Lake modellen in de 10e generatie die weer wat meer aankunnen vanwege de Intel Iris Plus iGPU). Ik haal dus max. 60Hz als ik een huidige Neo G9 aansluit met de beste verbinding. Om die reden gebruik ik een eGPU met een GTX 1650 (vanwege het lage stroomverbruik maar wel met maximale DisplayPort bandbreedte / DisplayPort 1.4). Ik vebruik helaas daardoor wat meer stroom, maar het werk wordt een stuk aangenamer.

[Reactie gewijzigd door xtlauke op 23 juli 2024 05:15]

Ik heb mijn - originele - odyssey G9 49" met 2 displayport kabels aangesloten, zodat het voor de PC 2 2560x1440 schermen zijn (PBP). ik game dan ook meestal op die resolutie, behalve games die een dergelijke dual monitor setup ondersteunen.

Voor kantoorwerk geeft dit wat extra docking zones, ook handig bovenop de hogere refreshrate. Ik denk dat dergelijke setup aanvankelijk aan te raden is voor een dergelijk hoge resolutie.
Ik vind dat zelf niet handig. Ik kan elke game gewoon op een 16:9 resolutie instellen als ik dat wil, wat dan gewoon gecentreerd wordt op scherm. Met 2 aparte signalen werkt dat niet handig. Voor docking zones gebruik ik gewoon fancyzones van ms powertoys, daar kan ik het bureaublad indelen in meer dan genoeg zones.

Heb je met de lagere resolutie een hogere refresh rate? Ik dacht je op volledige resolutie gewoon de volle refresh rate had? Bij mijn simpelere crg9 heeft de volle res de volle 120hz iig, en dat is bij halve resolutie niet hoger..
In mijn geval werkt een fake dual monitor setup beter voor onder meer scherm delen. Wanneer je medewerkers geen 5120x1440 resolutie of hoger hebben, kan je enkel per applicatie delen (als je wil dat ze iets kunnen lezen) ... wat meestal niet handig is.

een andere use case voor mij is het spelen van flipperkast op het ene, terwijl ik een YT filmpje kijk op het andere scherm ..

tldr; wat voor mij werkt, werkt niet noodzakelijk voor iemand anders.
Fullscreen filmpje kijken op de helft van het scherm is inderdaad wel iets wat ik mis :)
Het is qua productiviteit soms even behelpen met zulke schermen doordat games er vaak niet voor gemaakt zijn of juist wel. Het probleem met PBP is dat je dan niet de volledige 240Hz refreshrate kunt gebruiken vanwege signal timing.

Volgens mij werken beide “panelen” dan op slechts 60Hz en dat is op alle fronten erg jammer.

Ik doe nu desktop werk op 240Hz. Dat is echt te vloeiend voor woorden.
240Hz werkt idd niet, maar 120 lukt wel hoor !
Uiteraard heeft je laptop een videokaart, alleen is die ingebouwd in de CPU, een iGPU
Dat is dan juist géén videokaart. Een GPU, geen videokaart.
Zelfs met een huidige range Intel 12th Gen haal je maar 60Hz bij 4096 x 2304 Hz
Maar met Intel 10th Gen en ouder (nog zat werklaptops die dat hebben) haal je die 60Hz via HDMI dus gewoon niet eens en blijf je gewoon steken bij de 30Hz
Dit is niet per se zo. De HDMI-limieten in de Intel-specificaties gelden alleen voor de native door de iGPU verzorgde HDMI-uitvoer. Bij de oudere Intel-graphics (Gen 9/9.5) was HDMI 2.0 en 4k60 wel degelijk mogelijk indien een externe (van het oogpunt van de GPU, wel in het apparaat geïntegreerde) DP-naar-HDMI-converter gebruikt werd. Ik weet van de Dell XPS 15 zeker dat 'ie dat had, en volgens mij nog best wel wat apparaten. Zulke converters bestaan ook voor DP 1.4 naar HDMI 2.1, voor de nieuwere generatie (Gen 11/12 Intel-graphics), al ben ik niet goed genoeg op de hoogte van die details bij huidige laptops om te weten of die ook gebruikt worden.

[Reactie gewijzigd door Henkieschmenkie op 23 juli 2024 05:15]

Dat is dan juist géén videokaart. Een GPU, geen videokaart.
Check. Ik heb het gecorrigeerd. Thanks.
Dit is niet per se zo. De HDMI-limieten in de Intel-specificaties gelden alleen voor de native door de iGPU verzorgde HDMI-uitvoer. Bij de oudere Intel-graphics (Gen 9/9.5) was HDMI 2.0 en 4k60 wel degelijk mogelijk indien een externe (van het oogpunt van de GPU, wel in het apparaat geïntegreerde) DP-naar-HDMI-converter gebruikt werd.
Mijn ervaring is - en ik heb me meerdere keren hierop ingelezen in de afgelopen jaren - dat dit redelijk tegenvalt en bovendien over het algemeen ontzettend slecht is gedocumenteerd. Je moet dus zeker wel je huiswerk doen hiervoor. Ik ben ook zat klachten hierover tegengekomen, gek genoeg juist bij de XPS 15 modellen (volgens mij omdat die zo populair is). Ik linkte in een andere comment net nog hiernaar: https://www.reddit.com/r/..._confirm_1650_ti_gpu_can/
Zulke converters bestaan ook voor DP 1.4 naar HDMI 2.1, voor de nieuwere generatie (Gen 11/12 Intel-graphics), al ben ik niet goed genoeg op de hoogte van die details bij huidige laptops om te weten of die ook gebruikt worden.
Ze zijn nog niet zo lang (en volgens mij in beperkte mate) op de markt, volgens mij door een zeer beperkt aantal fabrikanten die de de daadwerkelijke chips/ signaal processing units maken hiervoor. Cable Matters verkoopt een paar varianten:
https://www.amazon.com/Ca...78&sr=8-3#customerReviews
https://www.amazon.com/Ca...2.1&qid=1672696478&sr=8-4
Ik heb eind vorig jaar zo'n ding gekocht. Niet aan de praat gekregen met meer dan 30Hz op Full HD vanuit Thunderbolt 3 met een Intel 8665u laptop of 60Hz op Full HD op een Ice Lake laptop. Las na het terugsturen dat ze nog een nieuwe firmware ervoor hadden uitgebracht. Met toeval daar nog tegenaan gelopen. Slechte informatie erover: geen op amazon website, geen nuttige reactie via hun helpdesk. Daarmee krijg je het vast wel werkend. Maar het is mijns inziens verre van de ideale situatie, je moet een beetje geluk hebben om het werkend te krijgen was mijn indruk uit alle ervaringen die ik erover las op reddit etc. En dan nog kun je specifieke issues hebben, bijv. met uit standby komen. Ideaalsituatie is mijns inziens toch echt gewoon een out of the box solution i.p.v. dit soort adapters.

[Reactie gewijzigd door xtlauke op 23 juli 2024 05:15]

Jij hebt het nu over echt externe converters, ik bedoel een op het laptopmoederbord zittende converter. Waar de HDMI-poort van de laptop z'n signaal dan vandaan haalt. Om de limieten van de native HDMI-uitvoer van de Intel-GPU te omzeilen. De XPS 9570 heeft die bijvoorbeeld, met een HDMI 2.0-poort i.c.m. een 8e generatie Core-processor waarvan de GPU (Gen 9.5) native maar HDMI 1.4 doet.

(Dat kan ook bereikt worden door de poort op de discrete GPU aan te sluiten die in het geval van de XPS 9570 meestal ook aanwezig is, maar afgaande op de Arch Wiki lijkt dat niet het geval te zijn)

Helaas is het met echt externe adapters inderdaad te vaak zo dat het toch niet (helemaal) werkt. Zelf ook wel eens gehad, niet vaak gelukkig.
Als je wil gamen, wordt dat erg lastig op native resolutie. Maar voor gewoon applicaties voldoet elke kaart wel.
Nee, niet dus. Je hebt een kaart nodig die de juiste HDMI of DisplayPort standaard aankan. Anders heb je een heeeel lage refreshrate (die evt zelfs niet gesupport wordt).
Als mijn 4k scherm met HDMI 1.4 aangesloten wordt, draait die op 30 Hz en heeft een zeer irritante latency.
Ok elke videokaart van de afgelopen 10 jaar dan. Vanaf de GTX980 zit er al hdmi 2.0 op en anders heb je bij de nog oudere kaarten nog altijd display port.

Maar eerlijk als je dit scherm gaat aansluiten op een kaart van 12 jaar oud moet je je sowieso achter de oren krabben of je wel handig bezig bent.
Nee hoor, dat is veel te kort door de bocht. Op een 2080Ti moet je ook goochelen tot de max om 4k@120hz voor elkaar te krijgen.

Mijn OLED tv over HDMI haalt het niet, te oude revisie op de 2080Ti. Uiteindelijk moest ik een USB-c naar HDMI dongle kopen om het aan te sluiten, met dure HDMI kabel, en die setup werkt slechts borderline (raakt regelmatig focus kwijt bij switchen van desktop naar game).
Heb je wel een HDMI 2.0(of hoger) kabel gebruikt? Als het zo dodgy werkt denk ik eerder dat het aan je tv ligt dan aan je PC ook.
Zeker. Je kunt het ook zelf even controleren, een kleine google vertelt je dat de 2080Ti geen 4k@120hz support over HDMI.

De TV is een Oled C2, geen issues daar.
4K@120hz is HDMI 2.1 (of Displayport) toch?

Volgens mij kan dat dus alleen met RTX 3xxx+ met HDMI2.1
Helaas klopt dat in mijn ervaring dus ook niet. Veel laptops worden namelijk geleverd met een HDMI 1.4 poort, waarschijnlijk ivm kostenbesparing.
Ik heb al een aantal laptops van werkgevers gehad die mijn monitor niet via hdmi konden sturen. Display port hadden ze ook niet. Gelukkig heeft mijn display een DPalt mode, dus over USB-C werkt.

De kaart die je noemt is sowieso een high end kaart (voor z'n tijd). Als je vanaf bijv een iGPU draait krijg je een hoop minder features.

Wat de OP vroeg is "maakt het uit welke kaart". Jij zegt "voor generieke applicaties elke kaart". Maar dat is dus niet zo.
iGPU is geen videokaart. Ook de laptops waar je het over hebt zullen enkel alleen een geïntegreerde gpu hebben gehad.

Elke losse GPU Kaart van de laatste 10 jaar (ook die in laptops) heeft wel de mogelijkheid om zo een display aan te sturen. Ja niet alle kaarten ooit gemaakt, maar enige logica dat je componenten een beetje uit dezelfde eeuw op elkaar moet afstemmen lijkt mij wel logisch.
De iGPU van de i3-12100 support volgens de ark.intel, dus de officiele site, 8K60Hz over DP.

Lijkt me een complete non issue dus, als zelfs een i3 het kan

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Ik vind dit een eenzijdig antwoord, voornamelijk door de manier om het te framen dat een i3 het al kan. De i3, i5, i7, i9 zegt niet zoveel wat betreft de architectuur die ook bepaalt welke iGPU wordt gebruikt. Die is meer aan de generatie gebonden, al geeft dat ook geen uitsluitsel. En de snelste CPU's van de 2 Intel generaties geleden (bijv. een Intel 10850H https://www.intel.com/con...0-ghz/specifications.html) zal op deze resolutie met de beste verbinding (DisplayPort) niet meer dan 30Hz halen, wat voor velen onacceptabel zal zijn.

Als je geen fatsoenlijke enigszins recente dedicated GPU hebt, heb je kort door de bocht gewoon een laptop met een hele recente Intel CPU nodig (12e of 11e gen), als je voor Intel gaat. Wat betreft AMD heb ik het minder scherp, ook omdat AMD wat dit betreft zeer onduidelijk is in zijn specificaties (haast geheimzinnig).

Dat klinkt mijns inziens totaal anders dan 'zelfs een i3 het kan' en 'complete non issue'.

[Reactie gewijzigd door xtlauke op 23 juli 2024 05:15]

Mijn countervraag is dan, waarom ben je zo ontzettend gefixeert op laptops?

Dat stond niet in de originele vraag. Lijkt me nogal een aanname bij een een monitor die verder niks te maken heeft met laptop vs desktop.

Ik vind mijn antwoord niet zo heel eenzijdig. De originele vraag is of je iets bijzonders nodig hebt. Het antwoord op die vraag is nee, want de meest recente i3, die ik met volledig typenummer aanduidde, niet “een i3”, kan het. Een i3 is het tegenovergestelde van exotisch.

Je hoeft dus als je een systeem samenstelt rondom deze monitor niet echt ergens op te letten. Je moet gewoon geen previous gen hardware kopen, maar dat doe je niet, vermoed ik, als je naar een scherm met een prijs van 4 cijfers kijkt.

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

waarom ben je zo ontzettend gefixeert op laptops?
Goede/ terechte vraag. Mijn antwoord daarop is:
1. Wat betreft iGPU's is het bij de desktop processoren nog slechter gesteld.
- Zie zo ong. de beste Intel 10th Gen CPU op https://www.intel.com/con.../sku/199332/intel-core-i9 10900k-processor-20m-cache-up-to-5-30-ghz/specifications.html: Max Resolution (HDMI) 4096 x 2160@30Hz en Max Resolution (DP) 4096 x 2304@60Hz
- En zo ong. de beste Intel 11th Gen CPU https://www.intel.com/con...0-ghz/specifications.html, Max Resolution (HDMI) 4096x2160@60Hz en Max Resolution (DP) 5120 x 3200 @60Hz (5120 * 3200 = 16.384.000 pixels)
- Dus met deze Intel 11900K bij gebruik van iGPU zul je de aankomende Neo G9 misschien nog net wel op native resolutie van 7680x2160 = 16.588.800 pixels kunnen draaien, al is de kans groot van niet, want dat zijn meer pixels dan 5120 x 3200 en wordt dus niet officieel ondersteund.
2. Je hebt dus discrete GPU nodig indien je een wat oudere processor hebt. En dat dient ook een beetje een fatsoenlijke te zijn indien je hoge refreshrate wil.
3. Het meeste kantoorwerk vindt plaats op laptops. Ik haal hiervoor even geen cijfers erbij, maar volgens mij is het al +/-15 jaar het geval dat laptops veel beter verkopen dan desktops. Betekent niet dat desktops niet moeten worden behandeld in deze discussie.
4. Als je dus een laptop hebt die niet in de laatste 2 jaar is gekocht (en zelfs nu worden er nog laptops met Intel 10th gen verkocht) die niet met discrete GPU komt, dan is het dus zeker wel waard om dit even na te gaan voordat je een scherm van 2000 euro koopt.
5. Bedrijven upgraden echt niet iedere 2 jaar de laptops van medewerkers. Zat bedrijven waarbij zo'n apparaat 4 of 5 of nog meer jaar moet meegaan. Dat betekent dus dat een hoop mensen met laptop van het werk al afvallen. Ik zelf hoor daar bij.

Ja, dat de laatste i3 dit aankan is inderdaad een feit. Maar die laatste i3 heeft dus wat betreft de iGPU dezelfde architectuur/capabilities als de i5, i7 of i9 van dezelfde serie. En dat is nou precies het argument wat ik maak door zo diep in te gaan op die i3. Dat is een onterechte representatie van hoe zaken in elkaar steken. Doordat je focust op die i3, laat je het doen klinken alsof de zwakste processor het aankan, terwijl het hier helemaal niet gaat om de snelheid van de CPU, maar om de iGPU en zijn mogelijkheden, en je in de praktijk gewoon een recente iGPU nodig hebt wil je die resolutie goed kunnen gebruiken. En bij AMD CPU's is het nog twijfelachtiger aangezien de specificaties weinig vertrouwen geven, al heb ik ook heel weinig praktijkervaring met AMD.
Je hoeft dus als je een systeem samenstelt rondom deze monitor niet echt ergens op te letten. Je moet gewoon geen previous gen hardware kopen, maar dat doe je niet, vermoed ik, als je naar een scherm met een prijs van 4 cijfers kijkt.
Jawel, dat moet je dus wel, dat leg ik uit uitvoerig uit in mijn comments, tenzij je helemaal bij bent met de laatste hardware of een goede discrete gaming GPU hebt die je ook voor kantoorwerk gebruikt. En juist voordat je een aanschaf van een apparaat met 4 cijfers, en met een doos die de meeste postkantoren niet accepteren bij het terugzenden (ik spreek uit ervaring), is het het nakijken waard. En in het geval van een Intel CPU is dat nog heel makkelijk uit te zoeken ook. Dat is een veel beter advies dat het een "non issue" is te luisteren.
goede punten, maar in de laatste alinea loopt het voor mij spaak.

“een goede gaming gpu” Ik weet niet of ik de GT 1030 of de GTX 950 nou die term zou toekennen. Beide kun je tweedehands voor tientjes
Enigszins een fair point. Wat 'goed' precies betekent heb ik niet uitgebreid toegelicht, maar ja, ik blijf toelichten en typen op deze manier.

Ben het er helemaal mee eens dat je geen last gen nodig hebt, ook niet als je de hoge refreshrate wil halen.

Voor de 5120*1440 kwam ik zelf op een GTX 1650 uit. Wilde een zo'n zuinig mogelijke kaart die wel de 240Hz haalde op 5120*1440. Met generaties daarvoor met vergelijkbare (redelijk magere maar dus ook zuinigere kaarten) lukte dat niet. Volgens mij heb ik nog naar de GTX 1050 gekeken en kon dat niet of was deze niet meer verkrijgbaar. Vanaf een GTX 1060 zit je inderdaad goed, ook met de aankomende Neo G9.

Het woord 'fatsoenlijke' i.p.v. 'goede' gaming GPU was misschien beter geweest.
Wellicht overwoog je de 1650 over de 1050 vanwege aantal video outputs ofzo? Volgensmij waren er niet zo veel, of uberhaupt, 1050’s met meer dan 2 video poorten

een 1060 is een goede optie, zeker kwa prijs tweedehands met hoe kneiter veel van die dingen er verkocht zijn (steam hardware survey)
Ja, het had te maken met de poorten, die flexibiliteit wilde ik eventueel ook nog voor een 2e monitor.

En ondertussen baal ik dat ik niet voor een RX 6600 ben gegaan die gewoon HDMI 2.1 met max bandbreedte heeft, zodat ik de Neo G9 5120*1440 via HDMI kan aansturen via laptop en de enige DisplayPort aansluiten kan gebruiken voor mijn Desktop GPU.

Is toch ook net weer zo'n besparing op de Neo G9 (rete dure monitor) waardoor het allemaal niet zo'n simpel verhaal is. Wat dit betreft hoor ik vast bij een kleinere groep mensen, maar het is jammer dat het wat betreft aansluitingen op veel monitoren zo slecht gesteld is. De G9s van Samsungs behoren eigenlijk nog wel tot de betere wat dat betreft, want 2x HDMI 2.1 en 1x DisplayPort 1.4, dus in principe 2 goede en 1 hele goede aansluiting (al is de HDMI 2.1 dus gelimiteerd op 144Hz omdat ze daarvoor geen Display Stream Compression voor ondersteunen, weer zoiets...). Als ik weer flink zou gaan gamen ga ik deze upgrade nog doen.
Robins antwoord klopt gewoon niet. Hij beweert dat elke kaart werkt voor generieke applicaties. Dat is niet zo. Je hebt voor 4k 60Hz echt hdmi 2.0 of DP 1.2 nodig. Voor deze display waarschijnlijk nog hoger.
Dat hebben echt niet alle kaarten. En dat is het punt van mijn reactie

[Reactie gewijzigd door MeMoRy op 23 juli 2024 05:15]

Niet álle kaarten nee, maar een videokaart zonder een van die twee connectoren zoeken is meer werk dan een met

zeker in een systeem dat zal worden gebruikt icm een desktop monitor met een prijskaartje van 2K. Alle nvidia kaarten die momenteel nog in support zijn, zijn er toe in staat. De i3-12100 is er toe in staat.

Je moet dus echt een videokaart pakken van het tijdperk voor GTX 900, dus bijna 10 jaar oud, wil het echt niet werken

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Ik doe dit met een 3080RTX op native resolutie en dat gaat prima, helemaal in games met DLSS ondersteuning.
Dat is wel knap gezien er nog geen enkel scherm bestaat met deze resolutie. Of bedoel je dat je op een 8k tv gamed? Want de reviews voor een 3080 op een 8k scherm zijn echt niet geweldig

[Reactie gewijzigd door ro8in op 23 juli 2024 05:15]

Ik zat naar de Oled Neo G9 49inch 32:9 widescreen te kijken welke 5160x1440 als resolutie heeft.
Ik neem aan dat gezien hij het over resolutie heeft, hij vooral doelt op de ultra wide monitor van 7680x2160 pixels. De resolutie van het oled lijkt me inderdaad geen probleem voor de nieuwste generatie kaarten, alhoewel als je echt van gamen houd ik persoonlijk toch nog altijd liever voor een WQHD resolutie scherm zou kiezen. Puur omdat je op 4k bij huidige generatie kaarten en games toch wel concessies zou moeten doen om op native resolutie te gamen met een beetje acceptabele framerate. Zelfs op een 3080. Ja DLSS helpt hierbij, maar dat is lang niet op alle games ondersteund.
Ik zet mijn 8k scherm op 3840x2160 als ik ga gamen en kan prima op 60 fps gamen bij native 4k met mijn 5900X en RX 6950XT. Zonder FSR aan zelfs, want de spellen die ik speel ondersteunen dat niet.
Iemand die weet of de m1 pro chip van apple goed werkt met ultra wide?
Aangezien ik geen 2 schermen kan aansluiten op mijn MacBook is een ultra wide mijn enige optie voor extra ruimte...
Ik heb een scherm van 3440x1440 op mijn M1 max, werkt prima. Hangt ook nog een tweede scherm aan ('reguliere' 4k) zonder problemen.

Hoezo zou jou M1 pro niet meerdere schermen kunnen aansturen? Die limitatie geldt (voor zover mijn kennis gaat) alleen voor de 'basisversie' M1/2 chips. Niet de pro of hoger.
Nee helaas de m1 pro kan het ook niet aan, ik heb heb geprobeerd met een dockingstation met 2 schermen eraan. Beide geven beeld maar mijn MacBook ziet ze als 1 scherm helaas...
Apart, voordat ik mijn max ‘kreeg’ had ik een pro die het ook gewoon deed. Heeft dat dockingstation een of twee aansluitingen naar je MacBook? Ik heb een monitor via USB-c en de andere via USB-c naar displayport kabel.
dat heb ik nog niet geprobeerd, ik had hem op een dell docking met 1 usb kabel naar de MacBook. Mijn oude intel MacBook werkte dit eigenlijk ook niet perfect.
Voor zover mij bekend ondersteund Apple alleen via Thunderbolt 3+ meerdere schermen per usb-c poort. De monitoren moeten dan ook Thunderbolt 3+ support hebben. Heb je monitoren zonder Thunderbolt support, dan moet je ze helaas ieder op hun eigen usb-c poort aansluiten
OF je moet een Thunderbolt 3+ compatible dock gebruiken.
De M1 pro ondersteund maximaal 2 externe monitoren volgens Apple, dus met jouw laptop zou dat ook moeten kunnen. Ik heb twee 4k Thunderbolt schermen daisy-chained op één usb-c poort op mijn intel MacBook Pro van 2019 en dat werkt fantastisch inclusief opladen van mijn laptop. Nadeel is dat schermen met Thunderbolt support vaak een stukje duurder zijn...

[Reactie gewijzigd door dj.fro op 23 juli 2024 05:15]

Let ook op met de DPI. Als een scherm niet ongeveer 100 of 200 DPI is ziet het er op een Mac vreselijk uit. Scaling zoals in Windows gewoon op 150% zetten is niet mogelijk zonder duizend trucjes.

Edit: ik heb net uitgerekend dat hij ongeveer 162 dpi is. Dit wordt een ramp met een Mac. Tenzij je extreem goede ogen hebt en een 100% scaling voor jou geen probleem is, of je graag hele avonden met configuraties ligt te klooien, zou ik het laten zitten.

[Reactie gewijzigd door _Pussycat_ op 23 juli 2024 05:15]

Nee, de interne gpu van de momenteel “nieuwste” i3 van meer dan een jaar oud support volgens de specs 8K60Hz. Dus je hebt nieteens een dedicated videokaart nodig tenzij je wil gamen

Gamen is sowieso ander verhaal. De 4090 was de eerste kaart die 4K gamen écht goed aan kan. Het ging wel met voorgaande topmodellen, maar dan moest je toch in de nieuwste games wat concessies doen.

Edit; Er is onder deze comment een hele discussie ontstaan die niet helemaal nodig was geweest als ik dit erbij had getypt:

Als je overweegt deze 2000 euro gaming monitor aan een 2 jaar oude laptop of aan een desktop zónder dedicated videokaart of met een dedicated videokaart van 9 jaar oud te koppelen, dan zou ik even googlen of het gaat werken ja.
Mij leek een antwoord mbt nieuwe hardware toereikend, gezien de nieuwprijs van dit scherm, maar zoals je hieronder kunt lezen, was niets minder waar

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Je hebt gewoon de laatste (12e) Intel generatie laptop iGPU nodig, of een specifiek Tiger Lake of Ice Lake model model van de 11e of 10e generatie (Ice Lake is juist niet het snelste type CPU in die 10e generatie). Anders zit je met 30Hz indien je van DisplayPort gebruikmaakt, als de monitor die abonimabele refreshrate uberhaupt al ondersteund. En HDMI (veel minder bandbreedte vanwege HDMI maar voornamelijk vanwege Intel's implementatie) zal ws niet eens werken.

En dan heb je 60Hz. Ik snap heel goed dat veel mensen dat OK vinden, maar er zijn er ook een hoop (inclusief mijzelf), 60Hz een stuk minder fijn vinden werken (in non-gaming). Zeker bij een scherm waar je 2000 euro voor neerlegt is dat een beetje jammer.

[Reactie gewijzigd door xtlauke op 23 juli 2024 05:15]

Dus jij wil beweren dat er een grote groep klanten bestaat die 2K neerlegt voor een scherm en daar een bargain bin processor aan koppelt?

Feit blijft dat de momenteel recentste desktop i3 het kan en je dit scherm dus met een sub 400 euro pc aan kunt sturen op 60 hz. Over high refreshrate werd in de originele vraag geen woord gerept

Ik acht de kans dat 120 hz werkt over dp1.4a best aanwezig. Als 8K60Hz werkt, dan is er genoeg bandbreedte voor de helft van die resolutie met dubbel de refreshrate.

Daarnaast is de groep mensen die ooit heeft gewerkt met een scherm van meer dan 60Hz op de desktop buiten tweakers en r/PCMR gebruikers nog steeds feitelijk nihil tov het totaal aantal desktop gebruikers.
Voor kantoor doeleinden is de resolutie oneindig veel interessanter dan de refreshrate

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Dus jij wil beweren dat er een grote groep klanten bestaat die 2K neerlegt voor een scherm en daar een bargain bin processor aan koppelt?
Ik durf zeker te beweren dat een hoop mensen een laptop met een Intel 10e of 11e generatie CPU hebben, en die, ondanks dat ze deze monitor overwegen, niet erop uit zijn om ook gelijk de laptop te upgraden. Die 10-30% snelheidswinst die je met een Intel 12th Gen haalt is een nieuwe laptopinvestering van 1000 tot 3000 euro niet zo snel waard.

Sterker nog, zelfs met discrete GPU's in laptops is de kans aanwezig dat je tegen issues aanloopt. Ik ben ze in mijn (uit)zoektoch al vaak tegengekomen. Bijv. dit geval kan ik me herinneren:
https://www.reddit.com/r/..._confirm_1650_ti_gpu_can/
You can still take advantage of the 1650ti externally on the 9500, but it is routed though the intel graphics card which is limited to DisplayPort 1.2.
Dit soort dingen kwamen (zelfs in de betere modellen zoals de Dell XPS) van een paar jaar geleden nog terug. Het geeft mijns inziens aan hoeveel moeite men soms had om die discrete GPU's zuinig en tegelijkertijd goed samen te laten werken met de laptop. Mijn eigen laatste ervaring met een discrete GPU in een laptop is met een 6700HQ en een Nvidia Quattro. Ik moest vaak de laptop opnieuw opstarten indien ik wilde dat de discrete GPU weer werd uitgeschakeld zodra ik overschakelde naar de iGPU, zodat de batterij niet heel snel leegraakte.

Desktop is zeker een ander verhaal. Je zit al veel sneller goed met een wat oudere GPU.
Voor kantoor doeleinden is de resolutie oneindig veel interessanter dan de refreshrate
Dit bevestigd je eerdere uitspraken. Jij bent de man van de superlatieven! Weg met nuance en situatiegebonden beschrijven. Gewoon woorden als 'oneindig' erin knallen. Het is gewoon allemaal een "non issue"!
Dat ik veel superlatieven gebruik, is me bekend. Ik vermoed niet dat er veel mensen op tweakers komen die mijn reacties zo vaak lezen dat ze een patroon herkennen, of zich uberhaupt bezig houden met de gebruikersnaam naast de comment, maar offtopic

Voordat je verder leest, de originele steller van de vraag bovenaan de thread is tevreden met het antwoord dat current gen interne gpu’s en videokaarten het allemaal kunnen voor dekstop taken, dus ik vind het prima om nog op je in te gaan. Negeren is ook weer zowat. Maar het praktisch nut van deze discussie is 0

Maar zeg nou zelf, hoeveel procent van de kantoor monitoren denk jij dat high refreshrate is? En als je de breuk inverteert, hoe ver zit dat getal dan van functioneel oneindig af?

Ik snap je punt. Men upgrade niet zomaar om een nieuwe monitor heen. Maar we hebben het hier ook niet over “een monitor” maar over een 2000 euro bleeding edge apparaat…

Jij haalt je allemaal “gewone gebruikers” voor de geest. Die overwegen volgens jou een 32:9 gaming monitor van 2000 euro?
Ondanks dat zelfs onder de pc fanaten het aantal mensen met een monitor van meer dan de helft van dat bedrag super klein is?

Een bedrijf dat eens in de 4 jaar de boel upgrade, denkt nieteens na over dit scherm en koopt 2 losse 4K monitoren voor de desbetreffende werknemer.

Al met al vind ik compatibility zeker een non issue met dit scherm.

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Precies, een bleeding edge apparaat van 2000 euro (ik verwacht zelf nog een stuk meer). En die wil je gewoon op 60Hz draaien (wat je dus echt wel gewoon merkt) en vindt dat helemaal prima? Er zullen vast mensen zijn die het weinig kan schelen, daar ga ik niet tegenin. Maar voor velen zal het toch enigszins wrang aanvoelen.

De rekensom dat de meeste kantoormonitoren 60Hz is mijns inziens niet zo belangrijk. Dat is inderdaad de huidige situatie, omdat de ontwikkelingen op PC monitoren markt al jaren zo verrekte traag gaat (vermoedelijk door oligopolie en prijsafspraken, en mogelijk ook een beetje gebrek aan kennis, maar dat zijn andere discussies). Pas de laatste 2 jaar zijn hogere refreshrates in het gamingset de standaard geworden en kun je een monitor met hogere refreshrate kopen zonder dat hij gelijk 4x duurder is.

Net zoals hogere refreshrates op telefoons, waar je een hoop mensen zich positief over hoort uitspreken (al heb ik geen cijfers, en zijn er ook zat mensen die het niet zoveel boeit). En achter je PC zit je in veel banen de hele dag. Sinds een jaar of 2 begint het gemeengoed te worden in gaming monitoren dat er hogere refreshrates zijn, al wordt ook bij kantoor-focused monitoren een aanwezigere feature.

Youri, ik ben het met je eens dat de meeste kantoormonitoren gewoon op 60Hz werken. En ik ben het met je eens dat je met de meeste discrete GPU's in een desktop systeem goed zit, zo lang je maar die volledig capabele DisplayPort 1.4 poort heb zit je in de meeste desktop gevallen goed. Maar als je a.u.b. voor mij probeert om je argumenten over 2000 euro kostende apparaten ook toe te passen op zaken zoals met 60Hz werken. En er rekening mee houdt dat een hoop mensen niet op de nieuwste laptops werken, maar tot wel 5 jaar of langer met een laptop doen (en dat ook prima kunnen omdat hij qua snelheid voldoet), dan moet je toch inzien dat woorden als 'non issue' en 'een i3 kan het al', een hoop mensen die die naar Tweakers.net gaan voor advies behoorlijk op het verkeerde been kan zetten.
Ah nou sorry, als ik mij moet richten aan mensen die op tweakers.net komen als leek, wat ik meestal alleen op het forum doe en niet op de front page, dan is mijn advies heel anders en veel korter.

Waarom kun je in de ene thread trouwens wel vriendelijk reageren en ben je in deze thread oververhit? Het lijkt wel alsof ik tegen twee verschillende mensen praat. Sterker nog, tot 10 seconde geleden dacht ik dat ook, tot ik in de notificatie lijst maar een account zag.
In de ene thread is het “ik besef me dat ik een niche ben met mijn dure scherm” en in deze is het “mensen met een 2 jaar oude laptop of iets oudere kantoor spullen overwegen een bleeding edge 2000 euro gaming monitor voor kantoortakan”
Wat ?

Afijn:
Koop deze nieuwe samsung monitor niet. Deze monitor is kneiter harde onzin voor 99% van de mensen die bij een aankoop kijkt naar de prijs.
Hij kost 2000 euro en daarvoor krijg je twee snelle 4K monitoren terug. Die zijn los goedkoper.
4K is complete overkill voor desktop gebruik. High dpi support op windows is in veel non microsoft applicaties nog steeds janken en dus is werken op 4K op de desktop op iets anders dan 100% scaling helemaal niet zo tof als het lijkt. Koop twee 1440p schermen. ~200 euro voor 60Hz, ~300 euro voor high refresh. Verschrikkelijk veel betere deal en veel gebruiksvriendelijker omdat je de tekst zonder scaling ook gewoon kunt lezen.
Neem het van iemand aan die meer dan 3000 uur naar een 144Hz monitor heeft gestaard in alleen gaming en nogmaals dat aantal inclusief alle andere taken op zijn desktop. Overweeg geen niche 2000 euro monitor tenzij je heel goed weet waarom

Uitzondering als je een hele dikke gaming computer wil gaan kopen en je meer dan 5000 euro totaal budget hebt, ga dan naar het tabje forum->dka en dan kijken we mee.
Al vermoed ik dat alle mensen die hier blanco op tweakers komen kijken naar “5000 euro” en deze website afsluiten

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Het zijn dezelfde mensen toch, de leken die hier kijken of in de forums. Ik ben het er ook niet mee eens dat de beste adviezen soms bij artikelen worden gevraagd en uitgewerkt, aangezien die vluchtiger zijn, maar dat is wel hoe het gaat. En door de wijze waarop david-v de vraag stelt, door zich te beroepen op 'de kenners', positioneert hij zichzelf (ik denk zelfs bewust) als leek.

Kun je aangeven waar ik niet vriendelijk reageer? Ik geef na onze meer dan 5e reactie op elkaar (in de gehele thread van dit artikel) aan dat je 'de man van de superlatieven bent' en herhaal daar juist jouw opvallendste woorden in mijns inziens eerder jouw manier van communiceren. Ik ben het ermee eens dat een heel klein stapje de onvriendelijke kant op gaat en dat was ook mijn punt. Een discussie wordt onvriendelijker op zijn minst onproductiever als men extra met krachttermen gaat gooien om daarmee maar sterker over te komen (dan gaat het toch niet meer alleen om de inhoud?).

En, zo komt het dus op mij over: de argumenten van de ander, die in dit geval best uitgebreid uitgewerkt en goed onderbouwd zijn, die poogt men daarmee...tsja, wat is het eigenlijk, men hoopt deze daarmee te omzeilen of teniet te doen? Mijns inziens houden we een gezonde discussie met feiten en het schetsen van situaties waar de ander nog niet aan had gedacht. Bepaalde termen (woorden die ik van jou in dat stukje herhaalde) en manier van communiceren passen in mijn ogen daar dus weer niet bij (de vriendelijke discussie).

Hierbij nog mijn mening: ik wil dus never nooit meer 2 monitoren (of 3). Heb het ook overwogen, omdat het qua prijs per pixel een zoveel betere deal is, zeker als je features als refreshrate meeneemt. Maar 2 monitoren is mijns inziens gewoon vervelend, omdat je dan nooit meer in de meest ergonomische houding zit (nek, hoofd en ogen recht vooruit), tenzij je enigszins afwijkende set up gebruikt met 1 primaire monitor en 1 voor erbij monitor. Of dus 3 monitoren, maar ja, ik gebruik de 2e en 3e monitor uiteindelijk veel te weinig in de praktijk en wenst het liefste dat die primaire monitor dan toch nog wat grotere is.

Je hebt gewoon veel meer flexibiliteit bij vensters want je hoeft nooit rekening te houden met die extra bezels. Gewoon even opzij slepen en het staat goed, i.p.v. helemaal in de andere monitor slepen en dan verstellen (en ja ik ben bekend met window managers). Plus het is fijner op die momenten dat je echt veel screen real estate kan gebruiken, zoals bij grote Excel files of database programma's.
het lijkt me dat gezien die geen dp 2 laat staan 2.1 heeft, je niet optimaal gebruik kan maken van deze schermen
In principe heb je alleen genoeg videogeheugen nodig, exclusief rekenkracht.

(Heel) Vroeger moest je uitkijken bij videokaarten of je wel genoeg framebuffer geheugen had om een bepaalde resolutie te ondersteunen. Tegenwoordig loopt dat echt ver vooruit op elke gangbare resolutie.

Waar je wel naar moet kijken is interface bandbreedte, alhoewel het theoretisch geen probleem is om op 24hz o.i.d te werken x)

[Reactie gewijzigd door Marctraider op 23 juli 2024 05:15]

Voor het aansturen als 8 bit per kleur op 60Hz kom je hoogstwaarschijnlijk net weg met Displayport 1.3.

Waarschijnlijk kan het paneel 10 bit kleur aan (native danwel via dithering), maar het is de vraag of je dan nog 240 Hz kan halen. Displayport 2.0 gaat tot 77 Gbit/s netto en HDMI 2.1 tot 42.6 Gbit netto.

Compressie kan veel doen, maar je hebt zo’n 120 Gbit/s nodig voor 10 bit op 240Hz op dit scherm.
Het hangt er een klein beetje vanaf. Ik heb ervaren met een algemene Ryzen 5 3550H PC met Vega 8 graphics dat het wel erg haperde op 4K60. Dan heb ik het gewoon over het openen van menu's, scrollen en het bekijken van een 4K Youtube video.

Dit is omdat mijn Vega 8 graphics buiten applicaties/spellen zichzelf niet automatisch boost/harder werkt om zo om te kunnen gaan met 4K beeld.

Dit lijkt echter een driver probleem te zijn en heeft niet iedereen daar last van. Normaal gesproken is een standaard ingebouwde grafische chip sterk genoeg, als de software ook goed mee werkt. Ik moest mijn Vega 8 handmatig op 800-1200Mhz instellen, daarna werkte het dus ook goed.
Ik kan F1 2020 prima spelen op een 3070, ik heb nog geen fps counter geprobeerd maar ik merk geen framedrops
Minimaal een 4090
Je hebt voor de 5120x1440 maar 89% van de rekencapaciteit van een 4K 3840x2160 nodig.... dit geld dus voor de oude G9 oddysey, en G9 oddysey Oled, dit zijn wezenlijk 2 1440p of 2560x1440 schermen aan elkaar.
240hz refresh lukt ook met mijn 3080Ti ook soms helemaal, toch draai ik bijna alles capped op 120Hz

Dit nieuw aangekondigde scherm vraagt 2 keer zo veel rekencapaciteit als een 4K scherm aangezien het er eigenlijk de hoeveelheid pixels van 2 4K schermen van 3840x2160 naast elkaar zijn. Dat wordt nog grappig... mijn 3080Ti zou de 75hz waarschijnlijk niet halen... dan wordt je afhankelijk van DLSS of de AMD variant.

Als productiviteits monitor, tja.... 49 inch werkt erg lekker, er is veel ruimte om spul te laten, en meer scherpte kan fijn zijn.... toch denk ik dat een 5K2K dan toch makkelijker is. Links naar rechts is 1 meter 12... (als ik me goed herinner), dat is veel heen en weer bewegen als je veel dingen hebt openstaan.... (4 pagina's Word naast elkaar)

De oude G9 accepteerd 2 videokabels en je kunt 'm dus ook als 2 'losse' 2560x1440 schermen gebruiken. Dit kan waarschijnlijk ook op de nieuwe, Ik kreeg mijn scherm voordat mijn PC klaar was, moest op onderdelen wachten en 2 kabels maakt gamen makkelijker, omdat er dan ook maar een half scherm gerenderd hoefde te worden ( mijn oude PC had nog 2 780s) 1440p kon mijn 780 setup nog wel enigzins... andere scherm was dan gewoon voor een browser oid...
Wel mooi dat het 2x 4K wordt genoemd, ook al is dit een 8K monitor. Of gaat het hier daadwerkelijk om 2x 4K als in: je hebt eigenlijk 2 schermen, maar dan zonder bezel?
Tja, dat is toch eigenlijk bij elke ultrawide, 2 schermen zonder bezel.
Is het inderdaad zo dat je op praktisch iedere ultra-wide als 2 losse schermen kan gebruiken in Side by Side mode? Dus 2 (hdmi/dp) signalen aanbieden om deze side by side te tonen.

Of is dat toch een feature die niet standaard is?
Exact dat laatste, dit is 2x 4K naast elkaar :)
staat niet in het artikel dat het ook als 2 schermen gezien wordt. Wel een coole feature.
Oh het wordt ook niet gezien als 2 schermen in windows of iets, het is 1 scherm dat de afmeting heeft van 2x 4K monitoren naast elkaar. Maar dat mag je dus niet 8K noemen, gezien het alleen in de breedte x2 is, en niet ook in de hoogte
Dus is dit gewoon een 8K scherm en niet 2x 4K. 2K, 4K, 8K etc zegt alleen iets over de horizontale resolutie, niet over verticale resolutie.

[Reactie gewijzigd door Twazerty op 23 juli 2024 05:15]

Hoewel de termen zeker misbruikt worden, is het onhandig om hier nog meer variatie in te werpen dan al gedaan wordt. In marketing wordt met 4K een scherm van 3840x2160 bedoeld en bij 8K 7680x4320. Je hebt gelijk dat de (x)K slaat op de horizontale resolutie, maar om dit een 8K scherm te noemen zal alleen maar verwarring opleveren.
Verder, als we heel officieel gaan kijken, kloppen de 4K en 8K marketing termen ook niet, gezien 4K eigenlijk 4096x2160 is en 8K dus 8192x4320, maar goed.
Zie ook: https://en.wikipedia.org/wiki/8K_resolution
en dan het kopje "Examples of 8K resolutions"
7680 × 2160 tot en met 8192 × 8192 is allemaal 8K.

Ik ben het er mee eens dat 8K ook niet duidelijk is, maar 2x 4K heeft bij mij de betekenis dat het om 2 schermen gaat die je individueel kunt aansturen. Nog verwarrender.

[Reactie gewijzigd door Twazerty op 23 juli 2024 05:15]

Ik denk dat je in dat laatste de enige bent, maar ben benieuwd hoe anderen hierin staan.
En nogmaals, ik gaf aan dat je inderdaad gelijk hebt dat het slaat op de horizontale resolutie, maar in marketing (en bij extensie hoe ongeveer iedereen het dus gebruikt) wordt de term tot dusver niet zo gebruikt, dus zou het onhandig zijn als dat ineens wel zou gebeuren. Dan krijg je 8K tv's, 8K monitoren, maar ook 8K monitoren die eigenlijk halve hoogte hebben, zou gek zijn toch?

[Reactie gewijzigd door damaus op 23 juli 2024 05:15]

In dit geval kan je ze ook individueel aansturen, maar ook als geheel. Iedergeval de recente CRG9 Neo's kunnen gesplits worden door gebruik van 2 kabels. Volgens mij noemen ze het Picture by Picture (PBP) ipv Picture in Picture (PiP). Sommige LG Oled TV's kunnen dit volgens mij ook.

Alleen bij de CRG9's raak je erdoor wel Freesync en HDR kwijt als je het doet, omdat het niet op gehele scherm toepasbaar is waarschiijnlijkk.
Simpele oplossing: stop met domme marketingtermen en noem gewoon de resolutie aub t.net :)
Of gewoon double wide 4K.
Marketing die termen misbruikt en creatief met de waarheid omspringt? :+
Dus 7680x1 is ook 8k ?
Die valt buiten de specs van 8K.

Zie ook: https://en.wikipedia.org/wiki/8K_resolution
en dan het kopje "Examples of 8K resolutions"
7680 × 2160 tot en met 8192 × 8192 is allemaal 8K.

@John Stopman , klopt dus niet wat je schrijft.

Als het fout staat op wiki lees ik graag waar de juiste standaard wel beschreven staat.

Dit is vechten tegen de bierkaai. Jammer dat er nog zo veel onduidelijk is onder Tweakers, dit terwijl het niet zo moeilijk is.
er staat letterlijk:

8K UHD (7680 × 4320) is the highest resolution defined in the Rec. 2020 (UHDTV) standard.

dus wat jij zegt klopt ook niet.
8K UHD (7680 × 4320) is de hoogste standaard binnen Rec2020. Echter is dit een monitor en die maken voor zover ik weet geen gebruik van de Rec2020 standaard. Rec2020 wordt enkel bij TV's gebruikt voor zover ik weet. Correct me if I am wrong.
Ik ga je niet correcten want ik weet niet of je gelijk hebt :D
Maar dan kan je het mensen niet kwalijk nemen dat het allemaal wat onduidelijk is, en dat mensen denken dat 8K alleen 7680x4320 is, toch ?
Helemaal mee eens! Standaarden zijn ook niet eenvoudig.

Ik kan er ook volledig naast zitten, maar dan komt dat omdat wikipedia dan foute informatie zou bevatten.
Als men het over 8K heeft, dan bedoelt men in de regel 7860x4320. 16:9 is nog steeds de standaard tenzij anders aangegeven

Ik snap je punt, dat de 8K specificatie in principe meerdere verticale resoluties bevat, maar dat valt echt buiten de scope van een nieuws artikel.

Als tweakere 8K had gebruikt ipv dan 2x4K, dan had iedereen het verkeerd begrepen behalve jij. Nu zie ik alleen een opmerking erover van jou. Ik vermoed dus dat de woordkeuze van tweakers de lading heel redelijk heeft gedekt

je originele reactie en zeker je verdere verdedigingen tegen andere tweakers zitten echt diep in ACKHSHUALLY gebied.

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Bedenk mij net dat ik in een ander artikel wel de 8k termijn correct gebruikt heb zien worden. Wat blijkt: dat gaat over precies dit scherm:
nieuws: Samsung werkt aan 8k-ultrawidemonitor

Eerder dit jaar is er ook de term 4K gebruikt voor een scherm met als resolutie 3840x1100:
nieuws: Start-up haalt Kickstarter-doel voor draagbaar 32:9-scherm met 4k-res...

Ik heb blijkbaar andere verwachtingen van een Tech site dan de rest. Hier verwacht ik correct gebruik van termen. Daarnaast verwacht ik consistentie in terminologie. Als het in andere artikelen wel correct gedaan wordt, verwacht ik dat ook in dit artikel.

Mijn vraag ging dus specifiek over 2x 4K, is dat 2x apart aan kunnen sturen of niet? Wordt niet uitgelegd. Als 1 scherm of als 2 schermen kunnen gebruiken? Of allebei? Dat laatste is wat ik opmaak uit de opmerkingen van mede Tweakers die het wel snappen waar de vraag over gaat.
quote: Twazerty
Bedenk mij net dat ik in een ander artikel wel de 8k termijn correct gebruikt heb zien worden. Wat blijkt: dat gaat over precies dit scherm:
nieuws: Samsung werkt aan 8k-ultrawidemonitor
Je moet kijken naar het aantal pixels: 8k = 7680x4320 = 33.177.600 (miljoen) pixels en is altijd AR 16:9. Als dat niet wordt gehaald: 7680x2160 = 16.588.800 (miljoen) pixels en is altijd AR 32:9, dan is het géén volledig 8k scherm, want enkel in de breedte (e.g. 8k in de breedte, 4k in de hoogte). Met een 32:9 monitor kan dat ook niet anders.

Uit het door jou aangehaalde artikel:
quote: Tweakers
In de presentatie staat in kleinere letters '8k: alleen horizontaal'. Vermoedelijk heeft deze ultrawide dus ongeveer 8000 pixels in de breedte.
Ditzelfde geld dus ook voor de nieuwe Odyssey Neo G9 ;)
quote: Twazerty
Mijn vraag ging dus specifiek over 2x 4K, is dat 2x apart aan kunnen sturen of niet? Wordt niet uitgelegd. Als 1 scherm of als 2 schermen kunnen gebruiken? Of allebei? Dat laatste is wat ik opmaak uit de opmerkingen van mede Tweakers die het wel snappen waar de vraag over gaat.
Ik denk dat je de Neo G9 makkelijk in twee aparte schermen kunt opdelen, wellicht dat dit artikel je op dat punt verder helpt? :)

/edit: ik denk niet dat je de Neo G9 zodanig in tweeën kunt opsplitsen dat het door twee verschillende PC's kan worden aangestuurd, bedoelende: PC1 stuurt de linkerkant van de monitor aan, en PC2 de rechterkant. Dat is een feature dat hardwarematig door de monitor zelf moet worden ondersteund: 1 druk op een knop en de linkerkant van het scherm gaat via HDMI 1 of DP 1, en de rechterkant via HDMI 2 of DP 2. Maar zo een monitor ben ik nog nooit tegengekomen, of ik loop [erg] achter op tech-gebied :D

[Reactie gewijzigd door John Stopman op 23 juli 2024 05:15]

quote: Twazerty
Dus is dit gewoon een 8K scherm en niet 2x 4K. 2K, 4K, 8K etc zegt alleen iets over de horizontale resolutie, niet over verticale resolutie.
Dat is onjuist ;)

4k = 8.294.400 (miljoen) pixels, maar het betreft hier één 32:9 monitor met de resolutie van twéé 4k schermen (7680x2160) en dat bestaat uit 16.588.800 (miljoen) pixels. Dat is de helft van het aantal pixels van één 16:9 monitor met 8k resolutie: 7680x4320 = 33.177.600 (miljoen) pixels.

/edit:

Voor de duidelijkheid:

4k (3840x2160) = 8.294.400 (miljoen) pixels

8k (7680x4320) = 33.177.600 (miljoen) pixels

2x 4k (7680x2160) in één 32:9 monitor zit daar qua pixel count exact tussenin: 16.588.800 (miljoen) pixels

@Twazerty Als de Neo G9 G95NC daadwerkelijk 8k was geweest dan hadden er twee schermen van 7680x4320 in gezeten = 15360x4320 (edit3: uiteraard is het dan gewoon 1 doorlopend scherm) ;)

/edit2: Alhoewel je dan qua pixel count tussen 8k en 16k in zit ;)

[Reactie gewijzigd door John Stopman op 23 juli 2024 05:15]

Eigenlijk is het een 2160p monitor met een 32:9 verhouding.

720p, 1080p, 1440p 2160p.
8k is 4320P.
De meeste van dit soort grote schermen kun je prima in picture by picture-modus aansturen door er gewoon 2 kabels naar toe te leggen. Eentje voor het “linker 4K-scherm” en eentje voor het “rechter 4K-scherm”.
8k heeft 4,320 verticaal, deze niet.. maar dat had je zelf ook kunnen opzoeken..
Dus volgens jou mag iemand geen vragen meer stellen als je het antwoord ergens kan opzoeken? saaie wereld word het dan.
wel beetje tweaker instelling, dat is altijd zo geweest.
Dat zei ik niet, maar als een beetje lui of commentaar op de headline keuze van Tweakers komt het wel over bij mij. Het scherm is aangekondigd dus exacte details/specs zijn wat lastig. We zouden er echter van de features van de voorganger 49" Dual FHD Curved Gaming Monitor Odyssey G9 uit kunnen gaan. En die kan zoals al door anderen ook geschetst, PBP en zich dus voordoen (met twee ingangen) als een naadloos dubbele scherm opstelling.
8K zegt alleen iets over de horizontale resolutie, niet over de verticale resolutie. Dit fabeltje blijft maar rondzweven merk ik.
Nou nee, ITU-R Recommendation BT.2020, die tegenwoordig over het algemeen gebruikt wordt, zegt dat de standaard 8K UHD resolutie specifiek 7680 × 4320 is.
Deze monitor heeft maar de helft van die hoeveelheid pixels.

Jouw argument gaat ook niet op, want de horizontale resolutie is helemaal niet 8k = 8000, het is namelijk 7680 pixels. "8K" is een marketingterm voor bovengenoemde standaard.
Zie ook: https://en.wikipedia.org/wiki/8K_resolution
en dan het kopje "Examples of 8K resolutions"
7680 × 2160 tot en met 8192 × 8192 is allemaal 8K.

8K is de verzamelnaam voor alle resoluties die ongeveer 8000 horizontale pixels hebben.

Rec.2020 is een andere standaard en daar wordt in dit artikel niet over gesproken. Enkel 8K.
Sorry, maar je bent ongelooflijk aan het betweteren. Dat zijn niche formaten, of oude experimenten.

Rec. 2020 is de huidige norm voor termen als "4K" en "8K" UHD. Dus als je zoiets in een artikel leest, kan je er vanuit gaan dat ze de huidige norm gebruiken. Als het een afwijkende resolutie zou zijn geweest, hadden ze het wel vermeld.
Begon enkel met de simpele vraag of dit 2x 4K is (Side by Side) of 1 resolutie omdat het artikel niet duidelijk is hierin.

Ik kan er niets aan doen als andere Tweakers mij foutief gaan corrigeren ;)
Dit is geen 8k monitor, maar slechts de helft...

7680x4320=8K is dus 4 4k schermen en
dit is 7680x2160 dus Dual4K of DualQHD als ik het goed heb ofwel 2 4K schermen
Als ze er ook een vlakke variant van gaan uitbrengen ga ik er zeker eens over nadenken
Ik heb jaren lang een 29" plat 21:9 scherm gehad (1080p).
Dáár vond ik het eigenlijk al nét iets te breed voor een plat scherm.
Heb nu een 34" 21:9 (1440p) met een lichte kromming (1900R) en dat voelt gewoon toch nét wat beter.

32:9 op 49" of 57" met plat scherm zou écht te veel zijn.
Heb je ervaring met zulke brede/grote schermen in platte uitvoering?.. want dat is écht niet tof als je er niet minstens een meter van af zit (zoals bij TVs van soortgelijke/grotere formaten wél het geval is.. en waarom TVs nog wel gewoon prima plat kunnen zijn.. buiten het feit dat een TV vanuit meerdere kijkhoeken toegankelijk moet zijn wat kromming érg onhandig maakt)

[Reactie gewijzigd door Ayporos op 23 juli 2024 05:15]

ik ben niet degene waar je origineel op reageerde, maar ik heb wel ervaring met zulke brede opstellingen. Weliswaar niet 1 brede monitor, maar ik heb al heel lang thuis een 24 en een 27 inch monitor naast elkaar op een monitor arm staan zonder hoek tussen de schermen, dus “plat”, en ik heb 0 klachten

Ik heb het niet uitgerekend, maar die twee monitoren zijn bij elkaar vermoedelijk minimaal even breed als 1 van deze samsung monitoren? Zeker breder dan een 34 inch ultrawide

[Reactie gewijzigd door youridv1 op 23 juli 2024 05:15]

Naar twee losse monitoren, ook al staan ze naast elkaar, kijk je als twee losse werkvlakken, terwijl je naar één ultrawide als één werkvlak kijkt, een andere ervaring.
Dat vind ik persoonlijk meer een argument waarom een platte ultra wide nog prettiger werkt dan 2 schermen plat naast elkaar van dezelfde totale breedte. Bij de enkele ultra wide staat de content veelal meer gecentreerd dan op twee losse schermen en draai je je nek dus nog minder dan bij mijn opstelling.

Maar dat is mijn mening
de 49" is verfelijkbaar met 2 27" schermen naast elkaar zonder bezel.
Ik ben CAD-tekenaar/3D-modelleur, voor mijn werk is het redelijk handig wanneer rechte lijnen ook echt recht worden weergegeven. Als de basis al krom is gaat dat voor mij niet werken. Maar dat is dus persoonlijk, want een aantal collega's werkt op gekromde schermen en zijn daar wel goed over te spreken.
Mij lijkt dat met dat formaat dan weer helemaal niet prettig
Volgens mij is het tijd om resoluties anders aan te gaan duiden, met de ouderwetse lettercodes bijvoorbeeld, al bestaan die volgens mij nog niet eens voor 32:9 verhoudingen, is stel UWOHD voor (Ultra Wide Octa-HD = 8x HD (720p).

Een monitor met 5120*1440 pixels hetzelfde noemen als een monitor met 2560*1440, slaat toch nergens op? Het heeft letterlijk 2x zoveel pixels. Ik vond het met 3440x1440 al verwarrend, maar nu gaat het helemaal de verkeerde kant op.


edit: wat betreft die 5K monitor van 27", wat een overkill, dat is net zo erg als een 4K scherm in een laptop zetten. Leuk voor op de specsheet, maar verder heb je er niets aan. Wat, hoeveel extra energie kost het vullen van al die extra pixels?

[Reactie gewijzigd door Alxndr op 23 juli 2024 05:15]

Wat mij betreft noemen ze gewoon de resolutie (BBBBxHHHH)... dan is er geen verwarring.
Helemaal mee eens. Nadeel is dat het dan alleen niet meer zo lekker bekt zonder marketing term of andere term. Introduceer je een term waar verschillende fabrikanten en organisaties weer een eigen uitleg bij geven ben je weer terug bij af.
32:9 heeft de Dual prefix van de corresponderende 16:9
DualHD is 3840x1080
DualQHD is 5120x1440 (Dual 1440p)
DualUHD is 7680x2160 (Dual4K)

15360x 4320 wordt Dual8k


Hoop dat ik ze niet omgedraaid heb, maar de intentie is in iedergeval goed

[Reactie gewijzigd door PaxV op 23 juli 2024 05:15]

Mooie vooruitgang. Wel vreemde grootte. Nu op naar 2 keer 5k-resolutie op 49" en de wereld is een betere plek _O_
Hopelijk stabieler als de voorganger. Heb nog steeds issues met mijn neo g9. Flikkering, dode pixels, en afschuwelijke customer support.

[Reactie gewijzigd door lancekapers op 23 juli 2024 05:15]

Wat een gemis dat de OLED versie een kromming heeft van 1800R, wil niet terug van 1000R :(
Eindelijk weer een nieuwe 5K monitor! Mag wat mij betreft wel in de titel gezien die niet veel gemaakt worden. ;)

Hopelijk wordt dit wat betaalbaarder dan een Apple Studio Display, op dit moment zijn er maar weinig schermen die op Mac zowel Retina resolutie als veel werkruimte geven.
57" is wat mij betreft te groot.

Ik heb 49" met 1440P, kwa productiviteit is dit prima, maar wanneer dit scherm nog wijder zou zijn zit je simpelweg veel te veel met je hoofd te draaien bij een armlengte afstand van het scherm.

Voor spellen is 49" op 1440P in sommige gevallen echt fantastisch, en bij andere (vaak iets oudere games) is het echt een "sta in de weg" vanwege HUDS die er niet op gebouwd/ondersteund zijn.
Voor spellen op een 57" op 2160P denk ik dat de uitersten nog een stukje verder komen te liggen (fantastisch wordt nog beter, en "onspeelbaar" wordt nog slechter).

Advies; Als spellen voor jou een belangrijke factor is in de aankoop van een super ultrawide scherm, doe dan dan eerst even gedegen onderzoek of jou favoriete spellen/genre's een beetje redelijk ondersteund worden.
Beetje jammer dat ze niet Ark 55" versie niet met 8k hebben uitgebracht.
Deze versie is dus vergeleken met G9:
19,55 cm breeder
5,48 cm hoger
139.96 vs 108.54 PPI

Hopen dat de prijs onder 2k blijft.

Op dit item kan niet meer gereageerd worden.