Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

ViewSonic brengt gebogen 32"-monitor met displayport 1.4 uit

ViewSonic brengt de XG3240C op de markt, een gebogen 32"-monitor met verversingssnelheid van 144Hz en displayport 1.4. De fabrikant richt zich met het scherm op gamers en de monitor heeft ondersteuning voor AMD's FreeSync.

De ViewSonic XG3240C heeft een antispiegelend va-paneel met een diagonaal van 31,5" en een kromming van 1800R. De resolutie bedraagt 2560x1440 pixels. De maximale helderheid ligt op 300cd/m² en hoewel dit te laag is voor noemenswaardige hdr-weergave, heeft het product volgens ViewSonic wel ondersteuning voor hdr10. De monitor komt niet in aanmerking voor een DisplayHDR-kwalificatie.

Het scherm heeft een contrastverhouding van 3000:1 en de verversingssnelheid ligt op 144Hz. De FreeSync-ondersteuning werkt in combinatie met AMD Radeon-kaarten vanaf de 400-reeks. Wat aansluitingen betreft zijn twee hdmi 2.0-ingangen en displayport 1.4 aanwezig.

De 1.4-versie van displayport is begin 2016 aangekondigd, maar nog niet op veel monitoren aanwezig. De bandbreedte is hoog genoeg voor 4k-weergave op 120Hz, maar in dit geval moet het scherm dus maximaal 2560x1440 pixels op 144Hz weergeven, wat hdmi 2.0 of displayport 1.2 ook kunnen. Verder zijn een usb-hub en een duo 6W-luidsprekers aanwezig en is het scherm 80mm in hoogte verstelbaar. Volgens ComputerBase bedraagt de prijs 659,90 euro.

Door

Nieuwscoördinator

39 Linkedin Google+

Reacties (39)

Wijzig sortering
Snap er maar weinig meer van, meeste mensen hebben een nvidiakaart en er worden bijns alleen nog maar freesync monitoren uitgebracht de laatse tijd.

Waarom -1 ? is toch een normale opmerking

[Reactie gewijzigd door RoaDHouse op 26 januari 2018 13:23]

Dat heeft ermee te maken dat de fabrikant voor G-sync licentiekosten betaald en een (relatief) duur stukje hardware in de monitor moet zetten. De meerprijs voor freesync is veel minder.
Dat is dan slimme marketing van AMD. Want als iemand eenmaal een frresync monitor (want minder duur, meer keuze) heeft is de kasn weer groot dat de volgende videokaart er één van AMD wordt.
Het is helaas al even wachten op de eerstvolgende behoorlijke AMD high-end videokaart. Zodra die er is, ben ik in ieder geval over :)
Het is helaas al even wachten op de eerstvolgende behoorlijke AMD high-end videokaart. Zodra die er is, ben ik in ieder geval over :)
En gaat nu ongetwijfeld nog een stuk langer duren met de videokaarten-voor-mining-hype.
In bijna alle displaycontrollers zit tegenwoordig standaard adaptive-sync ondersteuning, waarmee FreeSync ook werkt. Het is dus simpelweg een vinkje in de firmware aan, en dan heb je weer een extra feature die je gratis kan marketen.

In tegenstelling tot G-Sync waarbij je een aparte controller hebt waar je dik extra voor moet betalen als fabrikant.
Vet scherm! En ook met de specs die ik wel zou willen hebben. Alleen heb ik een GTX 980, zou het de moeite zijn om die te vervangen door een AMD kaart die ongeveer of iets beter presteert? Vooral omdat FreeSync schermen stukken goedkoper uitvallen dan G-Sync schermen (helaas).
Inderdaad wel leuk scherm. Het vervangen van je grafische kaart is op het moment schandalig duur. Nadat de prijzen eind vorig jaar weer normaal leken te worden, staat alles weer gigantisch hoog. Ik denk dat het voordeliger is een iets duurder scherm met g-sync te kopen op het moment. Of wachten op volta en kijken wat dat met de prijzen doet. (Of hopen dat de bitcoin compleet instort en er tweedehands goedkoop vega kaarten te krijgen zijn)
(Of hopen dat de bitcoin compleet instort en er tweedehands goedkoop vega kaarten te krijgen zijn)
Als dat gebeurd wordt er juist meer gpu's gekocht :) Je moet juist blij wezen dat er kaarten gekocht worden voor mining, zo wordt er meer verkocht en komen er sneller nieuwe generaties (aangezien fabrikanten meer verdienen).

Om weer ontopic te komen, scherm ziet er erg vet uit! Hoop zelf dat ze ook kijken naar een widescreen formaat. Als je eenmaal zo'n formaat gebruikt wil je niet meer terug.

[Reactie gewijzigd door vali op 26 januari 2018 13:50]

Voor het eerst sinds tijden zijn gpu's alleen maar constant in prijs gestegen, ipv goedkoper over verloop van tijd. Dus nee, ik ben niet blij dat er kaarten gekocht worden voor mining, de prijs is onnodig hoog en leverbaarheid is belabberd.

Het geeft nvidia/amd juist meer reden om dit lekker uit te zingen, ik geloof niet dat het er voor zorgt dat de gpu ontwikkeling harder gaat. Ze verdienen nu bakken met geld met de huidige generatie, er is helemaal geen nood om snel naar de volgende generatie toe te gaan.
Voor het eerst sinds tijden zijn gpu's alleen maar constant in prijs gestegen, ipv goedkoper over verloop van tijd. Dus nee, ik ben niet blij dat er kaarten gekocht worden voor mining, de prijs is onnodig hoog en leverbaarheid is belabberd.
Dat is nou het verschil tussen de schoolboekjes (kapitalistische propaganda) en de praktijk ;)

Dalende prijzen bij meer productie zijn alleen "aannemelijk" als er ook oneindige productiecapaciteit en grondstoffen zijn. "Aannemelijk" tussen apenootjes omdat de praktijk tevens uitgaat van het principe "wat de gek ervoor geeft".

Overigens is het de vraag of AMD en nVidia er zelf echt zoveel rijker van worden. Het zijn de "winkels" (leveranciers) die er nu belachelijke prijzen voor vragen en daar zien de fabrikanten echt helemaal niks van terug. Of de fabrikanten in de toekomst de prijzen verhogen is weer een tweede ...
Overigens heb je ook nog een verschil in "fabrikanten". AMD en nVidia maken welliswaar de GPU's (de chip dus) maar de meeste videokaarten worden door derde partijen (MSI, Asus, Sapphire, etc) gemaakt.

Er zit dus een extra stap tussen. Als iedere betrokken partij de hoofdprijs vraagt dan zijn videokaarten straks gewoon compleet onbetaalbaar en stort de markt vanzelf in. Fabrikanten weten heel goed dat ze dan hun eigen graf graven dus dat zullen ze echt niet zo gauw doen.
Ze verdienen nu bakken met geld met de huidige generatie, er is helemaal geen nood om snel naar de volgende generatie toe te gaan.
Juist wel, aangezien mining steeds moeilijker wordt gemaakt als er teveel mensen dezelfde coin aan het minen zijn. Men wilt ook steeds snellere kaarten en ook zuiniger.

Als een fabrikant die niet kunnen leveren stappen ze over naar de ander. Ben ook van mening dat GPU markt juist sterker is geworden omdat er eindelijk weer vraag is. Van alleen de gaming markt kunnen ze het tegenwoordig niet van hebben..

[Reactie gewijzigd door vali op 26 januari 2018 15:30]

lolz "juist sterker geworden" ? misschien zuiniger ja. maar ik heb nu een 390X als ik dat met een betere AMD wil upgraden, dan moet ik minstens een 580 nemen. De complete 4 serie is praktisch een downgrade !.
Vroeger kon je bijna zeker van een hogere serie een reeks lager gaan bvb 260 -> 350 en dan kwam je op prestatie winst of gelijk uit.
er komen niet sneller nieuwe kaarten, zal juist nog wel even duren. De 1000 series bestaat nu ook al bijna 2 jaar volgensmij terwijl 500 naar 600 series 1 jaar zat.

maar ze hebben nu wel meer geld voor nieuwe investeringen en onderzoekingen en zullen de kaarten van de volgende generatie of die daarop een stuk beter presteren! en dan zal 4K eens interessant worden!
GPU vervangen kost me niets, alleen een paar minuten. :+ En een 980 zal vast voor veel gekocht worden.
Ik denk dat hij het hier zal hebben over aanschaffen van de GPU :)

Ik zou persoonlijk zelf een vergelijkbare monitor met g-sync kopen en dan of naar een 1080(ti) kijken of inderdaad wachten op de Volta serie zoals @Eldunari aangeeft. Dit zal wel iets prijziger zijn maar alles bij elkaar zal het op dit moment vrij prijzig zijn om een nieuwe high-end AMD kaart aan te schaffen. Veel kaarten zijn ook nauwlijks tot niet leverbaar als je gaat kijken bij webshops. Nadeel is natuurlijk wel dat er volgensmij op het moment niet vast staat wanneer Volta gaat komen... Dus hoe hoog is je nood? :+

[Reactie gewijzigd door Merkane op 26 januari 2018 13:10]

De 1080TI heb ik! Met een 24" 1080p 60hz scherm. :+

Paar inches minder (27" is max afmeting voor Tobii dacht ik) en g-sync erbij en dan ben ik wel over te halen. Liever meer dan 300 voor HDR maar dat zou een bonus zijn naast de rest, geen must... denk ik. Weet nog te weinig van HDR/PC en hoe groot het verschil is in praktijk.
Ik heb zelf geen HDR maar een maat van mij wel. Het verschil is best wel groot en erg mooi met name in games vind ik zelf. Helaas maakt HDR de prijs ook weer een stuk hoger maarja, dat is met alle electronica he. Hoe mooier en sneller, hoe dunner je portomenee wordt :D
Dat geloof ik dan maar, maar ik bedoelde vooral het verschil tussen e.g. "300 HDR" en wat dan de volgende stap is of zo. 600? (kwa officiele specs ieg)

Ik zit nu wel op een moment dat prijs (al geen ¤1000+ liever) al een stuk minder uitmaakt. :+
27" g-sync, 144+hz, nieuw soort (TN/VA ) paneel erin, las dat er wat nieuwe panelen rond deze tijd zouden uitkomen die een wereld van verschil waren met X reeks/paneel eerder. HDR erbij en ik ben wel om.
Alleen curved ben ik nog erg benieuwd na, nooit gezien en ken niemand die dat heeft. :(

Benieuwd of een curved scherm werkt met Tobii. Eens vragen op twitter. :P

[Reactie gewijzigd door The Chosen One op 27 januari 2018 17:09]

Ik denk dat hij het hier zal hebben over aanschaffen van de GPU :)
Wist ik wel :+ Daarom had ik het er over dat mijn 980 voor veel verkocht kan worden waarmee ik dan een vergelijkbare AMD kaart voor kan halen. Ik hoef geen duurdere in principe en als die er wel zijn maar dan veel duurder, dan heeft het geen zin natuurlijk.
Als dat het geval is, is dat zeker de moeite waard. Zeker als je graag deze beeldschermverhouding en resolutie hebt, want die zijn er op dit formaat niet veel met g-sync. Ik geloof dat er op het moment maar 1 in de pricewatch staat (pricewatch: LG 32GK850G Zwart), maar dat is een pre-order.
er zijn er momenteel 2:
https://tweakers.net/cate...qgsKSvdEsaApCzdBFD8E2s9Q8

niet met de precieze specs, maar wel 1440p, 144 hertz en g-sync.
Ik snap niet zo goed wat er vet is aan dit scherm, gewoon objectief gezien....

DP 1.4 voor een 2560*1080@144Hz scherm compleet nutteloos, kan ook op DP1.2
2560*1080 is vervelend lage resolutie, zeker voor een 32" scherm die bij de meesten op een cm of 30 van ze afstaat. (is 86,83PPI, ter vergelijking, mijn 17" 1440P scherm heeft 172,78PPI, en een normale 32-35" UW (3440*1440) 116,54 - 106,55PPI)
300 Nits is veel te weinig, en zal dus alleen een beetje goed uit de verf komen in een volledig verduisterde kamer.
[subjectief] Scherm ziet er goedkoop en plastc uit.
Niet geweldig goede prijs, je hebt er meer tot wel 200Hz in dit prijssegment (32"+ ¤ 480,- - ¤ 720,- 21:9 100hz+

@GTX2GvO Dat is dom zeg, dat heb ik compleet verkeerd gelezen, beschouw die hele rant dan maar als niet geschreven. *schaam*

Overigens zou ik dan nog steeds deze voorstellen, 2560*1440@144Hz 1ms, met Freesync2 en HDR600:
pricewatch: Samsung C32HG70 Zwart voor ¤ 660,- (wel aanbieding, dus dan moet je snel zijn)

[Reactie gewijzigd door zion op 26 januari 2018 13:53]

De resolutie is ook 2560x1440@144Hz en dus ook "gewoon" een 16:9 verhouding scherm.
En dus geen ultra wide.
Afgezien van dat ik het voor een deel met je eens ben, is de resolutie 2560x1440, niet 1080
Vet scherm! En ook met de specs die ik wel zou willen hebben. Alleen heb ik een GTX 980, zou het de moeite zijn om die te vervangen door een AMD kaart die ongeveer of iets beter presteert? Vooral omdat FreeSync schermen stukken goedkoper uitvallen dan G-Sync schermen (helaas).
Nou ik zou zelf niet snel gaan voor een monitor die een va-paneel heeft, maar een vervangende GPU voor je Geforce GTX 980 woord moeilijk nu, aangezien alle redelijke snelle GPU's niet op voorraad zijn en of veelte duur zijn, vanwege Bitcoin mining.
Het is interessant te zien dat DisplayPort 1.4 nu ook op monitoren gebruikt wordt waar dat niet per se nodig is, dat geeft aan dat langzaam de standaard ingeburgerd raakt. DisplayPort 1.2 zou ook genoeg bandbreedte hebben gegeven maar toch is er voor 1.4 gekozen.

Edit: Het grote voordeel is natuurlijk dat op het moment dat DisplayPort 1.4 en later HDMI 2.1 standaard zijn op alle monitoren, de monitoren die het wel nodig hebben makkelijker te maken zijn en goedkoper worden. Het zijn namelijk geen speciale of bijzondere onderdelen meer, ze worden toch al in massaproductie gemaakt. De speciale panelen in deze monitoren zullen duur blijven, maar de rest eromheen kan goedkoper wat met voldoende concurrentie voor ons ook in de prijs te zien zal zijn.

[Reactie gewijzigd door Balance op 26 januari 2018 14:33]

Inderdaad, en hopelijk volgen er meer fabrikanten, wat mij betreft ook zeker in het 4K domein. Zo'n Displayport 1.4 zal niet veel duurder te fabriceren zijn dan een Displayport 1.2 en toch duurt het al erg lang voordat een nieuwe generatie monitors er standaard mee wordt uitgerust. De echte doorbraak moet nog komen.
De FreeSync-ondersteuning werkt in combinatie met AMD Radeon-kaarten vanaf de 400-reeks.
Hoezo? sinds wanneer is dat?

[Reactie gewijzigd door DoubleYouPee op 26 januari 2018 13:27]

Damn... Het enige dat ik mis is G-Sync, anders was dit een instant buy. Ik zou willen dat fabrikanten een manier zochten om zowel FreeSync als G-Sync aan te bieden (naast de G-Sync module, een aparte scaler chip voor FreeSync, en beide op een aparte DP/HDMI poort).
Leuk in theorie maar dat betekent dan wel dat "ik" moet betalen voor een enorm dure G-Sync module waar ik niks aan heb (of aan wil hebben). In de praktijk scheelt het gewoon 150-200 euro voor eenzelfde monitor.

NVidia kan makkelijk FreeSync ondersteunen maar wil dat uiteraard niet omdat ze dan hun dure G-Sync modules (wél hardware) niet meer verkopen. (Dat is even los van de vraag welke techniek superieur is, trouwens)
Pilletje vergeten gister? :+

Ik krijg er wel mee te maken want dat is nu al zo. De echte vernieuwende high end spullen (uhd, 144Hz+, etc, zonder al die overbodige troep als gebogen schermen) zijn/worden vooralsnog G-sync only.
Mijn punt is dat ik niet van plan ben om 200 euro meer te betalen alleen voor G-sync terwijl ik er niks aan heb. Of dat nou in combinatie met FreeSync is of niet.

Dat er zoveel FreeSync monitoren zijn is omdat het veelal om goedkopere monitoren gaat. Het betaalbare segment waar G-sync dus gewoon veel te duur voor is.
"UHD, 144Hz+, ?etc?"... er is op dit moment niet eens een G-Sync monitor te koop met die specificaties.
De echte vernieuwende high end spullen (uhd, 144Hz+, etc, zonder al die overbodige troep als gebogen schermen) zijn/worden vooralsnog G-sync only.
Welk deel van "worden" snap je niet? Uiteraard doelde ik daarmee op de Asus PG27UQ die nu al meer dan een jaar wordt uitgesteld, evenals het vergelijkbare scherm van Acer.

Ik houd de markt nu al meer dan een jaar -zeer goed- in de gaten omdat ik een nieuwe monitor wil. En het punt is dat het allemaal steeds net om mijn wensen heendraait. Als er de specs voor mij op zich interessant zijn dan is er altijd wel weer iets. Of het is gebogen, of het is TN, of het is een loterij wat betreft backlight bleeding, of de freesync range is belachelijk, of het ontwerp is spuuglelijk, of het is g-sync. Noem het maar op.
Jouw klachten zijn heel herkenbaar. Dat is de reden waarom ik wil dat een (of het liefst alle) G-Sync monitor ook FreeSync ondersteunt, zodat er een variabel minder is. Daar ben ik best bereid een meerprijs voor te betalen. Die G-Sync tax gaat niet weg zolang Nvidia te weinig concurrentie heeft.

Edit: en overigens is een gebogen 32" paneel een prettige additie, omdat zonder kromming de hoeken te ver van de gebruiker af staan. Ik heb zelf een 32" 16:9 monitor gebruikt welke dat echt goed kon gebruiken. Helemaal als het een VA paneel betreft (zoals de monitor in het artikel). Evenals dat 1440p beter is dan UHD, want bij veel hoogwaardige games is gamen op of meer dan 60FPS niet haalbaar, en kan je dus niet profiteren van je 144Hz. Evenals dat display scaling nog steeds bagger is.

[Reactie gewijzigd door PostHEX op 27 januari 2018 22:31]

Ik vind hem erg lelijk qua design...
Ik zoek nog steeds een waardig opvolger voor mijn huidige Samsung monitor, maar zoek eigenlijk een mooie maat tussen de 27-30 inch.
Voor 21:9 is 30 inch een goed formaat 2560x1080 zou dan NET aan kunnen... maar liever heb je natuurlijk meer detail + goed en snel IPS paneel (of OLED).
Die rode accenten vind ik zeldzaam lelijk.
Da's best een achievement eigenlijk.
En weeeeeeer gebogen ...

Of ze hebben mooie specs en het ziet er niet uit qua ontwerp. Of het is gebogen. En als het er strak en recht uitziet is het weer een prehistorische FHD of heeft het een belazerde refresh rate of G-Sync.

Het lijkt wel alsof ze allemaal expres om mijn wensen heen produceren ofzo. :'(

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*