Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

Acer komt binnenkort mogelijk met twee gekromde 34"-beeldschermen gericht op gamers. Het ene model biedt ondersteuning voor Nvidia's G-Sync-technologie, terwijl het andere met AMD's Freesync is uitgerust. De schermen zijn naar verluidt begin juli te koop.

De twee schermen hebben een beeldverhouding van 21:9 en tellen elk 3440x1440 pixels, meldt Tftcentral. Beide monitoren hebben een zwarte behuizing met dunne rand en een zilverkleurige voet die kanteling en hoogteverstelling biedt.

Volgens de site maken de monitoren gebruik van ips-panelen van LG met een maximale refreshrate van 75Hz. De opgegeven responstijd van het paneel is 4ms, de contrastverhouding bedraagt 1000:1. De XR341CK heeft ondersteuning voor AMD's FreeSync, terwijl de XR341CKA beschikt over Nvidia's G-sync. Beide technologieën moeten tearing en stotteren in spellen tegengaan. Wel is daarvoor een compatibele grafische kaart nodig.

De XR341CK beschikt over hdmi 2.0, displayport en mini-displayport, plus een vierpoorts usb 3.0-hub. Het met G-Sync uitgeruste zustermodel heeft naast de usb-hub alleen displayport en een hdmi 1.4-uitgang. Beide modellen hebben 7W-stereospeakers. Volgens Tftcentral moeten de schermen begin juli in de winkel liggen, de XR341CK voor 899 pond, de XR341CKA voor 999 pond. Of en zo ja, wanneer de schermen in de Benelux komen is niet bekend.

Acer XR341CK

Moderatie-faq Wijzig weergave

Reacties (58)

Mmh erg interessant. Nu is het alleen de vraag wat de minimum refreshrate van dit panneel is. Bij sommige andere IPS schermen met Freesync had je de 48-75 range en die is eigenlijk te klein.
Bij 20-24 tot 75 wordt het zeer interessant.
20-24hz is voor een lcd onhaalbaar, en eigenlijk ook ongewenst aangezien je dan sowieso schokken zal beginnen waarnemen in plaats van vloeiend beeld. Blijkbaar ligt de minimumgrens voor lcd's ergens rond de 37-38hz, aangezien dat de waarde is waarop GSync dubbele frames begint door te sturen zodat de refreshrate op punt kan blijven. PC Perspectieve heeft hier vrij recent nog een heel duidelijke video van uitgebracht, die met oa. een oscilloscoop aantoont wat de verschillen zijn tussen FreeSync en GSync. Ze leggen ook uit waarom er een minimum refreshrate is (schade aan het paneel). Het is geen korte video, maar wel zeker de moeite waard!
https://www.youtube.com/watch?v=VkrJU5d2RfA
Het lijkt me ook nergens voor nodig... wat maakt het nou uit of je 24 beeldjes per seconde weergeeft, of je geeft 48 beeldjes per seconde weer maar hetzelfde frame wordt steeds 2 keer weergegeven? In beide situaties wordt je video perfect weergegeven toch volgens mij.

Edit: Ok, ik ben nou die video aan het kijken... erg interessant inderdaad... Maar waar ik niet bij kom, wat Nvidia doet (extra frames injecteren) is in feite wat ik hierboven al on the spot bedacht had. Sure, het zal wat ingewikkelder zijn om het technisch werkelijk te implementeren, maar het is niet heel erg moeilijk om te bedenken. Hoe the *bleep* kan het dat AMD het WEER niet zelf kan bedenken? Dit is precies waarom ik ze persoonlijk afgeschreven heb. Het is weer net zo'n verhaal als destijds toen AMD door een website verteld moest worden dat ze een probleem hadden met frametimes, terwijl NVidia het zelf door heeft en al opgelost heeft. AMD komt nog steeds op mij over als een bedrijf dat het net niet snapt en keer op keer stomme fouten blijft maken. Sorry als ik nou iets te hard als basher/troll over kom, maar ik snap het niet waarom AMD niet zelf al snapt dat freesync op deze manier veel minder waard is dan gsync. Ik vermoed dat ze het wel weten maar gewoon met hard roepen dat het net zo goed is mensen om de tuin proberen te leiden en dat is minstens zo erg... Dus, tja, dom of evil, pick one?

[Reactie gewijzigd door Finraziel op 16 april 2015 20:20]

Scheelt misschien dat AMD over het algemeen geen uitzuigpraktijken toepast, en nVidia wel. Dan maak je wel meer winst, ja.

Ik bedoel, nVidia koopt 3DFX en implementeert een gemoderniseerde versie van SLI. Maar alleen op moederborden met een nVidia chipset, of moederborden die een losse SLI chip bevatten. Gehackte drivers tonen aan dat die chip geen reet toevoegt, maar dat de officiële driver gewoon geen SLI toestaat als hij die chip niet vindt. En intussen kan nVidia wel een SLI-chip verkopen.
ATI/AMD komt met CrossFire, wat gewoon op elk moederbord met voldoende PCI-e slots werkt, zonder gezeik.

nVidia koopt Aegea en bouwt hun physics PPU technologie in hun GPU in, en zorgt er dan voor dat je een losse videokaart kunt inzetten als dedicated PPU. Maar ze zorgen er ook voor dat als je diezelfde physics code dan door je CPU laat berekenen (want je hebt geen nVidia GPU), er dusdanig brakke code wordt gebruikt dat het niet vooruit te branden is, en hun driver blokkeert de mogelijkheid om een nVidia kaart als PPU naast een AMD GPU in te zetten – iets dat met niet-officiële drivers prima werkt.
AMD maakt gewoon gebruik van OpenCL voor hun GPGPU verhaal, zonder daarvoor extra hardware af te dwingen.

nVidia maakt G-sync, maar zorgt er ook voor dat je daarvoor een extra chip in je monitor moet bouwen. Een chip waarvan al is aangetoond dat hij niet nodig is, want in laptops werkt het ook prima zonder dat ding. Maar het is wel een meerprijs op je monitor.
AMD maakt als antwoord freesync, wat gewoon zonder extra fratsen werkt en inmiddels dan ook in de nieuwe DisplayPort standaard is opgenomen.

Dan kun je hooguit nog AMD Mantle tegenwerpen. Maar dat wordt nu al voor een groot deel weer afgebouwd omdat de meeste functionaliteit daarvan inmiddels in DirectX 12 opgenomen is – wat ook het hele idee van Mantle lijkt te zijn geweest, om de ontwikkeling daarvan een beetje peper in de r**t te steken.
Ik begrijp dat het de AMD fan pijn doet wat ik zeg, en vanuit een idealistisch oogpunt vind ik de aanpak van AMD ook te prefereren... maar ik kijk naar de bottom line en dan zeg ik dat je beter af bent met Nvidia dan met AMD. SLI werkt beter dan crossfire (of in ieder geval werkte beter, ik weet niet of dat frametime probleem nou helemaal opgelost is) en gsync werkt ook beter dan freesync. Als Nvidia "uitzuigpraktijken" zoals jij het zo leuk verwoord moet toepassen om geld te hebben voor research om met deze superieure technieken uit te komen, dan is dat wat mij betreft prima, ik betaal graag iets meer voor een beter product.
Je betaalt er ook veel meer voor. Maar als je dat niet uitmaakt, zij het je gezegend.
Het verschil tussen een monitor met 24hz en eentje van 48hz met een framerate van 24fps (en dus verdubbelde frames) is dat je bij de eerste flikkeringen zult beginnen zien door de lange periodes tussen de refreshes, terwijl je bij de tweede enkel schokkerig beeld zult beginnen waarnemen. Beide redelijk onbruikbaar, maar bij de flikkering krijg je ook geweldige hoofdpijn, waardoor ze dat proberen te vermijden.

Even over je AMD-bashing: Blijkbaar begrijp je nog steeds niet goed wat er gebeurt onder de minimale refreshrate van een monitor. Het enige wat AMD moet doen om dit op te lossen is de refreshrate terug op 60hz zetten ipv hem op de minimum van 40hz te houden. In dat geval is de situatie net dezelfde als zonder freesync, maar als je fps richting de 35 gaat is het voor de meeste games toch al niet meer vloeiend genoeg dus maakt freesync ook niks uit.

Een meer lange termijn-oplossing is dat elke scaler in de drivers van AMD wordt herkend en dat ze daarna hetzelfde trucje gaan toepassen als nVidia. Hiervoor moet elk paneel wel getest worden, wat tijd vraagt. AMD kiest ervoor de markt die tijd te geven en ondertussen al enkele voordelen uit te brengen, nVidia kiest voor de korte-termijn oplossing door hun eigen scaler te verplichten. Dan mag je nog AMD zo verwijten van onkunde, de vendor lock-in die nVidia met elke nieuwe technologie probeert te creëren is voor de markt op zijn geheel nog altijd erger...
Of het op 24 fps onbruikbaar wordt dat is de vraag, wat ik lees en hoor (ook in de video hierboven) is dat zelfs 24 fps met gsync veel speelbaarder is en soepeler uit ziet dan wij gewend zijn van op 60 hz gelockte schermen.

Wat betreft AMD's langetermijn oplossing, ze hoeven niet elke scaler te herkennen. Op dit moment kan op dat scherm in die video al minstens 100 hz en minimaal zo'n 40 hz getoond worden. Dat 'weet' de driver, dus dan kun je ook onder de 40 gaan verdubbelen. Het is dus niet zo dat AMD het niet zou kunnen doen op dit moment. Uiteraard is het wel zo dat ze het niet met elk scherm kunnen doen, maar dat zouden ze ook gewoon kunnen communiceren, dat het het beste is om een scherm te gebruiken met x specs want anders kun je onder bepaalde framerates toch weer tearing en judder krijgen. Maar daar kiezen ze niet voor, om een of andere reden, en dat reken ik ze aan.
Jammer genoeg is het niet zo simpel: Elke paneel & scaler-combinatie gedraagt zich anders bij lage refreshrates, waardoor je bv. ook grote verschillen ziet in overshoot en ghosting tussen GSync & FreeSync (en verschillende FreeSync-monitoren).

Bij GSync kan nVidia al deze dingen zelf 1x testen op hun eigen scaler en daarna overal op dezelfde manier toepassen (want ze verplichten elke fabrikant om die scaler te gebruiken), terwijl bij FreeSync elke combinatie apart moet getest en ingesteld worden. Dat de testprocedures nog heel wat beter en strakker moeten is duidelijk (de eerste FreeSync-monitoren hadden belachelijk veel last van ghosting, de tweede batch doet het al heel wat beter), maar is ook te verwachten bij dergelijke nieuwe technologie.

Je mag AMD dat gerust aanrekenen, maar een volledig gesloten en door één partij gecontroleerd ecosysteem (bv. GSync) zal in het begin altijd beter werken dan een open tegenhanger waar meerdere fabrikanten inbreng bij hebben. Op termijn is de open aanpak echter altijd de betere gebleken voor innovatie, en dat zal ook hier het geval zijn. Het bewijs daarvoor is al geleverd: nVidia test GSync op laptops zonder hun eigen scaler, wat dezelfde problemen zal geven als dat AMD nu ondervindt bij FreeSync.
Ik denk dat het ook te maken heeft met Budget. nVidia's R&D budget is hoger dan dat van AMD en AMD maakt CPU's en GPU's. Qua GPU's hebben ze de afgelopen jaren prima mee kunnen komen met nVidia en is het om en om wisselen tussen wie de snelste GPU heeft.

Het is niet ideaal maar dat ze dit soort steekjes dan laten vallen is in mijn ogen niet raar. Ik vind prijs prestatie verhouding persoonlijk belangrijker. Wetende dat dit probleem er is kun je ook de game settings aanpassen dat je boven die framerates blijft.

Daarnaast lijkt het me niet onmogelijk om via de driver ook extra frame incerts te doen.
Inderdaad, hoewel ik eigenlijk al wel redelijk tevreden ben met een 34" 75Hz 3440x1440 scherm. Echter 899 pond = 1249 euro.... daar kan je bijna 3x een 27" 144Hz scherm van kopen.
Maar dan weer niet met een ips panel. Acer's eigen xb270hu staat hier voor 689 pond in de pre-order, dat is 27" 2560x1440 IPS Gsync.
En met multiple displays werken freesync en gsync geloof ik ook niet :-)
Dat is TN = crap
IPS of oled de rest Is geen optie voor mij.
144hz hoeft niet meer tn only te zijn. Er zijn ook ips 144 hz schermen. Kost je rond de 700/800 euro.
Ik heb nog niet naar de allernieuwste op de markt gekeken, maar ik ben er niet van overtuigd dat 144 IPS voorlopig nog iets gaat worden. De grote hoeveelheden ghosting die bij IPS voorkomen maken dit vrij inefficient voor gamen, waarvoor 144 toch zeker bedoelt is.

Zelf gebruik ik ook een IPS, maar met spellen die snelle reacties van je verwachten (zoals CS:GO en TF2) is het toch veel handiger om een TN te gebruiken.

Hoe dan ook, ik zeg niet dat het onmogelijk is en ik geloof wel zeker dat IPS uiteindelijk wel gaat werken, maar voorlopig zijn ze handiger voor de mooie plaatjes. Ik zit persoonlijk toch met smart te wachten op een IPS 144 hrz, dus ik zou het niet erg vinden als het uiteindelijk toch lukt om de ghosting te verwijderen. ;)
Sjkv heeft een linkje gestuurd. Dat Is het eerste echt snelle IPS scherm in het verleden waren ze er niet.

Prijs maakt me niet uit. Mijn Dell 3008WFP was ook niet goedkoop. Ik ga liever voor een duurder goed scherm met goede kijkhoek en en kleur reproductie.

[Reactie gewijzigd door Astennu op 17 april 2015 10:41]

Thanks. Ik zoek zelf wel. Een groter scherm of 3x een 24" voor eyefinity.
Maar mooi dat er nu eindelijk een snel IPS scherm Is. Er zullen er vast meer gaan volgen.
Wat is er mis met pva?
Kijkhoek en toch nog te beperkt. Ik heb een VA tv en de kleuren zijn heel mooi als je er recht voor zit. Contrast Is dan veel hoger dan IPS. Maar als je er schuin tegen aan kijkt omdat je ergens anders op de hoekbank zit zijn de kleuren zeer slecht veel slechter dan IPS tv's. Zit dan een hele waas over.

Als als je een IPS scherm kan krijgen met een goed contrast en een goede kleur reproductie ga ik toch daar voor. En die zijn er voor de pc gelukkig genoeg.
Zelf merk ik niet zo veel problemen op met de kijkhoeken van een PVA scherm, zit nu zelf achter een 30" PVA.

Qua kleuren haalt hij het niet bij mijn wide gamut NEC's dat is waar. Maar dat heb je bijna nergens voor nodig, meer dan 100% SRGB heb je alleen nodig wanneer je bezig bent met printwerk. Ik zou wide gamut zelfs afraden als je geen printwerk doet.
Tja nodig als je zo gaat kijken is niets nodig en kun je net zo goed een TN nemen want niets is echt nodig.
Ik vind kleur echtheid gewoon belangrijk ik haat het als kleuren overstuur zijn of niet kloppen. Ik ben bereid daar flink voor te betalen. Mijn huidige monitor was 1275 euro toen deze nieuw was en heb er geen seconde spijt van gehad. Die Dell 3008 WFP is geweldig alleen inmiddels wel wat veroudert qua stroomverbruik. Maar qua resolutie scherpte, aansluit mogelijkheden en kleuren kan hij nog prima mee komen (al kan het tegenwoordig al weer wat beter)

Ik ben dus op zoek naar een +-30" 4K Freesync scherm met IPS techniek. Het maakt me niet uit als die weer 1300 euro kost als hij al die punten heeft en qua kleuren het nog wat beter doet dan mijn huidige scherm.

Ik kan me voorstellen dat het voor veel mensen niet belangrijk is. Maar er zijn ook genoeg mensen die wel eens wat met foto's doen en gamen die dat wel belangrijk vinden.
Mijn 305T kalibreert op ongeveer 95% SRGB, maar zelfs op TN panelen van mijn laptops, welke misschien 60% SRGB doen zien de kleuren er wel redelijk uit. Zelfs fotobewerking is wel goed mogelijk.

Ik weet dat een vriendin van mij Grapic designer is en die doet alles gewoon op haar macbook met een niet gekalibreerd scherm. Maar zelfs als je pantone kleuren gaat gebruiken zat je nog redelijk dicht bij het resultaat als je gaat printen.

Wide Gamut monitoren hebben juist het probleem dat beelden welke bedoeld zijn voor een normaal gamut er anders uit komen te zien.

Ik moet eigenlijk eens kijken of ik verschillende profielen kan maken voor normaal gebruik en voor printgebruik en of dat ook echt uitmaakt in de kleuren die je ziet.

Maar het belangrijkste voor goede kleuren is calibratie, je kan wel een scherm kopen van zoveel euro, als je hem niet kalibreert weet je nog steeds niet of de kleuren goed zijn.

Om nog even snel terug te komen op de kijkhoek, met een hoek van meer dan 70% merkte ik geen kleurshifting, maar dan moet ik wel eerlijk zeggen dat ik geen egale kleur heb gebruikt om dat te testen.

[Reactie gewijzigd door Exphy op 17 april 2015 13:50]

Wat wil je met 20-24?
Ik heb een Acer PVA scherm die wil van 47-60, en dat is prima.
Hij kan in 47.952Hz draaien voor exacte 2 x 23.976 van films, in 50 voor PAL en in 60 voor NTSC content. Meer hoeft niet.
20 of 24 als minimum refresh rate met een Max van 120.
Aangezien gamen op 30 fps opzich ook wel kan zou een minimum van 24 wel prettig zijn. Maar de zullen ze het panneel af en toe een extra frame moeten sturen.

Vraag me af hoe ze dat met laptop schermen doen die alleen refreshed als er iets op het scherm verandert (om stroom te besparen)
Dan zal er ergens wel een buffer in het scherm zitten die een refresh verstuurd.

Zoals je ziet gebruik Ik het vooral voor games en dan heb je een groot fps bereik nodig. Frameset kan afhankelijk van de scène heel anders zijn. En het ene spel Is lang niet zo zwaar als het ander.

Voor voor films boeit het mij niet zo. Werkte prima op een 60 hz scherm. En heb tegenwoordig een tv die een True cinema mode heeft.

[Reactie gewijzigd door Astennu op 17 april 2015 10:37]

Waar ik nog steeds op zit te wachten is USB over HDMI. Ik schakel vaak tussen 2 verschillende systemen op hetzelfde beeldscherm. Omdat geluid via HDMI kan en het scherm een hoofdtelefoon uitgang heeft, schakelt de audio automatisch naar het actieve systeem, maar ik moet nog wel handmatig de ontvanger van het toetsenbord en de muis verwisselen.
Ik vermoed dat daar niet bijster veel vraag naar is, eerlijk gezegd. Bovendien is daar vele jaren geleden al een oplossing voor bedacht – de KVM switch.
Ja, de aloude KVM switch is erg handig, maar ik moet nog steeds een goede, betaalbare (bij voorkeur 2-poorts) KVM switch vinden met ondersteuning voor HDMI en USB. Niet zo'n flutding waarbij je 5 keer op shift moet rammen om van systeem te wisselen (dat werkt in mijn ervaring toch niet lekker en Windows begint te zaniken over plaktoetsen |:(). De meeste KVM switches die ik kan vinden zijn allemaal voor VGA of DVI en hebben geen USB maar PS/2. Oké, op eentje van Aten na dan, maar die kost gelijk de hoofdprijs! En wat is er nou makkelijker dan je scherm kunnen gebruiken als KVM switch?
De 34 inch van LG heeft een USB ingang en twee uitgangen. Hier kan je mee bereiken wat jij omschrijft. Ook heeft deze thunderbolt die ook usb aankan.

Edit: was als reactie op biteMark bedoelt.

[Reactie gewijzigd door j-phone op 17 april 2015 09:03]

De Dell U3415W heeft daar een oplossing voor ingebouwd. Je kan het scherm via USB op 2 computers aansluiten. Via het menu kan je dan configureren bij welke input welke USB link hoort, en wanneer je van input wisselt, wordt dan de bijhorende USB verbinding doorgekoppeld naar de USB hub.
Het is dan wel niet USB over HDMI, maar wat jij wil is daarmee wel mogelijk.
Erg mooi spul, goed om te zien dat er steeds meer van deze schermen komen, vooral met FreeSync en G-Sync.

Een hoop mensen vinden 21:9 maar een vreemde resolutie en voor desktop werk moet ik toegeven dat het niet perfect is omdat je voor documenten toch liever wat hoogte hebt dan breedte. Maar zodra je gaat gamen of een film kijkt word het een totaal ander verhaal. Vooral gamen vind ik heerlijk met een 21:9 3440x1440 34 inch scherm. De hoogte van het scherm komt overeen met een 27 inch 2560x1440 scherm, maar je hebt er dan nog wel 2 flinke stukken naast. Aangezien je gezichtsveld toch wat meer in de breede gaat dan in de hoogte voegen die 2 stukken echt wel wat toe. Films Full-Screen kijken zonder balken is ook een heerlijke ervaring.

Het verbaast mij niets dat ook Acer met dit formaat aan de slag gaat naast Dell en LG.
zelfs voor documenten vind ik die verhouding juist handig.
bijvoorbeeld 2 vensters naast elkaar voor verslagen of andere dingen.
nu moet je elke keer switchen van venster maar met een 21:9 juist niet.
alleen de 27 inch hoogte valt tegen vind ik, heb liever rond de 29 inch.
2 vensters naast elkaar. Ik weet dat we hier op tweakers zijn maar het verbaast mij telkens weer hoeveel verstandige mensen dit eenvoudige trukje niet kennen:

- klik venster 1 aan, duw op Windows key + pijltje links
- klik venster 2 aan, duw op Windows key + pijltje rechts

Klaar! Eventueel nog meer links of rechts als je iet op een ander scherm wil zetten...
waarom niet simpeler, je pakt een venster met je muis en duw het zo veel mogelijk naar links en laat het los, en dan pak je de andere venster en doe het zelfde maar dan naar rechts.

Maar ja sinds ik een 21:9 monitor gebruik wil ik ook niet meer terug naar een 16:9 (10) monitor gaan.
Dat werkt alleen op een enkele monitor. Op een dubbele kan het alleen aan de buitenranden, maar met de sneltoets kun je zo dus wél vier schermen naast elkaar plakken.
Dat lukt ook al met twee schermen, alleen is het niet zo handig, je moet telkens in de hoek van je scherm gaan staan ;)
Da's dan iets nieuws - in Windows 7 kun je met twee monitoren (naast elkaar) een venster niet het halve scherm laten pakken als dat de binnenste helft is - alleen aan de buitenkant. Als ik een venster naar de middenrand sleep, gaat hij gewoon naar het tweede scherm.
Denk dat het pas is vanaf windows 8.
Denk er ook niet altijd aan dat er nog mensen op Windows 7 zitten :+
Ik wacht nog steeds op 4:3 in bijvoorbeeld 2400x3200 pixels rond de 27 inch.
Kan ie meteen in mijn arcadekasten en zorgt de hoge resolutie voor mooie mogelijkheden met tridot en vectorsimulatie.
Ik zeg ook niet dat het nu niet kan maar ik bedoel dat 21:9 verhouding makkelijker te lezen valt.
met 16:9 heb je kans dat je een deel mist of naar recht moet scrollen.
Weet ik ook weer... thanks. :)
moet je winsplit installeren , kan je makkelijk 2 doc's naast elkaar zetten
"offtopic:"

winsplit, werkt deze ook met twee monitoren, dat zou namelijk superhanding zijn als ik 2 bestanden heb en een browser
Ik heb de meerwaarde van die kleine buiging nooit begrepen. De buiging moet veel groter zijn om een echte 3d ervaring te geven. (Ik spreek uit ervaring)
Het gaat ook totaal niet om een 3d ervaring? Als je dat wilt dan moet je eerder naar een VR-bril kijken.

De kromming is er juist voor bedoeld om de kijkhoek bij de randen minder groot te maken.
De kijkhoek wordt richting de randen steeds groter en juist door te krommen ga je dit tegen. En hoe groter het scherm, hoe groter de kijkhoeken aan de randen zijn natuurlijk.

[Reactie gewijzigd door Rye op 16 april 2015 18:38]

Gezien het feit dat dit een TN-paneel is, zul je bij dit soort formaten al kleuren zien verlopen als het scherm plat is. Om dat te verhullen maken ze het krom, zodat de maximale kijkhoek van een TN-paneel nergens overschreden wordt. Het is dus eigenlijk het verdoezelen van een technische beperking, wat vervolgens door handige marketingjongens als pluspunt wordt verkocht.

Effectief zit ik naar een soortgelijke setup te kijken. Hier staan ook 2 22” TN-paneeltjes voor mijn neus, maar die staan niet in één vlak, maar onder een hoek omdat anders de kleuren verlopen.
Het zijn IPS panelen, staat duidelijk in de tekst.
Volgens de site maken de monitoren gebruik van ips-panelen van LG met een maximale refreshrate van 75Hz. Dus geen TN-panelen.
Als die bezels zo dun blijven kan dit een mooie tripel monitor setup worden.
Ziet er mooi uit. Alleen zou naar mijn idee net iets mooier zijn als de zwarte onderkant transparant zou zijn zoals Panasonic vaak doet :)
Hmm Acer. Heb er eerlijk gezegd niet al te positieve ervaringen mee, maar laat mij graag positief verrassen. Had mijn oog al laten vallen op Samsung's S34E790C, een VA paneel met relatief goede response tijden en contrasten. Had hiervoor Dell's U3415W en LG's 34UC97-S al weggestreept. Een feature als Nvidia's G-sync is leuk, maar heeft voor mij geen over-de-streep-trekkende meerwarde.
No thanks. Wil geen kromme elementen in mijn scherm. Zowel niet in Windows als in games (UI etc)

Gewoon weer een marketing truukje zoals al die 3D rommel die we eigenlijk 10/15 jaar geleden al hadden maar waar 99% van de mensen niks van weet.

http://www.stereo3d.com/revelator.htm

1999.
Elsa Revelator, zelf vroeger ook gehad. Tuurlijk de technologie is verbeterd maar goed.


En maar lekker hypen. Voor mijn idee gaan we van kromme naar buiten gebogen CRTs naar binnen gebogen LCDs. Geen vooruitgang.

Vind schermkwaliteit een stuk belangrijker vandaag de dag. Ververssnelheid, nieuwe technieken, backlight bleeding, he is ook te zot voor woorden dat schermen vandaag de dag niet vanuit de fabriek fatsoenlijk worden gecalibreerd. Geef ons minstens een fatsoenlijke gecalibreerde preset voor thuis.

Nog een marketingtruuk, al die schermen in de winkels zijn totaal vernaggeld qua scherm instellingen om het voor de domme mens maar zo 'mooi' mogelijk te weergeven.

[Reactie gewijzigd door Marctraider op 16 april 2015 19:11]

Aardige specs, alleen jammer dat het van Acer is.

Zo had Acer hiervoor ook al een monitor met specs die bijna alle boxes aantikte, maar het op basis van kwaliteit liet afweten.

Het valt blijkbaar ook niet mee om een monitor te ontwerpen die aan de eisen van de meesten voldoen.

Zo heeft TN slechte kleuren en brakke inkijkhoeken, maar wel weer een snelle refreshrate en weinig inputlag, VA heeft prima zwartwaarden en contrast maar schiet vaak tekort op het gebied van refreshrates en motion blur, en IPS heeft goede kleurweergave maar geen goede zwartwaarden en ook nog IPS-glow.

De 34" ultra-wides vind ik interessant qua formaat, maar dan zit je soms weer met scaling in games en wordt het 21:9 formaat nog steeds niet goed ondersteund.

4K op een monitor van onder de 30" is weinig interessant (en voorlopig zit je dan nog met scaling).

Graag zie ik een 34" 21:9 monitor met een resolutie van 3440*1440, liefst zonder kromming vanwege grafische toepassingen, met Nvidia G-sync, 4ms response rate, een 144hz refreshrate, IPS kwaliteit kleurweergave en VA kwaliteit contrast en zwartwaarden. Moet te doen zijn toch? ;)

[Reactie gewijzigd door Kubrick op 16 april 2015 19:24]

sorry acer is en blijft een no go hier.

al ziet t scherm er wel mooi uit

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True