Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 56, views: 17.421 •

LG Display heeft een 23"-scherm onthuld met een verversingsfrequentie van 240Hz. Het scherm kan dienstdoen als computermonitor en als tv, en maakt gebruik van scanning backlight-technologie om de hoge verversingssnelheid te bereiken.

Het nieuwe paneel heeft eigenlijk een verversingsfrequentie van 120Hz, maar door gebruik te maken van een scanning backlight weet LG dit naar 240Hz op te krikken. Het resultaat is dat beelden met veel beweging vloeiender worden weergegeven en er minder ghosting optreedt. Het scherm heeft een responsetime van 8ms en maakt gebruik van ips-technologie om kleurverschuiving bij verschillende kijkhoeken tegen te gaan.

Panelen met een verversingsfrequentie van 240Hz worden al een tijdje ingezet bij tv's en zelfs 480Hz-panelen zijn al geïntroduceerd. Vooral bij 3d-televisies komt de technologie van pas, omdat zo elk oog genoeg frames voorgeschoteld kan krijgen om een rustig beeld te zien. Volgens LG is dit de eerste keer dat een dergelijk paneel wordt gebruikt in een kleiner scherm, dat ook als computermonitor moet dienen.

LG 23" 240Hz-lcd

Reacties (56)

Lijkt me wel mooi. Veel mensen zeggen onzin dat 600Hz enzo, maar of het nou vanaf 100Hz soepel wordt of 600Hz, het ziet er altijd wel gewoon heel vloeiend en mooi uit...
Ze zeggen dat 600Hz onzin is, omdat deze technologie tussen frames interpolleert. 240Hz toont (afaik) wel 30 (of 60) echte frames, ieder oog krijgt een aantal keer hetzelfde frame te zien.

Maar 600Hz zal wel een rustiger beeld geven, maar het kan ook waziger lijken, door de interpolatie.

[Reactie gewijzigd door MrSnowflake op 24 november 2010 16:26]

Dit is pure onzin. Oude Philips TV's van 100Hz (zelfs die oude bak beesten) gebruiken MEMC. Of een fabrikant pull-down gebruikt of MEMC heeft verder niks te maken met de refreshrate, het is een design keuze. Een fabrikant kan er nogsteeds voor kiezen om een 600Hz TV met 2:2 pull-down te maken waardoor jou hele verhaal in diggellen valt. Op zulke hoge snelheden komen andere dynamieken in het spel waardoor het nog moet blijken of het nut heeft maar of het onzin is weet nog niemand. Voor een 600Hz TV zou je een 10:10 pull-down scheme moeten gebruiken wat tevens ook twijfelachtige resultaten op zal leveren.

De duurdere TV's van tegenwoordig gebruiken een 2:3 pull-down scheme met een MEMC over de eerste frames. Dit is op dit moment de beste techniek omdat het een hybriede is welke het beste van 2 werelden combineert.

[Reactie gewijzigd door SizzLorr op 25 november 2010 04:33]

Bij bijvoorbeeld een plasmatelevisie bij 600 Hz is het voordeel dat een pixel maar 1/600ste seconde hoeft op te lichten, zodat hij met het
volgende beeld zo min mogelijk overlapt.
dat klopt maar omdat men nog steeds niet weet hoe beelden van het oog nou daadwerkelijk worden verwerkt gaat men steeds maar schermen met een hogere refresh rate omdat het er zo mooi scherp van word.
Men weet prima hoe beelden op het oog komen. De sensors in je hoog hebben een verversingsfrequentie van ongeveer 60Hz. Daarom zien we daarboven geen flikkering meer. En een verandering van beelden zien we dus i.h.a. k niet sneller dan dat.

Daar is een uitzondering op... Namelijk, wanneer je sensor niet verversd hoefde te worden, maar nog zat te wachten op input. Bijvoorbeeld wanneer het gehele beeld zwart is, en er een spot overheen beweegt. Die kun je heel snel zien, omdat je niet op een verversing hoefde te wachten. Bij het zwarte gedeelte kwam er immers geen licht op je oog.


Dit LG gebeuren is trouwens puur PR. De response time van de LCD is 8ms, hetgeen dus met 125Hz overeenkomt. En dan maakt het echt niet uit of de backlight sneller is... je LCD met de daadwerkelijke informatie is dat niet!
Men weet prima hoe beelden op het oog komen. De sensors in je hoog hebben een verversingsfrequentie van ongeveer 60Hz. Daarom zien we daarboven geen flikkering meer. En een verandering van beelden zien we dus i.h.a. k niet sneller dan dat.
De ogen hebben een "verversingssnelheid" van ongeveer 18 fps.
Vind ik een hele stugge bewering.

Mijn vorige CRT monitor zag ik het beeld van trillen in mijn ooghoeken als hij op 60Hz stond. Pas bij 85Hz verdween dat. Bovendien blijkt keer op keer dat het menselijk oog en oor niet zo gemakkelijk te vergelijken zijn met digitale technologie. Als het stil is kun je een speld horen vallen, bijvoorbeeld. En op een volledig zwart beeld valt n witte pixel op, hoe klein die pixel ook is. Onze gevoeligheid en resolutie (en waarschijnlijk ook verversingsfrequentie) hangt af van de omstandigheden.
die 18 fps heeft niets met verversingssnelheid te maken.
Die 18 fps is de snelheid waarop wij je hersenen een bewegingen als vloeiend gaan interpreteren. Dat is iets heel anders.

Wanneer je ogen ongeveer 60Hz als verversingssnelheid hebben, dan moet je natuurlijk wel ruim boven die 60Hz zitten om geen last meer te hebben. Bovendien is het dan ook nog eens afhankelijk met welk deel van je oog je kijkt.
De buitenkant van je gezichtsveld heeft daar meer last van dan de binnenkant omdat dat andere kegeltjes zitten.

Wat betreft je opmerking over resolutie van een oog: Dat heeft niets te maken met kennis van het oog, maar met gebrek aan kennis van leken over wat resolutie inhoud.
Resolutie zegt namelijk niets over de mogelijkheid om n kleine pixel te zien, maar resolutie zegt of jij TWEE pixels van elkaar kan onderscheiden.
Stugge bewering inderdaad. Maar ik voeg er aan toe, dat een CRT-beeld ook anders (geleidelijk) wordt opgebouwd en een TFT niet. Bij een CRT geeft dat meer een flikkerende indruk.
Toch is het zo: menselijk oog neemt rond de 20fps waar.

ongeveer 20 keer per seconde sturen je ogen informatie naar je hersenen. Het beeld dat die ontvangen is te vergelijken met een foto genomen met sluitertijd 1/20s. Als iets bv snel beweegt (waarneembare afstand aflegt in 1/20 s) zal dat ding wazig op dat beeld staan. Dit effect ken je wel: motionblur ;)

Wanneer wij beweging zien, houden onze hersenen rekening met motionblur. Een voorwerp dat niet of traag beweegt nemen we scherp waar. Een voorwerp dat echter snel beweegt daarvan verwachten we een wazig beeld.

Als we deze kennis weten overdragen naar animatie (opeenvolgende beelden die ene beweging voorstellen: film/games/dingen op het scherm dus), moeten we motionblur dus gaan simuleren: als je om de 1/20s een scherp beeld toont, gaan de hersenen dit als erg onnatuurlijk ervaren. Daarom is een hogere fps wenselijk: per 1/20s nemen de ogen meerdere beelden waar, en de ogen sturen een combinatie van die beelden door. daar waar ze verschillen (waar iets in beeld dus bewoog) ontvangen de hersenen dus iets wazig, en dat komt natuurlijk over, want op het beeld wordt iets getoond dat beweegt.

In games wordt dit nog verder uitgebuit door motionblur per beeld al op te gaan nemen: bewegende opbjecten worden in elk beeld al wazig gerenderd. Het idee is dat dit de nood aan een hogere refresh-rate sterk doet afnemen en metingen bij testgroepen bevestigen dit: Een bepaalde game werd eerst zonder MotionBlur op 100 fps gecapped, en daarna speelden dezelfde testers hetzelfde spel met motionblur op 30 fps. Wat bleek? Lagere fps met motionblur voelde vloeiender en natuurlijker aan.

Nu over het verschil tussen LCD en CRT:

De reden dat je bij CRT-schermen een algs refresh-rate heel hard merkte is omdat zij werkelijk flikkerden: 1 frame weergeven was een lichtflits, tussen het weergeven van twee frames geeft de monitor geen/minder licht. Je merkt dit in een licht trillen van het beeld, maar het is ook een zware belasting voor je oog doordat de lichtsterkte zo snel af- en toeneemt.
Door de refreshrate te verhogen wordt de lichtsterkte gedestabiliseerd en neemt de belasting af, de stabiliteit toe en natuurlijk neemt ook de vloeiendheid van bewegende beelden toe.

Bij LCD-monitoren heb je die flitsen niet: het scherm heeft een constante achtergrondverlichting, die bij bepaalde modellen continu aangepast kan worden. De pixels zelf veranderen wel van waarde, maar tussen twee refreshes houdt de pixel dezelfde kleurwaarde aan.

Als je dus een stilstaand beeld op 4 schermen bekijkt, een CRT van 60Hz, een CRT van 120 Hz, een LCD op 60Hz en een LCD op 120Hz, zul je geen verschil zien tussen de twee LCDs maar wel tussen de twee CRTs: een hogere refreshrate zal een stabieler beeld tonen.

Tussen de twee LCDs zul je enkel een verschil zien wanneer je bewegende beelden vergelijkt, en dan nog zonder al te veel motionblur :)
@kiang,
In games wordt dit nog verder uitgebuit door motionblur per beeld al op te gaan nemen: bewegende opbjecten worden in elk beeld al wazig gerenderd. Het idee is dat dit de nood aan een hogere refresh-rate sterk doet afnemen en metingen bij testgroepen bevestigen dit: Een bepaalde game werd eerst zonder MotionBlur op 100 fps gecapped, en daarna speelden dezelfde testers hetzelfde spel met motionblur op 30 fps. Wat bleek? Lagere fps met motionblur voelde vloeiender en natuurlijker aan.

Bron? Speel crysis eens met 30 fps met motion blur aan en op 72 fps zonder motion blur en vertel mij dan wat het meest vloeiende aanvoelt...die 72 fps dus, dat kan elke tweaker die dit probeert beamen lijkt me.

Wanneer wij beweging zien, houden onze hersenen rekening met motionblur. Een voorwerp dat niet of traag beweegt nemen we scherp waar. Een voorwerp dat echter snel beweegt daarvan verwachten we een wazig beeld.

Dat heeft niets met fps te maken, maar met de focus van de lens van je oog. Probeer het bewegende object maar eens te volgens met je ogen, dan zie je het haarscherp. Onze hersenen kennen helemaal geen "motion blur", dat is gewoon een effect dat men heeft gecreeerd om het niet focussen van je ogen te simuleren...

Probeer eens quake te spelen met strak 18 fps. Dat gaat niet. Het is een fabeltje dat het menselijk oog maar 18 - 20 fps ziet.

Vanaf een vervesingssnelheid van 72 HZ icm 72 fps "voelt" beeld rustig aan.

Bioscoop films en flms met tussen de 18 en 24 fps lijken vloeiend te zijn omdat ze "blurry" zijn.

Een "game" die je speelt zonder motion blur, neem quake, speelt voor geen meter op 18 fps. Dat komt omdat zonder de blur, je ogen wel degelijk waarnemen dat er beeldjes "missen". Bij games geldt dan ook dat vanaf 72, in combinatie met een refresh rate van 72 fps alles pas echt vloeiend aanvoelt.

Without realistic motion blurring, video games and computer animations do not look as fluid as film, even with the same frame rate. When a fast moving object is present on two consecutive frames, a gap between the images on the two frames contributes to a noticeable separation of the object and its afterimage in the eye.

Bij games zonder motion blur speelt 24 fps dan ook totaal niet lekker, terwijl films altijd over een motion blur beschikken om je "voor de gek" te houden.

Tests met luchtmachtpiloten hebben ons overigens geleerd dat het menselijk oog ver over 200 FPS kan waarnemen. Dat is ook de reden dat sommige gamers zweren bij een FPS van 100 of hoger.

Daarbij, de snelheid van het menselijk oog is niet meetbaar in fps, we zien namelijk geen beeldjes, maar een constant veranderende stroom aan informatie. Bij te weinig FPS in films ziet ons brein een vloeiende stroom indien er motion blur is, zoals bij films.

Nog een andere manier om het uit te leggen is:
Draai in een game op 18 fps eens 360 graden rond binnen 1 seconde. Dan draai je dus in 1 seconde per 20 graden rond, deze grote gaten die dan "vallen" zie je dus echt HEEEEL duidelijk, en zeker in shooters is dit funest voor je aim, want je draait daar best wel vaak grote stukken in minder dan een seconde. Bij een fps van 60 is dit nog maar 6 graden, nu begrijp je misschien ook dat pro-gamers eigenlijk nog een hogere fps willen om nauwkeuriger te kunnen richten, in games is er namelijk geen motion blur om dit te verbloemen. (ja moderne games kunnen wel "blurren")

[Reactie gewijzigd door OriginalFlyingdutchman op 24 november 2010 19:16]

Heb je mijn post eigenlijk gelezen? Daar haal ik net aan dat we dingen vloeiend waarnemen als ze blurry zijn. Ook je vermelding over games is exact ehtgeen ik zei. Ik zeg ook NERGENS dat een spel op 18 fps genoeg is. Ik heb eht over resultaten van tests met 30fps met motion blur. Leer lezen en stop ragen.

En je hebt gelijk over de constante stroom van beelden, maar de "refresh rate" van het oog die rond de 20fps ligt is wel degelijk op iets gebaseerd: het signaal dat je op een bepaald moment binnenkrijgt van je ogen is een cummulatie van het beeld dat je ogen de laatste 1/20s zagen (ongeveer, metingen lopen van 1/18s tot 1/24s, dit is dus subjectief).

Je bewering dat we 200 fps kunnen waarnemen slaat dan ook op weinig: als je aan 200 fps om de 199 witte frames een zwart frame gaat tonen, gaan we dat inderdaad merken. Steek je er echter een geel ipv zwart frame tussen merken we dat niet. Aan 30 fps, met 29 wit/1geel ga je het dan weer wel merken.

Ik lees je post nog eens door voor ikzelf nu op versturen druk, en ik kan er echt niet bij waarom je zo fel uit de hoek komt terwijl je duidelijk ofwel mijn post niet hebt gelezen of niet begrijpt. Want wat je zegt is grotendeels wat ik vertel over motionblur.


In het vervolg raad ik je dus aan net als ik de post waarop je reageert goed door te lezen alvorens je beweert dat die op niks slaat: je hebt je volgens mij enkel op mijn eerste regel gebaseerd...

edit: bron over motion blur:
Het artikel "Visual Effects in Computer Games" door Xubo Yang, Milo Yip en Xiaoyue Xu, hier te vinden: http://www.computer.org/p...l/doi/10.1109/MC.2009.240
Via de IEE CS, dus echt wel een wetenschappelijk onderbouwde artikel, maar helaas moet je betalen als je het wilt lezen en daarom mag ik het ook niet uploaden... Als je aan een universiteit zit kun je er miss wel zo aan raken, ik raad het iig aan aan iedereen die wat is genteresseerd in hoe effecten in elkaar zitten en waarom ze worden gebruikt.

edit: van de resultaten wordt ook hier vermelding gemaakt: http://developer.nvidia.c...03_OpenGLShaderTricks.pdf
een slideshow van een nVidia-engineer op de Game Developers Conference. Slide 3.

[Reactie gewijzigd door kiang op 24 november 2010 23:08]

Heb de reactie wat minder fel gemaakt ;)

Alleen in het bovenste deel reageer ik specifiek op twee uitspraken van je.
Het feit dat onze ogen rekening houden met "motion blur" en het feit dat 30fps met blur beter aanvoelt dan 100 fps.

Het eerste is namelijk onwaar, dat heeft met lens-focus te maken. En het tweede is ook onwaar, ik heb geen bron, maar dat kan ik zo simuleren op mijn pc met Crysis. En dan is 72 FPS zonder blur echt beter dan 30 FPS met.

Voor de rest kan ik me goed vinden in je artikel, hoewel ik denk dat je bij CRT iets te dicht in de buurt komt van resfresh-rate = vloeiender beeld. Ik snap wat je bedoeld, maar refresh-rate kan pas vloeiender beeld opleveren als ook de fps omhoog gaat natuurlijk.

De rest van het artikel is een aanvulling op jou om het mensen nog wat duidelijker te maken. Tevens om duidelijk te maken (zeker het deel over het draaien binnen 1 seconde), dat men wel degelijk veel meer dan 60 fps kan waarnemen. Met onze steeds groter worden tv-schermen(50" +) zal er, indien 24 fps de norm blijft, steeds meer motion blur nodig zijn om de "gaten" tussen frames op te vullen.

[Reactie gewijzigd door OriginalFlyingdutchman op 24 november 2010 19:13]

@kiang:
Volgens mij haal je hier twee dingen door elkaar. Zoals mjtdevries hierboven al zei, "minimale fps waarbij een oog iets als beweging ziet" is een compleet ander verschijnsel dan "maximaal door een oog waarneembare fps". Jij bedoelt het eerste en ik weet niet de precieze waarde, maar 18 fps zou best kunnen, in ieder geval is 25 fps daar al voldoende voor anders zouden we geen films kijken op die snelheid.

Het tweede, de maximaal waarneembare fps, zit echter zeker op 100 of hoger. Een directe bron heb ik niet (biologielessen van lang geleden) maar daar zit het ergens in de buurt. Dat hele blur verhaal gaat trouwens niet op als je een object met je ogen volgt. Als je buiten staat en je volgt met je ogen een auto die snel voorbij rijdt, dan zie je geen blur (wel als je strak voor je uit in dezelfde richting blijft kijken). Dus een kunstmatige motionblur op een scherm ziet er heel onnatuurlijk uit als je het object op het scherm met je ogen volgt. Op een bioscoopscherm zie je dat duidelijk bij horizontale panning, dat wordt erg wazig, waarbij een hogere fps zou helpen om het scherper (natuurlijker) te maken.
Maar als je die bewegende auto volgt heb je wel geen focus meer, en dus een blur, op alles errond. Wat je zegt is gewoon dat hoeksnelheid relatief is tegenover het oogpunt en diens orientatie. Neemt niet weg dat motionblur door onze hersens verwacht wordt om een beeld natuurlijk te vinden. Waarom doen gamedevelopers het anders denk je? ;)

[Reactie gewijzigd door kiang op 25 november 2010 11:52]

Hoe kan dit nou zo hoog gemod worden? Je kan wel 5000 fps hebben op een CRT. Maar als jouw oog precies op het moment een 'frame maakt' waarop het fosfor niet oplicht, zie je nog steeds een occasional flikkering.
De response time van de LCD is 8ms, hetgeen dus met 125Hz overeenkomt. En dan maakt het echt niet uit of de backlight sneller is... je LCD met de daadwerkelijke informatie is dat niet!
Wat voor een achterlijke redenering is dat? Dat de reactietijd 8ms is betekent neit dat er maar om de 8ms een beeld kan gestuurd worden. Met die foute redenering zou een ping van 25 ms ook een maximale bandbreedte van 40B/s beteken. En gezien jij deze site kunt bezoeken weet je dat dat neit zo is.

Nog lang voor beeld 1 is toegekomen, verwerkt en weergegeven (dus voor die 8ms) wordt beeld 2 al verstuurd.
Bovendien is de responsetijd een waarde per pixel en niet voor het gehele scherm. Een pixel kan dus in 8ms van volledig wit naar volledig zwart - en ik geloof weer terug? - springen.
Bij een beeldscherm kun je gewoon niet sneller de pixel veranderen, dan de verversingsfrequentie. Je kunt dan wel sneller informatie versturen, maar die wordt dan niet afgebeeld.

De enige achterlijke redenatie is om een LCD verversingfrequentie met een ping te vergelijken...
Ik denk dat je responsetime van het scherm heel hard verwart met die van de pixels. De vermelde response time is namelijk die van het scherm, dat is dus

tijd om informatie van je videoutput over je kabel te sturen
+
tijd om de informatie te parsen (analoog/DVI/displayport-protocol naar info bruikbaar door het scherm)
+
tijd om dit te demultiplexen (informatie per pixel eruit halen)
+
tijd om dit naar de pixel te sturen
+
response tijd van de pixels

De vergelijking met de latency op je internetverbinding gaat absoluut op omdat dit ook meerdere componenten bevat, onder andere
tijd om signaal over verbinding te krijgen + verwerkingstijd door server + tijd om signaal terug te sturen.
Ik kon het ook met een CPU vergelijken, want dit is allemaal hetzelfde principe van pipelining. Als dit er niet was draaide je CPU slechts op 300Mhz, of hadden we per instructie een verschillende klok.


De gangbare gekende reactietijden (2/6/8ms) van schermen zijn absoluut die van de schermen en niet van de pixels, omdat wanneer je eens opzoekt welke panelen in verschillende schermen met verschillende reactietijden gebruikt worden, je zult merken dat een scherm met reactietijd 2 ms exact hetzelfde paneel als een scherm met reactietijd 8ms kan hebben. Hetzelfde paneel wil zeggen dezelfde pixels met dezelfde pixel-reactietijd. De vermelde reactietijden, die verschillend zijn, bevatten dus zoals ik al zei nog componenten.

/discussie

[Reactie gewijzigd door kiang op 24 november 2010 18:01]

anders gezegd dan,, stel dat bij elk volgende frame alle pixels veranderen, dan heeft het weinig zin om meer dan 125 fps te sturen, omdat het scherm die niet kan weergeven, aangezien een pixel minstens 8ms nodig heeft om te reageren.
uhh.. zeg dat tegen philips met hun natural motion, das een optie die je dus gewoon uit moet zetten omdat het er anders zo UNnatural er uit ziet..
Dan moet je de pfl9705 maar eens gaan bekijken dan zie je dat ze wel een stap hebben gemaakt. Ook bij razendsnelle bewegingen superscherp, geen ghosting en geen artifacts.
Je zit ook met iets anders, dat bij 3D dat je beide ogen niet teveel wilt belasten. Dus je hebt minimaal 60fps per oog nodig. Dus heeft het scherm dan een hardwarematige refreshrate van 120Hz nodig. En natuurlijk liever sneller.
Denk ook nog aan VSync mbt games (frame rate sync) en is ook al meer=beter.
Door die 3D hype weten veel mensen nog niet dat 60fps per oog soms niet genoeg is.

Ik heb er bijvoorbeeld last van bij 60fps.

Ik denk dat ik voor mezelf pas rustig kan kijken naar 3D bij 120fps per oog.

Sowieso zou 240Hz techniek het minimum moeten zijn.

Die 120Hz schermen zijn alleen maar uitgebracht omdat die goedkoper te produceren zijn toen de techniek nog net geintroduceerd werd.
Klinkt goed, maarja zullen helaas waarschijnlijk wel aardig prijzig worden.
maar door gebruik te maken van een scanning backlight weet LG dit naar 240Hz op te krikken.
Enige uitleg van het meest interessante punt van dit artikel zou wel fijn zijn.
Ik heb even de link gevolgd en dan zie ik dit:
The full HD 23-inch 240Hz LCD panel was developed by combining 120Hz technology (refreshes 120 images per second) with scanning backlight technology which enables a backlight to be repeatedly turned on and off.
Daar word ik niet enthousiast van. Ik zie niet in hoe dat de boel moet verbeteren en al helemaal niet hoe je dan op 240Hz uit komt.

Komt op mij over als pure PR lariekoek... Maar wellicht kan iemand het beter uitleggen?
De standaard FPS voor HD is 60.
Wil je full HD in 3D moet je dus 2x zoveel beeldjes genereren (voor elk oog 60fps).
Komt uit op 120fps.

Maar dan blijkt dat sommige mensen dit niet prettig vinden kijken vanwege de knipperingen.
Het is welliswaar zo dat beelden vanaf zo'n 20fps niet meer als los van elkaar worden gezien, je kan wel een knippering/onrustigheid zien.
Wat je dan kan doen is de knippering in snelheid verdubbelen naar 240Hz (dus niet het beeld zelf, maar alleen de verlichting).
Hierdoor wordt het beeld rustiger.

240Hz is dus een goede waarde.
Hoger hoeft ook eigenlijk niet, veruit de meeste mensen zullen geen knipperingen meer waarnemen bij 120Hz.

[Reactie gewijzigd door koelpasta op 24 november 2010 19:40]

Een LCD "knippert" niet.
Een scanning backlight (of 100Hz/200Hz techniek) vermindert voornamelijk de "sample en hold" onscherpte die inherent is aan de LCD techniek.
De 100/200/240Hz techniek is dan ook niet te vergelijken met de 100Hz techniek van CRT's.
Lees http://en.wikipedia.org/wiki/HDTV_blur er maar eens op na.
De door LG gebruikte techniek is min of meer equivalent aan een strobing backlight.
De 100Hz techniek van LCD's wordt in dit artikel ook uitgelegd.

Persoonlijk ben ik overigens wel onder de indruk van een 23" IPS monitor met scanning backlight. :Y)
Kijk, iemand die wel snapt hoe het zit. Hoop dat men de monitor markt op zijn kop gaat zetten en de schermen zeer scherp geprijsd in de markt zet. (zal echter wel niet gebeuren helaas...)
Maar het scherm is in elk geval wel 120Hz.
Feitelijk passen ze dezelfde truc toe als in mijn Philips TV die 400hz is maar een scherm heeft dat werkt op 200hz.
Waarom krijg ik hier het gevoel bij dat het om een valse eigenschap gaat?
Zoals het trukje met de contrastwaarden: contrast v.s. 'dynamisch' contrast
Zo krijg je nu verversingsfrequentie v.s. 'scanned-bg' verversingsfrequentie.
M.a.w: het gevaar bestaat dat consumenten (alweer) op het verkeerde been gezet gaan worden?!

Btw 8ms responstime haalden andere IPS monitoren toch ook al of niet?
Deze 'truuk' wordt al heel lang voor bioscoopfilms gebruikt.
De film is op 24 fps geschoten.
De projector laat elk beeldje echter 2x zien.
Hierdoor hebben je ogen minder last van de knippering die het wisselen van beeldjes met zich meebrengt.
Het knipperen gaat dan gewoon 2x zo snel en is minder warneembaar.

Het is dus inderdaad zo dat mensen die last hebben van 3D @ 60fps per oog dit als beter zullen ervaren.
Dus voor Dark_man hierboven zou dit een oplossing zijn.
Hmm klinkt heel interessant. Is er al een prijs indicatie? Ik gok dat we met 400 euro niet in de buurt zitten.
Nou toen ik in Dubai was kon ik mooi een aantal 3D TVs vergelijken. Wat mij opviel was dat ik hoofdpijn kreeg van de meesten. Alleen de Sony met 200 Hz frequentie was prima te doen. Dus de jacht naar sneller refreshrate is zeker een goed iets.
Wow. Prima voor gaming ook, lijkt mij zo. Meeste schermen zijn 60hz. Dat schiet echt niet op bij snelle FPS games zoals Quakelive of CoD. Mijn CRT 21" Brilliance kan eindelijk vervangen worden! :)
Het plaatje suggereert een immense kijkhoek - bij wijze van spreken mr dan 180 :+ - en door de vertekening van het scherm onder deze grote hoek, zeker 70 uit het hart van het scherm, met het 'fake' geprojecteerde plaatje erop, lijkt dat scherm wel een verhouding van 25 : 10 te hebben... 8)7
IPS panelen hebben dan ook een grotere kijkhoek dan TN panelen...

Het plaatje zal wel overdreven zijn, maar IPS heb je tenminste niet van de mottige grijze vlekken van het moment dat je niet 100% recht voor je scherm zit...

[Reactie gewijzigd door DinoBe op 24 november 2010 17:06]

600 hertz komt overeen met de 100 hertz van de normale lcd tv van sony
dat is natuurlijk onzin

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013