Huawei: quad-hd-schermen op smartphones zijn 'totale nonsens'

Huawei-directeur Richard Yu stelt dat het toevoegen van quad-hd-schermen op smartphones 'totale nonsens' is. Niet alleen zou het menselijk oog geen verbetering van de beeldkwaliteit meer zien bij dergelijk hoge resoluties, ook de accuduur zou fors verkort worden.

Yu liet dat weten in een vraaggesprek met TechRadar tijdens de introductie van de Ascend P7, een toestel dat voorzien is van een full-hd 5"-scherm. De Huawei-topman stelt dat het bedrijf technisch in staat is om een qhd-scherm in een mobieltje te plaatsen, zoals de aankomende LG G3 dat een display krijgt dat 2560x1440 pixels telt en een pixeldichtheid heeft van 538ppi. Yu stelt echter dat een dergelijk scherm 'totale nonsens' is en geen enkele meerwaarde heeft: "Je ogen kunnen het verschil niet zien, dus waarom zouden we dat doen? Ik denk dat het een stom plan is."

Naast de opmerking dat een quad-hd-scherm geen zichtbare kwaliteitsverbetering oplevert ten opzichte van full-hd-schermen zou de nog hogere resolutie volgens de Huawei-topman een negatieve invloed hebben op de accuduur. Bovendien zou een dergelijk display een mobieltje duurder maken. Begin dit jaar verschenen nog geruchten dat Huawei aan een high-endsmartphone met een schermresolutie van 2560x1440 pixels zou werken. Dat lijkt nu niet waarschijnlijk meer.

Yu meldt verder dat Huawei binnenkort met nieuwe wearables zal komen, maar details geeft hij verder niet. Het Chinese bedrijf liet in februari tijdens het Mobile World Congress de TalkBand B1 zien, een smartwatch met onder andere een aantal fitness-features.

Door Dimitri Reijerman

Redacteur

09-05-2014 • 11:09

230

Reacties (230)

230
224
139
18
1
24
Wijzig sortering
nergens lees ik over de reden waarom je een hogere resolutie zou gaan gebruiken. dat meer data op je scherm past. als voorbeeld open een dialoog venster en zet je scherm op 640x480. het past niet op het scherm. zet em op 2560x1800 en ineens heb je een zee aan ruimte. ben bang dat men hier resolutie met pixeldichtheid aan het verwaren zijn.
Met als kanttekening dat je veel meer ruimte hebt omdat alle elementen relatief kleiner worden. Op smarphones werk je met je vinger en moeten alle elementen dus een bepaalde grootte hebben om de interface goed te kunnen gebruiken. Wat dat betreft heb je aan een hogere resolutie ook niks, omdat knoppen op die manier veel te klein zouden worden.

Enige waarvoor het dan echt nuttig is, is om alle elementen scherper te maken. Ook dat heeft op een gegeven moment geen zin meer en dat is waar de Huawei-directeur het over heeft.
Anoniem: 489431 9 mei 2014 11:28
hear hear. Wellicht een mooie test voor Tweakers om te onderzoeken of mensen het verschil in scherpte kunnen zien tussen bepaalde resoluties.
Dat is al vaak onderzocht en er is genoeg over te vinden online. Echter geef je links naar die onderzoeken dan zijn er altijd weer tig mensen die gaan beweren dat ZIJ het verschil WEL zien. Ik ben inmiddels gestopt met het proberen om mensen hiervan te overtuigen.

Overigens zijn er inmiddels toepassingen waar een belachelijk hoge pixeldichtheid op een klein scherm wel degelijk nut heeft: Oculus Rift! Laat die 8K maar komen op 5".
Het probleem is dat de onderzoeken elkaar allemaal tegen spreken. Los daarvan heeft niet iedereen dezelfde ogen en houd lang niet iedereen zijn telefoon even dichtbij. welke resolutie voor jou ideaal is kan je het beste nog zelf bepalen.
Dat is dus niet zo. Natuurlijk heeft de een betere ogen dan de ander, maar het beweegt zich allemaal binnen een bepaalde bandbreedte.
Net zoals de een max 10km/u loopt en de ander misschien 28km/u, er is niemand die (zonder hulpmiddelen) 80km/u kan lopen.

Verder roepen vele mensen dat ZIJ het verschil zien; maar baseren die uitspraak vervolgens op 2 schermen die ze ooit bij de Mediamarkt hebben zien staan, waarbij ze geen idee hebben van de kijkafstand en van het beeldmateriaal.

Ik heb gewoon goede ogen. Als ik op 3 meter naar mijn 50" 1080P plasma kijk, met mijn HTPC als bron, dan kan ik hele kleine lettertjes niet meer lezen en afzonderlijke pixels niet meer zien. Ik weet 100% zeker dat er niemand is die dat nog wel kan in mijn situatie. Het is dan ook onzin om een hogere resolutie te hebben bij die schermgrootte en kijkafstand. Zou ik naar een 80" of een 100" scherm gaan dan zou 4K wellicht nog iets meerwaarde bieden, echter wie gaat er nu 3 meter af zitten van zo'n groot scherm? Bij kleinere schermen heeft 4K simpelweg geen enkel nut, op specifieke toepassingen als bijvoorbeeld de Oculus Rift na, maar 1080P op een 5" scherm zelfs nog erg beperkt is.
Dat past ook goed bij de rol die Tweakers tegenwoordig wil spelen voor consumenten. Kan een mooi stukje zijn zonder dat het specifiek over bepaalde modellen/merken gaat.
Wellicht ook mooi om te testen wat de invloed op de batterij is. Dat roept iedereen maar de hele tijd, terwijl daar echt geen hard bewijs voor is. Telefoons met een 1080p-scherm gaan echt duidelijk niet korter meer dan vergelijkbare telefoons met een 720p-scherm (bv. HTC One M7 vs Nexus 4).

Let op: ik denk wel dat het een verschil maakt. Ik denk alleen dat het verschil heel klein is, en niet significant is vergeleken met de stroom die de radio's en de backlight verbruiken.
Als de accu vergelijkbaar is, denk je dan niet dat dat eerder komt door een SOC die zuiniger is? Stop een 720p scherm in zo'n high-end vlaggenschip smartphone, en ik durf te wedden dat de 720p versie een langere accuduur heeft dan de 1080p versie.

Ik denk dat de LG G3 een goede test zal worden. Even grote accu als de G2, veel hogere pixel dichtheid, potentiëel zuinigere SOC in de G3 dan de G2.
Anoniem: 368013 9 mei 2014 12:04
Anandtech heeft hier een interessant artikel over geschreven: http://www.anandtech.com/...-and-its-technical-merits.
Anoniem: 377258 9 mei 2014 13:02
voor smartphones zie ik het nut niet, maar des te meer voor oculus rift (minder focus hoofdpijn) en daarom hoop ik stiekem dat de laatste hype en gimmick najagende consument massaal de portomonnee trekt voor een glimmend belijzer en daarmee goedkope qhd schermen voor de vr community beschikbaar maakt.
Op dit moment heeft het idd niet zoveel zin... Welke wetenschappelijke onderzoeken ook mogen aantonen dat het oog het wel registreert zal het gevoel van verandering tussen resoluties minder worden.
Buiten dat is het maar de vraag wat je ermee wil bereiken... nu al is het met HD schermen maar net de vraag wat gebruikers met een telefoon doen... er zijn er altijd (voornamelijk op tweakers) die HD filmpjes MOETEN zien. Het gross van de gebruikers kijkt maar beperkt op zijn telefoon, lezen wat meer websites/FB op de telefoon en minder die de noodzaak zien om filmpjes te bekijken.

Helaas hebben we deze nieuwe mogelijkheden echter nodig om bedrijven te blijven stimuleren in het ontwikkelen van "nog beter" en "nog meer" al is het alleen maar om de ontwikkelingen door te laten gaan. Net zo goed als we in de PC wereld dachten genoeg te hebben aan 64Kb RAM bepaalt de beschikbaarheid van nieuwe mogelijkheden, dat deze ook gebruikt worden.

Niemand kan nu al zien wat we in de toekomst met QHD gaan doen.. maar het feit dat we er geld aan uitgeven door het te kopen houd de technologie groeiend en innovatief. De toepassing volgt vanzelf.

Persoonlijk zou ik liever hebben dat ze in de mobiele telefoons zich zouden focussen op een betere accu technologie zodat je ook gebruik kan blijven maken van alle nieuwe mogelijkheden zonder dat je elke dag je telefoon aan de lader moet hebben.
Want dat zal met de nieuwe schermen niet gaan verbeteren.

Het is ook altijd wat ik zo tegenstrijdig vind bij de nieuwste generatie telefoons en wat eigenlijk de innovatie meer tegenwerkt. Ze ontwikkelen veel nieuwe apps en mogelijkheden die innovatief zijn en een groei kans hebben, alleen gebruiken deze zoveel energie dat je uiteindelijk deze mogelijkheden moet uit zetten om gedurende de dag de telefoon functionaliteit nog over te hebben. Per saldo schiet je er dus niks op met alle nieuwe "toeters en bellen".
Was er nou niet een verschil tussen qHD en QHD? Er wordt hier "qhd" geschreven en ik dacht dat de schrijfwijzen van de Q aangaf of 4x HD was of 1/4 HD.

OT: de trend van veel (high end?) telefoons is wel een hoge resolutie. Een tijd geleden werd er ook geroepen dat UMTS snel genoeg zou zijn. Ik denk dat Huawei er op termijn niet onderuit kan. Zijn ze hier gewoon hun toestellen aan 't verdedigen? Dat ze goed genoeg zijn.

[Reactie gewijzigd door twkr18526 op 25 juli 2024 18:33]

De q staat voor een kwart en de Q staat voor 4 keer.
Om het extra verwarrend te maken staat qHD voor een kwart van full HD: 960x540
En QHD voor 4 keer HD ready: 2560x1440

Edit: @koelpasta en Ronnerd: jullie hebben beiden gelijk, dus bedankt voor de toevoeging d:)b (ik wou het echter vooral niet te moeilijk maken)

[Reactie gewijzigd door Jornv op 25 juli 2024 18:33]

Nee, QHD staat niet voor 4 x HD ready. 4x HD ready kun je namelijk niet berekenen omdat HD ready geen resolutie aanduiding is. Je had daar moeten zeggen QHD staat voor 4 x 720p.

De term HD ready houdt niets meer in dan dat het betreffende device HD materiaal kan tonen, maar niet in welke resolutie dat getoond gaat worden. Er zijn heel wat HD Ready Tv's op de wereld, welke een native resolutie van 1024x768 hebben. Puur omdat ze binnenkomend 720p of 1080p kunnen tonen op dat scherm geeft ze het recht om de TV in kwestie als "HD Ready" te bestempelen.
"De q staat voor een kwart en de Q staat voor 4 keer. "

De q staat voor 'quarter' en de Q staat voor 'Quad'
Quarter en Quad. Allebei onzin ;)
Leuke toevoeging: Quarter gaat uit van Full HD (1080p), Quad gaat uit van de normale HD (720p).

[Reactie gewijzigd door TKroon op 25 juli 2024 18:33]

qHD (960x540) vs QHD (2560x1440)

OT:
ben blij dat die spec strijd ten einde lijkt, nu hopelijk naar de volgende spec strijd, accuduur?

[Reactie gewijzigd door hendrickbert op 25 juli 2024 18:33]

Anoniem: 315662 @hendrickbert9 mei 2014 11:19
Omdat 1 bedrijf vindt dat het onzin is is de strijd nog niet over hoor!
De 'normale' consument denkt nog steeds 'oh meer pixels, dan is die telefoon zeker beter.'
"OT: de teend van veel (high end?) telefoons is wel een hoge resolutie. Een tijd geleden werd er ook geroepen dat UMTS snel genoeg zou zijn. Ik denk dat Huawei er op termijn niet onderuit kan. "

Hmm.. nee. QHD in zo'n klein scherm is echt onzin.
Wat is op dit moment "de ideale" resolutie op een smartphone scherm?
Ongeveer wat apple aanhoudt in hun retina displays.
Komt neer op ong. 400dpi
Een tijd geleden werd er ook geroepen dat UMTS snel genoeg zou zijn. Ik denk dat Huawei er op termijn niet onderuit kan.
Een wel erg scheve vergelijking. Toepassingen van het internet veranderen, waar men vroeger plaatjes downloadde, waren het daarna films is sd- en later hd-resolutie. De benodigde bandbreedte neemt dan toe. Benodigde schermresolutie is niet te vergelijken, omdat onze ogen gelijk blijven, ze worden niet opeens twee keer zo scherp waardoor we wel opeens behoefte hebben aan schermen met hogere resolutie.
Dat klopt. Op dat moment konden velen zich nog niet voorstellen hoe wij met z'n allen mobiel internet zouden gaan gebruiken. Wie weet hoe we over een tijd onze smartphones anders gaan gebruiken dan nu. Ik haalde dat onderwerp aan als voorbeeld, niet echt als 1 op 1 vergelijking.
quarterHD en QuadHD. Volgens is qHD wat Nokia een tijd lang heeft gebruikt op de laatste generatie S60 toestellen: 360*640, ofwel een kwart van 720p. En dus een zestiende van QHD.
dus jij wilt een telefoon die binnen 5 uur leeg is opdat er een QHD scherm opzit en je het verschil niet ziet tussen full hd en QHD? hoger als full hd moet het niet gaan op smartphone dat is gewoon niet nuttig
Het punt is dat die telefoon niet binnen vijf uur leeg is..
iets meer dan 5 1/2 :P
bij hardwareinfo gebruikt men inplaats van QHD het begrip WQHD, dat scheelt een hoop verwarring.
dus: QHD/WQHD: 2560x1440p
qHD : 960x540p
Waarom scheelt dat een hoop verwarring? WQHD is enkel bruikbaar voor wide screen resolutie terwijl QHD de hele lading dekt.
QHD is de specifice naam voor 2560x1440p (16:9) en niet voor 2560x1600 (WQXGA, 16:10) bijv.
aangezien QHD en qHD wel erg veel op elkaar lijken lijk WQHD me dan beter.
zo word het ook officieel vermeld op wikipedia : http://en.wikipedia.org/wiki/Graphics_display_resolution
Inderdaad, wikipedia gebruikt QHD en niet WQHD als voorkeursbenaming.
QHD (Quad HD), also sometimes advertised as WQHD
En laat ons de standaardafkortingen gebruiken en niet de marketingtermen.
Het lijkt best logisch wat hij zegt. Toch vraag ik me af of er bij resolutie niet een soortgelijk iets optreedt als bij FPS. Er wordt ook gesteld dat mensen niet meer dan 30 fps kunnen zien, maar toch is is 60 vs 30 fps duidelijk te merken. Alleen niet zozeer door het te 'zien'..
Ik vraag me af of het bij PPI niet een soortgelijk verhaal is. Misschien kan je de pixels niet individueel van elkaar onderscheiden, maar dat wil niet zeggen dat een hoger PPI niet merkbaar is.

Edit: Ik weet waarom bij FPS meer fps te merken is dan wordt gesteld in de vuistregel.
Ik stel ook niet dat 'hetzelfde' op zou kunnen treden bij PPI, maar wellicht iets anders wat een soortgelijk effect heeft, maar dan voor PPI. Wat iets verder gaat dan de vuistregel: een menselijk oog kan maximal 320 ppi onderscheiden.

[Reactie gewijzigd door aicaramba op 25 juli 2024 18:33]

Dat komt omdat er bij FPS wat anders aan de hand is dan bij resolutie. Als je een FPS of Race game speelt dan zal het meer vloeiend overkomen als het spel 60fps draait. Verder zal een kleine inzakking in fps bij 60fps minder opvallen dan een 30fps die een paar frames minder gaat draaien. Stel dat je fps 5 frames zakt, dan zit je opeens op 25 en 55 te spelen. Bij 55 is er nog niets aan de hand, dat registreer je niet, maar die 25 zeer zeker wel. Daarom zal voor een beetje gamer 30fps minder goed werken dan 60 fps.

Maar bij resolutie, vooral op kleine schermen als bij een smartphone, zal je oplossend vermogen van je ogen niet veranderen. Stel dat je ogen tot 350 ppi kunnen waarnemen, dan zal 500ppi totaal niets toevoegen. Waarom niet? Omdat dit een vast gegeven is. Dit zal tijdens het spelen of kijken niet ineens dalen met bijvoorbeeld 50ppi, tenzij het scherm kapot gaat.

Verder zal een dergelijk scherm duurder zijn, er een zwaardere GPU nodig zijn en dit kost meer geld en energie(en dus minder accuduur). Daarom kan ik me heel goed voorstellen dat deze man aangeeft dat het compleet nonsens is om dergelijke schermen in te voeren in een klein apparaat als een smartphone.

Dat dit voor een grote TV in een woonkamer anders is, is evident, want daar halen we het maximale oplossingsvermogen van een normaal menselijk oog nog lang niet.
"Dat komt omdat er bij FPS wat anders aan de hand is dan bij resolutie."

Nee, eigenlijk niet. Beide zijn vormen van aliasing. In het ene geval is het spatiale aliasing en in het ander geval temporale aliasing.

"Maar bij resolutie, vooral op kleine schermen als bij een smartphone, zal je oplossend vermogen van je ogen niet veranderen. "

Het oplossend vermogen van onze ogen verschilt per plek. Pal in het midden is het het hoogst en daarom 'scannen' we met onze ogen het beeld af. Aan de zijkant zakt de resolutie weg tot (ik dacht) 20 keer minder dan in het midden. Je ogen nemen dus een hele verloop van resoluties waar.
Verder is de werkelijk waargenomen resolutie enorm afhankelijk van hoe lang je naar iets kunt kijken. Hoe langer je ernaar kijkt hoe beter het model in je hersenen wordt en hoe scherper je het waarneemt (tot een bepaalde grens).
Scherpte wordt voor een deel ook gewoon door je hersenen gbedacht.
Als iets in een film snel door beeld beweegt dan denk je vaak details te zien die je helemaal niet kunt zien als je er frame voor frame doorheen loopt. Je hersenen hebben dan geleerd dat dingen die blurry zijn en bewegen in werkelijkheid scherp waren en dus krijg je de ervaring dat het scherp(ig) was terwijl je toch echt een voorbijvliegende blurry zag.
Het waarnemen van scherpte is dus best wel een dynamisch rotzooitje dat door je hersenen weer aan elkaar wordt gebreid.

Voor zowel voor spatiale als voor temporale resolutie geldt een onder- en bovengrens voor wat we kunnen waarnemen.
Er is toch wel een onderscheid tussen de 2.

Met temporale resolutie gaan de hersens zelf de vloeiende overgang verzorgen van het ene beeld naar het andere. En dat kan alleen maar als het beeld lang genoeg zichtbaar was. Dat is wat je nodig hebt met een FPS en daar zit voor je hersenen geen limiet op. Er is wel de snelheid van de electrische signalen van het oog naar de hersenen maar dit is een continue stroom en niet frame per frame. Voor je cognitieve waarneming is het weer wat anders. Dat is dan je vermogen om bewust een onderscheid te maken.

Bij spatiale resolutie spreken we niet eens over bewegend beeld en gaat hem gewoon om het onderscheid te kunnen maken tussen 2 punten. Dit verandert niet door er lang op te staren en is een vast gegeven bij een persoon. Uiteraard verslechtert dit met de leeftijd omdat je ogen vervormd of beschadigd geraken. Maar we passen geen aliasing toe -> de hersenen gaan niks bijverzinnen om het vloeiend te maken.

Het heeft maar zin de resolutie van die aparaten verder omhoog te krikken tot als we geen onderscheid meer kunnen maken in de spatiale resolutie. Maar dit gaat opnieuw verder dan bewust kunnen aanduiden van 2 punten. We zitten aan het maximum van zodra een aparaat geen aliasing meer moet toepassen en we tekst als scherp kunnen ervaren waarbij een hogere resolutie geen verbeterde scherpte kan leveren.
"Bij spatiale resolutie spreken we niet eens over bewegend beeld en gaat hem gewoon om het onderscheid te kunnen maken tussen 2 punten. "

Niet bij de verwerking van bewegende beelden.
Je hersenen interpoleren de informatie uit zowel temporale vlak als spatiale vlak en reconstrueren zo een 3d omgeving.
Als je naar een statisch plaatje kijkt dan wordt dit inderdaad enigzins losgetrokken. Maar zelfs dat voorkomt niet dat je hersenen eerdere informatie integreren in wat je nu waarneemt. Je ziet alleen met het middelste gebiedje van je oog scherp, de rest van je waargenomen scherpte komt uit een geheugen.

" Dit verandert niet door er lang op te staren en is een vast gegeven bij een persoon. "

Wat ik wou aangeven is dat je in eerste instantie je maximale resolutie helemaal niet haalt. Je ogen moeten het gebied eerst een beetje scannen en je moet je ook nog op die scherpte concentreren.
En dan zijn er ook nog andere systemen in werking zoals randverscherping die als apparte informatie verwerkt wordt. Hierdoor zie je direct dat er veel resolutie te zien valt maar je hebt het nog niet direct waargenomen.

Enfin, zodra je dieper in de biologie van het gezichtsvermogen gaat duiken wordt het enorm complex.

"Maar we passen geen aliasing toe -> de hersenen gaan niks bijverzinnen om het vloeiend te maken."

Je bedoelt anti-aliasing?
Dit gebeurt wel, alleen zijn wij zo geevolueerd dat dit alleen onder omstandigheden gebeurt waar dat in de natuur (dus bij ongekwantiseerd beeld) handig is.
Als je grote pixels ziet dan interpoleren je hersenen het niet omdat je dan duidelijk pixels ziet en dat is informatie. Dat is dus volkomen terecht.
Je hersenen moeten onzeker zijn over wat ze zagen, dus geen harde pixels met scherpe randen, want dan denken je hersenen dat er structuur zit (en die zit er ook).
Er moet dus een situatie ontstaan waarbij je (door bijvoorbeeld een hoofdbeweging) minder informatie binnenkrijgt dan wat het beeld weergeeft.
Je moet dus onder de trigger van de intergrator zitten wil je de pixel niet als pixel waarnemen. En die intergrator is deels dynamisch.
Als de resolutie van het beeld enorm laag is wordt dat geinterpoleerd en zie je dat gebrek niet. Ga je er direct strak naar staren dan is het gebrek aan resolutie een stuk storender.
En verder is de aliasing in je ogen van een heel ander karakter dan bij rasters. Onze retina heeft een heel andere verdeling van sensoren dan een ccd.

Anyway, het is verre van lineair en er zijn veel specifieke 'artefacten' te vinden die typisch zijn voor hoe onze ogen werken.
Dat je oog een scherp deel en een onscherp deel heeft klopt. Maar zoals je zelf ook al aangeeft is er een bepaalde grens hoe scherp je kan waarnemen en zodra je daar met een scherm boven gaat zitten wordt het totale nonsens, want die scherpte is door geen persoon waar te nemen.

Daarnaast heb ik het bij FPS niet over de scherpte die je waarneemt, maar de vloeibaarheid van de gesuggereerde bewegingen. Des te vloeiender die beweging is, des te makkelijker wordt het om daarop te reageren. Anders zijn de hersenen teveel bezig het gebrek aan info te extrapoleren, waarbij lang niet altijd de juiste uitslag wordt "verzonnen". Ga maar eens een racespel spelen, waarbij de FPS inkakt en je zelf moet gokken waar je je op dat moment bevindt op het circuit. Dat is haast niet te doen. Daarom is alles onder de 30 fps te weinig en is 60 fps een veel veiliger alternatief, omdat je daar rustig een inzinking van fps kan hebben, zonder daar direct nadeel van te hebben, zolang deze inzinking maar boven de 30fps blijft.
"Maar zoals je zelf ook al aangeeft is er een bepaalde grens hoe scherp je kan waarnemen en zodra je daar met een scherm boven gaat zitten wordt het totale nonsens, want die scherpte is door geen persoon waar te nemen."

Ja, maar dat is ook wat ik zeg.
Er is zowel voor tijd als voor ruimte een bovengrens waarboven meer informatie er niet meer toe doet.
offtopic:
Het kost me nu teveel tijd om uitgebreid uit te leggen, maar in een notedop: Het menselijke oog kan zeker wel meer dan 30fps zien. Zijn films lijkt het vanaf 24fps vloeiend, maar dit komt door motion blur. Eén frame van een film wordt voor 1/24e belicht en alles wat beweegt krijgt dus bewegingsonscherpte. en daardoor lijkt het vloeiend. (Het bewegende object wordt dus uitgesmeerd).

Een videogame rendert een frame 'hard', dus zonder blur. Een bewegend object verspringt dan in elke frame in plaats van dat het uitgesmeerd wordt. Hierdoor ziet 30fps bij veel videogames juist NIET vloeiend uit.

Verder mag je op internet zoeken over precies hoe en wat :)
Ik weet hoe FPS werkt en ben zelf ook een groot voorstander van games in 120 fps en films in 60fps.. Bij games heb je ook nog het verschil dat het niet alleen om 'zien' gaat, maar ook de terugkoppeling van input van je muis en reactie naar het scherm. Dan wordt het meer vertraging 'voelen'. Verder is het aantal FPS dat je kan zien heel erg afhankelijk van de omstandigheden. Is er een lichtflits in het donker, dan kun je veel kortere 'fps' zien dan wanneer je 'op elkaar lijkende' beelden van een film naast elkaar zet.

Ik zeg ook niet dat er wellicht bij PPI letterlijk dát op zou treden, maar het zou kunnen dat er dingen optreden dat niet direct te maken heeft met het kunnen onderscheiden van individuele pixels.
Films in 60p is niet om aan te zien. Alsof je een homevideo zit te bekijken. 24p geeft juist dat mooie 'filmische' effect. Van mij mag het nog lang duren voordat 60p gemeengoed wordt.
Anoniem: 454685 @FaceDown9 mei 2014 12:20
"Filmische" effect? Net als lens flares zeker 8)7
Bijvoorbeeld. Je kan er om lachen maar als er in de film- en fotoindustrie geen effecten, filters etc meer gebruikt zouden worden dan zou het een doodsaaie bedoening worden. Niemand wil een film zien die eruit ziet alsof deze met een standaardcamera zonder enige bewerking is opgenomen. Soms zie je wel eens bloopers of 'making ofs' waarbij geen nabewerking is gedaan. Die beelden zien er dan ook totaal niet uit. Zaken zoals flares, filmische effecten etc horen er gewoon bij.
Ik heb zelf een keer een animatie gemaakt van een helicopter die opsteeg gerenderd op 100 en 200 frames per seconde... De animatie was duidelijk vloeiender op 200 frames per seconde, waar er een natuurlijke motion blur ontstaat i.p.v. een neppe door het truckje van een langere sluiterstijd.
Ik neem aan dat je geen 200Hz monitor hebt? Om het verschil tussen 100fps en 200fps goed te beoordelen heb je echt minimaal 200Hz refresh rate nodig.
Een 240hz monitor.. Je kunt ze voor 10 euro kopen.. ;)
http://www.computerdispla...monitors/dell%20p1110.jpg
Wat iets verder gaat dan de vuistregel: een menselijk oog kan maximal 320 ppi onderscheiden.
Die vuistregel ken ik niet, maar hij is sowieso incompleet. Voor welke kijkafstand is dat? Het maakt nogal verschil of je naar 320 ppi op 5cm afstand kijkt of op een kilometer afstand.
En daarom vraag ik die vraag..

Lang is de vuistregel gehanteerd: een mens kan 30 fps niet meer onderscheiden.

Tegenwoordig weten we dat dat simpelweg niet klopt en dat het niet volledig is.

Nu wordt de vuistregel gehanteerd: Een mens kan max 300 PPI onderscheiden.

Wellicht dat daar, net als bij FPS, later op wordt teruggekomen. Omdat die vuistregel onvolledig is of omdat er nieuwe inzichten komen in bepaalde zaken, etc.
Ik heb ergens gelezen dat het beeld wel natuurlijker word met zulke onbenullige resoluties. En dat het dus fijner word om ernaar te kijken. Dus ik denk dat het klopt wat je zegt.
" Er wordt ook gesteld dat mensen niet meer dan 30 fps kunnen zien, "

Volgens mij wordt dit alleen beweerd door mensen die het niet snappen.
30 fps is gewoon dicht bij de ondergrens van waar je oog op begint te houden met losse frames waar te nemen en de beelden beginnen samen te vloeien tot een film. Maar het is niet vrij van allerlei bijeffecten en je zou boven de 120 moeten gaan om het beeld werkelijk temporaal transparant te laten lijken.

Als je dit wilt vergelijken met ppi dan zou QHD op zo'n schermpje ver boven die 120Hz grens uitkomen. Je hebt er dus niks aan.
Natuurlijk is een hogere resolutie merkbaar.
Denk eens aan kleine (cursieve) letters, die hebben dunne, gebogen, schuine lijntjes die ook nog eens van dikte veranderen. Om die zonder hakkels en kleur-artefacten (denk aan Cleartype :'( ) af te beelden heb je behoorlijk hoge resoluties nodig. Veel schermfonts zijn ontworpen om hier weinig last van te hebben, 'script'-fonts hebben hier veel last van.
Hoewel niet helemaal vergelijkbaar, laserprinters leveren vaak een resolutie van 1200 dpi.
"Hoewel niet helemaal vergelijkbaar, laserprinters leveren vaak een resolutie van 1200 dpi. "

Dat heeft meer te maken met dat grijstinten middels patronen moeten worden gemaakt. Je hebt dus meerdere zwarte 'pixels' nodig om een grijstint te maken.
Het verschil tussen een QHD en FHD is wel te onderscheiden als je dicht op het scherm zit. En marketing technisch wil elke fabrikant natuurlijk de naam van het beste scherm op de verpakking.

5" schermen en 64bit waren ook onzin een paar jaar terug. Maar je kan geen premium toestel verkopen met mindere specs.
64bit in een smartphone is ook nonsens. Net zoals die octacores. En ja, net zoals QHD.

De gemiddelde consument heeft méér dan voldoende aan een SoC uit de Snapdragon 400 of 600 serie en een 1080p scherm. Laat ze liever betere camera's inbouwen die het ook bij slecht licht goed doen en een accu die het langer dan een dag volhoudt. Dat zijn dingen die een gebruiker echt merkt.
Klinkt als slimme man. Eensch.
Ben het niet eens met deze opmerking. Alhoewel het verschil niet groot is, is het menselijk oog en brein wel degelijk in staat om een verschil te zien.
Hetzij niet in ruimte tussen pixels maar wel in kleurvolume en helderheid.

Doe mij maar een QHD scherm met 25% brightness dan een 1080p scherm op 100% brightness.
Dit is eenzelfde opmerking als het verschil tussen 60Hertz scherm en 120Hertz scherm. Ik gebruik nu ruim een jaar een 120Hertz scherm en ik krijgt het benauwd als ik achter een 60Hertz scherm ga zitten. Ook dit is niet te "merken" , ik kan namelijk echt geen 120 beelden per seconde tellen. Maar mijn brein merkt het wel degelijk.

Hetzelfde geld voor QHD schermen in vergelijk met 1080p schermen op 5inch formaat. ik kan de pixels al niet meer tellen bij 1080p maar ik zie (merk) wel degelijk verschil.
Welke invloed heeft het aantal pixels op de helderheid? Die wordt bij LCD voornamelijk bepaald door de backlight en bij AMOLED door de OLEDs. Een QHD is niet helderder dan een HD-scherm met een even sterke, even homogeen verdeelde backlighting.

Wat je met kleurvolume bedoelt is me helemaal een raadsel. Er is geen enkele reden waarom een QHD-scherm noodzakelijkerwijs een groter deel van het RGB-spectrum beslaat dan een gewoon HD van gelijkaardige kwaliteit.

Wat natuurlijk wel zo is, is dat QHD-schermen voorlopig enkel voor toestellen van het hoogste prijssegment worden gebruikt, waar sowieso veel aandacht wordt besteed aan backlights, calibratie, laminatie van het scherm en dergelijke.

Maar dat is een gevolg van het feit dat het een high-end toestel is, niet van QHD. Correlatie =/= causatie. Een toestel uit dezelfde prijsklasse met een HD-scherm kan minstens even goed scoren als een toestel met QHD op helderheid en kleurweergave.

Je redenering lijkt een beetje op iets dat ik een bijzonder domme dame ooit hoorde verkondigen: 'natuurlijk trekt een BMW sneller op dan mijn Fordje, het interieur is veel luxueuzer'.

[Reactie gewijzigd door Silmarunya op 25 juli 2024 18:33]

Iedere pixel moet aangestuurd worden en er lopen dus (hele dunne) draadjes. Afhankelijk van de techniek kunnen er ook per pixel wat transistoren aanwezig zijn. Deze dingen worden niet kleiner als de pixels kleiner worden en nemen dus een relatief groter deel van de daadwerkelijke pixel in beslag. Meer pixels -> meer niet-lichtdoorlatende zaken -> meer backlight nodig voor dezelfde helderheid.
Dat klopt inderdaad, ik wist echter niet dat die groot genoeg zijn om een wezenlijk verschil te maken. Weer iets geleerd vandaag :)
Wat heeft "kleurvolume" en helderheid te maken met resolutie? Volgens mij helemaal niks. En dan begin je over framerate, wat weer iets compleet anders is en niet te vergelijken. De netvliescellen in je oog hebben een hogere "framerate" dan 60Hz (iets van 100Hz als ik me goed herinner), dus ja, het verschil tussen 60 en 120HZ is inderdaad merkbaar. Maar het door jou genoemde verband tussen resolutie en kleurvolume/helderheid ontgaat me totaal en lijkt me sterk (tenzij je een link hebt).

Als ik dit monitor verhaal ergens mee moet vergelijken dan is het met de megapixelgekte in camera's. Net zo nutteloos.

edit: @pegox
25fps is ongeveer het minimale dat nodig is om het als beweging te ervaren (in plaats van als een serie losse plaatjes). Dat staat los van wat het maximum is dat we kunnen waarnemen en waarbij we geen verschil meer zien met een hogere framerate.

[Reactie gewijzigd door Bonez0r op 25 juli 2024 18:33]

Het menselijk oog maakt ongeveer 25 beelden per seconde die door je hersenen tot een vloeiende film worden verwerkt. De "framerate van je netvliescellen" is dus 25Hz, geen 60Hz.

[Reactie gewijzigd door pegox op 25 juli 2024 18:33]

Anoniem: 175233 @pegox9 mei 2014 13:37
Onzin. Je hersenen interpreteren 25 fps als vloeiend. Maar je ogen kunnen wel degelijk meer waarnemen, namelijk tot ongeveer 50 tot 60 Hz zien. (Afhankelijk van kleur en positie op het netvlies) Daarom dat 75 Hz voldoende refresh was op een CRT scherm om geen problemen te hebben.

De reden dat je verschil tussen 60 en 120Hz computer schermen kan zien, is NIET omdat je ogen zo'n hoge refresh waarnemen, maar omdat bijvoorbeeld de vsync meer opties krijgt. Als je de vsync van 60Hz niet haalt dan zak je gelijk naar 30Hz en dan 20Hz. Bij een 120Hz monitor, heb je meer tussenstappen, namelijk óók nog 40Hz en 24 Hz. Daardoor blijft het vloeiender.
Zonder vsync krijg je het voordeel dat eventuele tearing slechts half zo lang op het beeld blijft staan, en daardoor minder opvallend is.

De verschillen zijn zicthbaar, maar dus niet omdat je ogen zo'n hoge refresh zouden kunnen waarnemen.
10-100Hz Bron: http://www.wetenschap24.n...ensvlugge-bewegingen.html
Gezien een display licht is zal het dus dicht bij de 100Hz zijn.
Als je geen sync problemen wil hebben zal 2-3x (?) nog mooier zijn.
Kan zo zijn maar dan heb je het ook over schermen waar je echt langere tijd naar kijkt.
Hoe lang kijk je maximaal en intensief naar je GSM scherm?

120hz is voor sommige inderdaad aantoonbaar rustiger, ga je dit op een GSM scherm ook merken in die mate, ik denk het niet maar ik heb dan ook al geen last van 60hz.
Denk dat de huidige 1080p prima is, schermen op die resoluties verbeteren en zuiniger maken lijken mij betere prio's t.o.v. een resolutie.
Ik denk dat je dat verkeerd ziet, hoe kleiner de pixels, hoe minder lichtopbrengst, niet hoe meer.
Dit is nu wat ze noemen "first world problems". Geef je geld toch aan zinvollere dingen uit dan dat. (Temeer omdat je batterijduur erbij inschiet!)
inderdaad, ik weet nog dat mnsen precies dezelfde dingen zeiden over 1080p, dat 720p al meer dan genoeg was. Ik zie het verschill tussen 1080p en 720p wel degelijk. Je oog is ongeveer 567 megapixels dus je oog ziet die individuele pixels wel, je brein maakt er een mooi geheel van
Maar weegt dat op tegen een drastisch verminderde accuduur
Als dat jouw voorbeeld van een wetenschappelijk artikel is? Hij liet een print zien met verschillende ppi geprint aan 1 persoon en die persoon kon de 600ppi print eruit halen. Dat was de test. Je gaat het nog ver brengen met dit soort pseudowetenschap.

Over de auteur: Dr. Roger Clark earned his Ph.D. in Planetary Science at MIT in 1980. Haha, zo te zien een echte expert.

[Reactie gewijzigd door aval0ne op 25 juli 2024 18:33]

Je moet even wat verder lezen dan de eerste zin. Als het te moeilijk is dan wil ik het best uitleggen. Het gaat er om dat het oog aan de randen van het netvlies alleen meer staafjes dan kegels heeft en in het midden juist andersom. De resolutie zal om en nabij 600 ppi zijn. In het artikel staat dat het QHD scherm 538DPI is. In het artikel , als je het gelezen zou hebben, is een test gedaan met printers. Er werden pagina's geprint op verschillende DPI's en de persoon moet dan de beste pagina eruit halen. DPI's die getest werden waren 150,300 en 600.

Iedereen haalde de 600 DPI print eruit. (meerdere mensen ook boven 50)

QUOTE: The 10600 pixels over 20 inches in the human eye corresponds to 530 pixels per inch, which would indeed appear very sharp. Note: in a recent printer test I showed a 600 ppi print had more detail than a 300 ppi print on an HP1220C printer (1200x2400 print dots). I've conducted some blind tests where a viewer had to sort 4 photos (150, 300, 600 and 600 ppi prints). The two 600 ppi were printed at 1200x1200 and 1200x2400 dpi. So far all have gotten the correct order of highest to lowest ppi (includes people up to age 50)

Al was deze auteur schizofreen, de test die hij uit heeft gevoerd spreekt voor zich.

Dit toont aan dat het menselijk oog 600 DPI kan waarnemen en het zelfs kan onderscheiden van een lagere DPI. Dus de stap naar QHD is nog te doen. De volgende stap zou zinloos zijn aangezien het oog gemiddeld 530 DPI kan waarnemen.

[Reactie gewijzigd door Possemaster op 25 juli 2024 18:33]

Andere, even subjetieve 'onderzoeken' spreken het tegen (http://www.have-camera-wi...e_300_dpi_print_myth.html), maar dat doet weinig terzake.

1) We vergelijken prints op relatief groot formaat met een piepklein scherm.

2) Een print vergelijken met een scherm is, omwille van de werking van een printer, zinloos. Zeker bij inkjetprints is er nooit een perfecte weergave van pixels (een vloeibaar medium spuiten op een absorberend papier is in niets te vergelijken met het perfecte vierkantje dat een pixel is).

[Reactie gewijzigd door Silmarunya op 25 juli 2024 18:33]

Anoniem: 175233 @Possemaster9 mei 2014 13:38
Daar staat NIETS dat jouw beweringen bevestigt. Wel alle tegenargumenten!
Anoniem: 235591 @spaceboy9 mei 2014 11:18
Ben het ook met hem eens, maar als straks de concurrentie met QHD schermen komt en iedereen blind die mobieltjes koopt omdat het helemaal te gek en wauw is volgens de reclames en reviews waar je op dat moment mee doodgegooid wordt, dan gaat meneer Yu ook overstag. Ook Huawei moet inkomsten hebben.
Of je kan een keer de massa uitleggen dat meer geld uitgeven voor 0,0% verbetering van beeldkwaliteit én een veel slechtere accuduur én prestatieverslechtering geen goed idee is.

Ik hoop van harte dat benchmarks en reviews van UHD schermen deze conclusies zullen trekken. Ik heb in ieder geval veel liever meer telefoons met een goede antenne (zoals BB Z30) en betere accuduur dan nóg snellere processors en hogere resoluties schermen waar niemand wat aan heeft.
Dat zie ik voorlopig niet veranderen, is aardig ingebakken in de maatschappij en mensen zelf. Auto's met XXX PK waar computers voor nodig zijn om te zorgen dat de wielen niet gaan spinnen, al snel zinloze vermogens dus, zolang je niet gaat inhalen tussen de 200 en 250km/h. En zo zijn er talloze voorbeelden van hogere specs zonder enig nut.

Van mij mag de focus al een hele tijd meer op accutijd/endurance komen te liggen i.p.v. rauwe performance. Genoeg mensen die er wat mee doen, maar nog veel meer mensen die nog geen 30% gebruiken van wat het ding tegenwoordig allemaal kan.

Laat de desktop/laptop/TV schermen maar een hogere resolutie krijgen, daar kijk ik dagelijks langere tijd naar t.o.v. mijn GSM scherm
toch wil ik liever zo'n auto hebben dan een telefoon met een scherm dat een hogere resolutie heeft dan FHD...
Telefoon zie ik het nut ook niet zo van in, maar zo'n auto ;)
Die auto heeft wel nut, alleen hangt het er vanaf hoe je nut definieert. QHD op een mobiel heeft geen enkel nut.

[Reactie gewijzigd door Socket 1337 op 25 juli 2024 18:33]

Auto heeft prima nut als je maar buiten Nederland komt :) Zou echt niet op zn Hollands met 80-100kmh naar Turkije willen. Zodra ik NL uitga staat er minimaal 200 op mijn teller tenzij ik in de bergen ben en dan zijn alle pk's en koppel weer zo fijn. De computer die van alles automatisch regelt zodat je niet gaat slippen gaat trouwens gewoon uit bij mij, want ik kan wel rijden en heb zelf de volledige controle dan. Computers zijn redelijk dom en kunnen flinke fouten maken als je bv een plastic tas om je band hebt of een ander glad scenario waar je liever hebt dat een blinde computer niet automatisch gaat remmen.

Ik ben normaal ook resolutiegeil en dit is voor het eerst in mijn leven dat ik zeg nee, dit is niet nodig. Zorg voor betere helderheid, contrast en kleurechtheid. Heb je dat allemaal perfect in orde dan mag je als je dat zo graag wilt van mij de resolutie ophogen.

[Reactie gewijzigd door HakanX op 25 juli 2024 18:33]

Anoniem: 235591 @Dekar9 mei 2014 11:51
Ook al heb je gelijk, het is niet hoe het werkt. Er zal altijd een grote groep mensen zijn die de allerhoogste, en dus niet per definitie de beste, specifivcaties wil hebben. En als er een over de dam gaat volgens er meer.

De reviews en benchmarks die je vaak leest zijn ook niet altijd van dien aard dat ik er maar klakkeloos vanuit ga dat het een objectief verhaal is. Er is altijd wel een belang bij, en dan nog niet het persoonlijke meegerekent.
Dat was bij 3D niet zo en dat zal nu ook niet zo zijn
Dat is een vergelijing die niet opgaat. Een tv is toch een heel ander medium dan een telefoon. En beiden worden op een hele andere wijze gebruikt. Op verjaardagen wordt je niet gevraagd naar je tv, wel naar: wat is dat voor telefoon?

3D is gehypt en misschien is de tijd er nog niet rijp voor, misschien zijn er andere ontwikkelingen, misschien ligt het aan de uitgebrachte films, misschien ligt het aan de techniek van de televisies, misschien is de verandering van 2D naar 3D te groot. Feit is wel dat je al een 3D tv koopt voor onder de 500 euro met een kekke bril erbij.

Een telefoon krijg je tegenwoordig bij een pakje boter. En waarom dan niet de meest luxe en uitgebreide phone nemen die je kan krijgen. Kan het jou schelen dat je 70 euro per maand aftikt want we weten allemaal dat hoe populairder een telefoon is, hoe duurder het abonnement. Nu hoeven die QHD telefoons niet de neste te zijn, ook niet de duurste, maar gehypt gaan ze worden door de telecom aanbieders omdat daar weer een nieuw geldpotje in zit. Pak voor de gein maar eens populaire telefoons en zet daar een de marktprijs onder. Vervolgens kijk je naar de abonnementskosten. Dan zie je dat het helemaal scheef is.

4G is nu helemaal de shit, quad core telefoons ook en uiteraard moet er HD resolutie op. Negen van de tien mensen haalt bijlange na niet het maximale uit hun telefoon. Die hebben geen idee wat er onder de kap schuilt. Argumenten als ik moet er twee jaar mee doen is en dooddoener. Een goede dual core telefoon gaat over drie jaar ook nog wel mee. Ter voorbeeld is er de HTC HD2 welke in 2009 uitkwam en zeer, zeer lang heeft mee kunnen komen. Een veelzijdige telefoon ook.

Richard Yu heeft gelijk als het nonsens is, maar ook hij zal volgen als hij ziet dat hij inkomsten misloopt omdat andere fabrikanten het juist wel doen. Mensen willen de hype beleven, en dus zullen ze het kopen.

[Reactie gewijzigd door Anoniem: 235591 op 25 juli 2024 18:33]

Ik ken anders een paar modepopjes die een Huawei gekocht hebben omdat het goedkope telefoons zijn die er goed uit zien. De rest maakt ze helemaal niks uit. Van de rest van het geld kunnen ze weer shoppen, dat is veeeeel belangrijker.
Fabrikanten gaan die dingen maken en moeten er dan vanaf. Lagere resoluties worden dan niet meer gemaakt of gaan niet mee in de verdere technologie ontwikkeling en komen in de low end markt terecht.

Je kunt nu ook nauwelijks nog resoluties onder andere de 800*480 krijgen. Zelfs op grotere schermen.
Mee eens!


Edit; ik had een reactie voor Tuintje, maar Dekar1's reactie dekt de lading. Wanneer krijgen we de mogelijkheid om een foutieve reactie te verwijderen?

[Reactie gewijzigd door Cpimp op 25 juli 2024 18:33]

Maar ondertussen wel met een smartwatch komen...
Van 4K op een telefoon is het bewezen dat het nutteloos is. Dat kun je van smartwatches (nog) niet zeggen. Dat het nutteloos en overbodig was zeiden mensen in de jaren '90 namelijk ook over de mobiele telefoon en in de jaren '00 over de smartphone.
Als een technologie goed is, dan lukt het van de eerste keer. Als je het meerdere malen moet proberen dan is de technologie zinloos (cfr 3D-tv).
3D tv is eerder een bewijs van het tegenovergestelde.
Een goed product dat direct werd weggeschreven door conservatievelingen.

Ik geniet van m'n 3D TV en irriteer me mateloos aan al die haat verhalen die er voor zorgen dat er nu geen 3D camera telefoon meer beschikbaar is.

Pure onderbuik verhalen als "Ik ga geen TV kijken met een brilletje op" die een grote herhaal-hoax veroorzaken zodat iedereen dat zegt. Terwijl weet ik veel hoeveel mensen de hele dag een bril ophebben zonder problemen.

Ik zie het nut nu ook niet in van QHD voor telefoons, maar ben blij dat er wordt geinnoveerd. En voor mensen die het graag willen ben ik blij dat het op de markt is. Ik koop wel een telefoon zonder QHD, maar ga het iig niet de grond in kletsen omdat ik er op het eerste gezicht geen doel in zie.
Dat jij een brilletje wilt opzetten voor je TV is nog wel begrijpelijk, maar wil je ook die bril altijd meeslepen samen met je telefoon? Wil je die bril dan ook delen met iemand anders om het even te laten zien?

Je moet een afweging maken tussen wat haalbaar is, wat interessant is en of er een publiek voor te vinden is want er moet aan verdiend worden. 3D smartphones lijkt me gewoon niet interessant voor het grote publiek, en dan wordt het te duur. Je moet gewoon even wachten tot er smartphones op de markt komen die in 3D in de lucht schijnen.

Zelf werd ik in de jaren 80 al ziek van 3D (Jaws gezien bijvoorbeeld) en nu kàn ik het niet eens meer zien, maar ik bekijk het gewoon uit commercieel oogpunt.

Het verhaal van de hoge resolutie op een piepklein scherm is hetzelfde, als je het niet kan zien heeft het geen zin om het te hebben. Dat het qua techniek haalbaar is doet er niets toe. Het omgekeerde is ook waar: Ik weet nog wel dat ik bij iemand in de jaren 90 een beeldbuis-TV zag staan die zo groot was als een twee tafelmodel koelkasten op z'n kant. Ze zat er een meter vandaan en je kon dus de 3 kleuren van elk beeldpunt zien (4:3 720x576). Ook zinloos voor in een flatje.
Anoniem: 300525 @Ramoncito9 mei 2014 14:06
Als het aantal beeldpunten toeneemt, zal dat voor een scherper resultaat zorgen. Of het nu direct te zien is of niet. Beetje analoog/digitaal verhaal. De "complete ervaring" zou (ik heb het enkel over weergave, niet prestatie) beter worden. Dit omdat het beeld algeheel scherper wordt.

Een noodzaak lijkt het me echter niet. Een goede zaak wel. Als dit doorgezet wordt, processoren hierin meegaan en er mooie toepassingen komen voor externe beeldscherm aansturing, zie ik geen tegenargument.

Natuurlijk moeten prestaties er niet onder gaan lijden. Batterij, kleurweergave, FPS......
Nee dat gaat dus niet op. Er is een grens tot waar het menselijk oog het verschil kan waarnemen, en vanaf een zeker moment zul je qua resolutie geen verschil meer zien.

Zaken als contrast, kleur of stroomverbruik lijken mij wel relevant om nog flink te verbeteren.
Anoniem: 300525 @Ivos9 mei 2014 16:17
Ik denk niet dat het met pixels waarnemen te maken heeft, maar met beeldlijnen. Bijvoorbeeld bij schuine lijnen zijn pixel nog gewoon te zien op 5,2 inch bij 1080P. Daar heb je echt geen superogen voor nodig. En als dat verbeterd, heb je een scherper geheel. Lijkt me vrij logisch toch.
ik denk dat je ogen opmeten meer nut heeft dan een quadHD scherm op je mobiel
Sorry, maar je argument raakt kant nog wal:

"maar wil je ook die bril altijd meeslepen samen met je telefoon?"

De 3D telefoons van LG en HTC hadden brilloze 3D.
Bovendien had ik het niet over '3D scherm' telefoons, maar over 3D camera telefoons. Inderdaad, telefoons met een 3D camera, zodat ik vervolgens de 3D filmpjes / foto's die ik maakte thuis op m'n TV kan bekijken.

Jouw reactie is aantoonbaar zo'n anti-reactie die niet gebaseerd is op feiten / ervaringen / kennis. En je ziet het, je krijgt er een +2 voor, want veel mensen kennen het product niet maar gaan wel op eerste gevoelens af.

Een zelfde argument dat anderen weleens geven is: "Wat heb ik aan het maken van 3D foto's, ik heb toch geen 3D TV".
Een variant daarvan is de 'waarom zou ik in 4K filmen, ik heb toch geen 3D TV'. (jij geeft die argumenten niet, ik redeneer nu vanuit het algemeen)

Kan kloppen, maar over 10 jaar heb je wel een 3D TV Met UHD, en dan kun je je 3D / 4K filmpjes van nu daarop terugkijken. Sommige filmpjes wil je nooit meer zien, maar je trouwfilm, je wintersport record, je vrijgezellenfeest, de eerste stapjes van je dochter.... over 10 jaar trek je je de haren uit je hoofd dat je toen zo conservatief was om geen 3D / 4K camera / camera telefoon te kopen, terwijl die gewoon beschikbaar was. En niet omdat je er geen geld voor had, maar omdat je dacht dat het niks zou worden.

Tsja, wat heb je aan een 3D scherm op een telefoon?
Nu niet zoveel, wel een mooie preview van je 3D foto's die je idd liever op je 40" thuis gaat kijken.
Maar dankzij die innovatie op een 5" telefoonscherm kan LG straks ook 42" TV's produceren met brilloze 3D.

Wat nu het nut is van UHD op je telefoon? Geen idee.
Maar zoals gezegd, de eerste 0,2MP camera op telefoons werd weggelachen. Toen is er jaren gelachen om de MP race. Smartphones vond niemand aantrekkelijk of nodig. Trouwens, mobiele telefoons werden door hele hordes mensen afgedaan als onzin. Je hebt gewoon conservatieve mensen die elke nieuwe innovatie altijd wegzetten als nutteloos.

Ik ben blij dat ik niet bij die groep hoor.
En inderdaad, ik kan over 10 jaar op mijn 3D video wall de eerste jaren van mijn kinderen in 3D aan ze laten zien. Alsof ze er dan echt bijstaan. Supergaaf.

[Reactie gewijzigd door Rho d Berth op 25 juli 2024 18:33]

Brilloze 3D telefoons, hartstikke mooi, dat kende ik niet. Interessant? Misschien, maar ik heb liever eentje die het een dagje uithoudt op een accu. Jij had het over 3D camera, dat was me uit je post niet duidelijk... Ik ben niet anti, ik heb het puur over een 3D-scherm op een smartphone, daar gaat dit artikel toch over? Ik zie daar het nut niet van in. Ik schreef: Ik kan er zelf niets mee, ik kan het niet zien. Dat wil niet zeggen dat ik tegen ben. Ik ben overigens wel van mening dat het verkeerd is teveel 3D te kijken, 3D is namelijk je hersens om de tuin leiden, ik was niet de enige die misselijk uit de bios kwam... Het vergt een bepaalde inspanning, net zoals een bril met verkeerde sterkte.

Ik ben overigens op dit punt neutraal. Als iemand het wil hebben moet ie het zeker kopen. Het is jammer dat je een weerwoord als 'anti'-sentiment bestempelt...
>Wat nu het nut is van UHD op je telefoon? Geen idee.
>Maar zoals gezegd, de eerste 0,2MP camera op telefoons werd
>weggelachen.

Met dat verschil in megapixels ben je uiteindelijk wel iets, al is het maar om achteraf te croppen ... UHD op een telefoon is even nuttig als racebanden op een winkelwagentje ...
@Rho d Berth

Ik ben het volkomen eens met je wat 3D televisies en camera's betreft.

Maar QHD op een telefoon? Zolang hij maar kwalitatief goede, scherpe foto's en filmpjes in een hoge resolutie kan maken voor het kijken op mijn andere devices, op een 5 of 6 inch schermpje is full HD meer dan genoeg zolang hogere resoluties meer batterij vreten.
Anoniem: 55563 @Rho d Berth11 mei 2014 17:30
Volgens mij erger jij je meer aan mensen die niks met 3D hebben dan mensen zich aan 3D ergeren. Misschien moet je leren accepteren dat je bij een minderheid hoort. Ik heb niks met 3D, geen liefde maar ook geen haat. 3D, of eigenlijk stereoscopie, bestaat al decennia en is nooit populair geweest. Komt nog eens bij dat ik enorme hoofdpijn krijg van 3D-films in de bios.

Is QHD trouwens niet 4x1920x1080 oftewel 3840x2160?? Hoe dan ook, de eerstvolgende grote innovatie moet nu op accugebied gaan plaatsvinden. Straks wil ik een maand vooruit kunnen zonder opladen, bijv dmv een brandstofcel. M'n smartphone hangt nu meer uren aan een draadje dan dat hij in m'n broekzak zit. Ik gebruik 'm thuis wel veel maar dan nog.

Pixels, ppi, megapixels, octacore, allemaal marketingpraat. Telefoons zijn inmiddels krachtiger dan mijn eerste PC en die draaide gewoon Windows. Accuduur en dan software, daarna zien we wel weer.
3D word nu nog steeds weggeschreven omdat het gewoon ruk werkt
hoofdpijn niet lekker kijkend en zon irritante bril op

noem dat maar lekker 3D TV kijken de kritiek erop verdient het dik en dubbel :X

vind het zelf ook geen toegevoegde waarden op een plat scherm diepte zien imho

[Reactie gewijzigd door firest0rm op 25 juli 2024 18:33]

passieve 3D geeft geen hoofdpijn. En passieve brillen zijn niet irritant. (tenzij je vindt dat zonnebrillen / gewone brillen ook irritant zijn).

En dat hoofdpijn verhaal.... de eerste keer dat je 2d tv keek had je ook hoofdpijn*. Dat weet je alleen niet meer. Ogen moeten altijd wennen aan nieuwe beeldmethoden. Als ik nu 3D kijk op m'n tv heb ik nooit meer hoofdpijn, de eerste keren wel.
-------

*Ik liet m'n oma van 90 eens 3D zien. Ze vond het gaaf, maar wat het leukst was was dat ze zei dat ze er hoofdpijn van kreeg, dat deed haar denken aan de eerste keer dat ze TV keek 50 jaar geleden!! Ze zei dat dat toen ook snel overging.
.oisyn Moderator Devschuur® @Rho d Berth9 mei 2014 16:32
passieve 3D geeft geen hoofdpijn
Het is niet alleen het geknipper dat voor hoofdpijn zorgt. Het feit dat je dingen in de diepte ziet zonder dat je daar anders voor hoeft te focussen is ook een grote oorzaak, en dat heb je met passief 3D net zo goed. Niet iedereen heeft er last van uiteraard, maar zeggen dat "passief 3D niet voor hoofdpijn zorgt" is nogal kort door de bocht.
de eerste keer dat je 2d tv keek had je ook hoofdpijn*
Nonsens. Dat gaat op voor je oma omdat ze een groot deel van haar leven zonder TV heeft gespendeerd en daar pas op latere leeftijd, nadat het brein volledig is ontwikkeld, ermee in aanraking is gekomen. De gemiddelde bezoeker van tweakers is echter van kleins af aan gewoon opgegroeid met TV en die kunnen daar dus ook prima mee omgaan, van kleins af aan.

[Reactie gewijzigd door .oisyn op 25 juli 2024 18:33]

Ik heb de hele dag een bril op.... Moet ik er dan 2 opzetten? Ik ga dan ook niet graag naar een 3d film. Zit ik met 2 van die dingen op de neus...
Er zijn opclipglazen, maar kan me voorstellen dat dat irritant voor je is.
Die mensen die een bril dragen doen dat vaak niet omdat ze dat willen maar omdat ze simpelweg geen keuze hebben. Ik denk dat velen brildragers het liefst géén bril hadden.
Net als Rho dBerth geniet ik ook erg van 3D'tv' (heb een projector, maar mijn ouders hebben een 50" passive 3Dtv), en vindt het dus helemaal niet nutteloos. Enige nadeel vindt ik dat 3D bluray's zo ongelooflijk duur blijven hier in nederland op een enkele uitzondering na (20+ euro voor een 3D bluray vindt ik echt te duur, dus daarom kan ik helaas niet zoveel 3D films zien)..
Van 4K op een telefoon is het bewezen dat het nutteloos is.
Hij heeft het niet over 4k, hij heeft het over quad HD.
4k = 4 x 1080p
quad HD = 4 x 720p

[Reactie gewijzigd door aval0ne op 25 juli 2024 18:33]

.oisyn Moderator Devschuur® @aval0ne9 mei 2014 16:46
Kleine nuancering, 4k is een generieke term voor een resolutie met ongeveer 4000 horizontale beeldpunten. Dat kan UHD zijn (3860x2160, inderdaad 4x zoveel pixels als 1080p), maar bijvoorbeeld ook DCI 4k met 4096x2160 pixels.

QHD is idd letterlijk 4x zoveel pixels als 720p, dus 2560x1440.
Ah, dan ben ik helemaal in de war. Ik vond het al vreemd dat het quad HD werd genoemd en niet 4K of UHD. We hebben het dus over 2560*1440.

Wel zit ik met smart te wachten op betaalbaardere UHD niet-tn pc monitoren. Die beginnen nu pas bij €1000.

[Reactie gewijzigd door Bonez0r op 25 juli 2024 18:33]

In de jaren '80 was een aflevering van Kies Keurig waarin het nut van thuiscomputers werd geëvalueerd. Wim Bosboom eindige het onderwerp met de conclusie dat thuiscomputers zinloos waren: "Dat kun je op je vingers natellen, en daar heb je geen computer voor nodig". Het is nooit meer goedgekomen tussen Wim en mij.
Hoeveel nut had een thuiscomputer dan in de jaren 80? Volgens mij voor de meeste mensen toch niet zo heel veel.
Heel veel. Ik maakte er (toen al!) dingen als boekverslagen mee. En ik leerde er mee programmeren, en dat is iets waar ik nu nog dagelijks profijt van heb.
Ik weet nog dat ik programmeerde in Q Basic.
Toen had ik een programmeerboekje dat uitlegde hoe het werkte. 1 hoofdstuk ging over de muis.

Ik weet not precies hoe het begon: "De muis is een zinloos ding naast je computer. Je zit er een beetje mee te roeren en op het scherm gebeurt er dan iets. Het is onnatuurlijk om met je handen te bewegen terwijl er op een totaal andere positie iets gebeurt. Kortom, de muis is een onding en het zal geen toekomst hebben. Maar omdat dit boekje niet compleet is zonder dat ik uitleg hoe de muis werkt heb ik er toch maar een hoofdstuk over geschreven".

'nuf said.
Je moest in de jaren '80 ook niet naar Wim Bosboom kijken, maar naar Chriet Titulaer!

Die zij heel andere dingen over het nut van allerlei innovaties in die tijd...
Volgens een tweaker is altijd alles overbodig. Voor een technische georiënteerd publiek toch wel gek. Het valt me al zo'n 14 jaar op. De eerste 100Mhz CPU was onzin, de eerste dual core was onzin. Sata was onzin.

Altijd is er wel het argument; je merkt het verschil niet, je ziet het verschil niet, etc.

Echt, als het aan de tweaker hier lag zaten we nu nog met z'n allen op een 60Mhz CPU met 8MB memory en een trage bus en HDD.
Denk dat het meer over de impliciete trade-off gaat:
  • free quad-HD? sure!
  • quad-HD in ruil voor battery life, prijs, silicon surface (de GPU moet krachtiger zijn), refresh rate, etc? Not so sure.
Ik heb ergens anders in de reacties al met een rekensom laten zien waarom het in dit geval wel degelijk onzin is. Onze ogen kunnen het verschil niet zien, dat is een fysieke limitatie, geen vermoeden of mening van mijn kant. Tot het moment dat er in de pricewatch bionische ogen staan heeft quad-HD op een telefoonschermpje dus geen zin.

edit: een fout van mij, ik las de maximale resolutie van een oog verkeerd af waardoor de berekening niet klopte. Nu kom ik uit op 4260*2396 als de maximale resolutie die we nog op een telefoonschermpje kunnen zien. Dus dan wordt mijn hele conclusie anders, want dan heeft quad-HD (en zelfs 4K) wel degelijk zin.

[Reactie gewijzigd door Bonez0r op 25 juli 2024 18:33]

Mooi ;)

Vergeet ook niet dat de resolutie ook juist iets hoger moet zijn dan wat je nog net kunt zien.

Een simpele verklaring is dat dit in de natuur eigenlijk ook zo is. De "resolutie" (structuur, patronen, ...) van nagenoeg alles is ook meer dan wat je kunt zien.

Als een schuine lijn uit alleen pixels bestaat die je nog -net- kunt zien, dan geeft dit min of meer onbewust toch nog een iets kunstmatig beeld. Op het moment dat je geen enkele individueel meer kunt zien maar alleen het resultaat van al die "onzichtbare" pixels bij elkaar wordt het beeld volkomen rustig.
Het blijft wel overbodig.
een smartwatch is minder overbodig dan quad hd op een 5 inch scherm
<sarcasm>
Doe mij maar een smartwatch met QHD!
</sarcasm>
Doe mij maar een smartphone die ik goed met één hand kan bedienen met een normale resolutie. Waarschijnlijk rond de 4"of minder....

Die man heeft gelijk. Wat er nu gebeurt is totale bullquatsch...fabrikanten leveren zich alleen maar over aan de langepen1sspecificatie, niet aan wat daadwerkelijk kwaliteit is. Helaas zijn we als groep consumenten niet slim genoeg dit te doorbreken.
Jammer, aangezien we ons al meermaals hebben laten vangen door langepen1sspecificaties. Zoals de strijd tussen AMD en Intel in het Pentium era, meer is altijd beter... echt altijd :/
De langepen1sspecificatie geld vooral voor auto's. Kijk maar eens goed om je heen wie er in onnodig grote auto's rijden. (blijkbaar om te compenseren ;) )
<off-topic>Ik rijd in een Suzuki Alto ... om te compenseren ;-)</off-topic>
Anoniem: 415197 @Nas T9 mei 2014 17:56
Doe mij maar een smartwatch die een 20" beeld kan projecteren op de muur, waardoor ik hem als smartphone, tablet en als desktop computer kan gebruiken.
Bij daglicht heb je daar enorm veel energie en een grote lens voor nodig. Kon het maar!
Je kan het ook zo zien, Huawei kan deze dingen niet maken en verzint redenen waarom het onzin is.

Ik dacht dat full HD op een 5" scherm onzin was. Toch vind ik dat wel mee vallen op mijn S4. Dat kan best. Kan het met minder, ja vast wel. maar meer oogt toch scherper.
Full hd is inderdaad zeer goed zichtbaar op een 5 inch scherm maar om dan 4x zoveel pixels te hebben zal het verschil toch zeer slecht te zien zijn op een 5 inch.
Ik word een beetje moe van dit gezwets, het klinkt een beetje zuur. Hij zit zelf in de telecom wereld en dan gaat die mekkeren over prachtige technologische ontwikkelingen als een QHD scherm op je telefoon. Of het overkill is boeit mij helemaal niks en LG zal met de G3 echt niet zo dom zijn om met een smartphone op de markt te komen die 2 uur meegaat. Daarnaast maken nieuwe technologieën vaak een telefoon wat duurder, echt wat een hoop BS van mister Yu.

Het merendeel van de mensen hier heeft waarschijnlijk nog niet eens zo'n scherm gezien en oordeelt nu al dat het geen toegevoegde waarde is. Vaak gaan dit soort nieuwe schermen samen met nieuwe technieken, die het niet alleen mogelijk maken om de resolutie te verhogen, maar ook de beeldkwaliteit verbeteren.
In addition, the new Quad HD panel will enable users to enjoy a full view of PC-version web pages at a single glance without image distortion; a contrast to current Full HD displays which only realize 3/4th of a full screen. Also, even when enlarging the screen, users will be able to enjoy undistorted and sharper text.

Only 1.21mm thin with a 1.2mm bezel measured in LCD modules (LCM), LG Display’s new Quad HD panel is both the world’s slimmest and narrowest panel, with 12% reduced thickness compared to the company’s 5.2-inch Full HD panel released last month. Based on Low Temperature Poly-Silicon (LTPS) substrate, the panel also realizes superior brightness of 430nit with improved transmittance and larger aperture opening size.

[Reactie gewijzigd door NotSoSteady op 25 juli 2024 18:33]

Anoniem: 577210 @NotSoSteady9 mei 2014 12:16
Je haalt een reclame praatje aan om je gelijk te bewijzen. Niet erg slim.
Of ik nu wel of niet zo'n scherm heb gezien, doet er niet toe, het verschil tussen een 1080 en een 2160 punten hoog scherm is op 5 of 6 inch echt niet waarneembaar, niet in scherpte en niet in kleur, oog kan het niet waarnemen, dus heeft huawei gelijk.
Of het wel of niet waarneembaar is, is geen kwestie van menig, het is gewoon te berekenen. Daarvoor heb je nodig:

de "resolutie" van je netvlies
maximaal 15000 "pixels" per mm2, dus 122 pixels/mm. Zie de blauwe piek in deze grafiek.

de afstand van lens tot netvlies
2.2cm, zie hier

de afstand van de telefoon tot je oog
Ik heb 30cm genomen.

grootte van het scherm
Lange zijde ongeveer 15 cm.

Ik kom dan uit op 1342 pixels aan de lange zijde van het scherm, dat is nog lager dan 1920 (full-HD). Conclusie: het verschil tussen full-HD en quad-HD op een smartphone is niet waarneembaar op een afstand van 30cm (tenzij ik ergens een denk- of rekenfout maak).

[Reactie gewijzigd door Bonez0r op 25 juli 2024 18:33]

Misschien 1 kleine denkfout: Als je op het scherm een raster hebt van om en om zwart en witte lijnen. En je verschuift deze een halve pixel zodat een lijn op twee netvliescellen komt, dan zie je een grijs vlak. Je kunt dan nog steeds het moire efffect krijgen.
In de grafiek die je aangeeft is te zien dat het menselijk oog een resolutie 10x hoger kan waarnemen dan je gebruikt in je berekening (150.000 vs 15.000)
Wow, je hebt gelijk. Nu kom ik uit op 4260*2396 als maximaal waarneembaar, dus ruim 4K!
Nee, simpele wiskunde zegt dat. Zoek op wat een boogseconde is en zoek op wat het onderscheidend vermogen van een persoon met perfect zicht is. Doe dan een simpel rekensommetje en je zal merken dat het voor mensen absoluut niets uitmaakt.
Klinkt als slimme man. Eensch.
Is niet zo lastig als rest hele domme beslissingen nemen. :D

Denk dat meeste tweakers je hetzelfde had verteld als je het hun had gevraagd. ;)
Zolang de gemiddelde consumer denkt: "groter/meer is beter" moeten de producenten volgen of risico lopen om marktaandeel te verliezen. Dus verstandige woorden van Yu, maar wel een grote gok.
Zou dezelfde onzin zijn als nog meer megapixels op dezelfde sensorgrootte. Dat de 4 MP van de HTC One weinig is (croppen heeft geen zin), ben ik het mee eens. Maar een 20 MP sensor? Onzin.
Nee, want meer informatie is altijd beter. Zoomen is veel beter mogelijk met 20MP dan met 4MP. Zolang optische zoom nog niet mogelijk is in een smartphone, is digitale zoom noodzaak, en daarom veel pixels.
Niet dus. Meer megapixels op een kleine sensor duwen zorgt weer voor andere problemen, zoals meer benodigde rekenkracht (tragere verwerking), verminderde lichtgevoeligheid wat op zijn beurt weer resulteert in een verminderde dynamische range en mindere prestaties (meer ruis) in donkere omstandigheden.

Daarbij worden je foto's niet scherper van meer megapixels, wil je effectief zoomen, dan zul je dat toch echt optisch moeten doen en niet digitaal. Het enige echt nuttige aspect van meer megapixel = de mogelijkheid om groter af te drukken.
Anoniem: 300525 @paradoXical9 mei 2014 16:34
Dat is op dit moment inderdaad zo. Wil je echter met de huidige technieken in een klein apparaat toch kunnen zoomen, is de tussenweg "meer pixels" een goede lijkt me.
Meer informatie is beter, maar dat betekent wel dat bij een gelijke sensorgrootte elke pixel kleiner en dus minder gevoelig is. Je foto zal iets meer detail kunnen vatten, maar zal een minder goede kleurweergave hebben.

Nokia gebruikt wel een wat grotere sensor dan gebruikelijk in smartphones voor zijn topmodellen, dus daar is er uiteraard weinig tot geen kwaliteitsverlies (en het verlies dat er is wordt gecompenseerd door de betere optica).
Nee, want meer informatie is altijd beter. Zoomen is veel beter mogelijk met 20MP dan met 4MP. Zolang optische zoom nog niet mogelijk is in een smartphone, is digitale zoom noodzaak, en daarom veel pixels.
Een typische reactie van een consument die de marketing boys perfect napraat.
Ik vind jou opmerking een beetje laag.

Als je kijkt naar de Nokia Lumia 1020, dan zie je dat je met 41MP beter kan zoomen dan met een telefoon van 5MP. Ja, het is zeker niet zwart-wit, je hebt meer processorkracht nodig, en ja, een andere, grotere, sensor, en zo kun je nog wel even doorgaan.
Feit blijft dat je 41 MP omlaag kunt schroeven naar 5MP en dat je op die manier dus kan croppen zonder merkbaar kwaliteitsverlies van de foto. (mits omstandigheden perfect zijn) Een degelijke vorm van optische zoom heb ik in een compacte smartphone nog niet gezien. Is ook logisch, want het is natuurkundig niet makkelijk.

[Reactie gewijzigd door ikwilwp8 op 25 juli 2024 18:33]

Nee, want je weet niet waarover je praat. ParadoXical legt het perfect uit. Lees, leer en geef je fout toe.
Dat begrijp ik. Maar (bijvoorbeeld) een 8 MP camera met dezelfde sensorgrootte zal in iets minder perfecte (geen daglicht) situaties beter presteren dan een 20 MP-camera, dat was mijn punt. Op het moment dat de sensor vergroot gaat worden ben ik het volledig met je eens, dan kunnen de megapixels ook omhoog.
Voor camera's gaat het niet op, omdat pixelresolutie direct bepaald hoe groot je kunt afdrukken. Helaas is het op smartphones vaak wel onzin, omdat de pixelkwaliteit erg slecht is en je toch moet downsamplen. Verder neemt het ook veel meer ruimte in beslag.

Mijn iPhone kan afdrukken met acceptabele kwaliteit tot A4, omdat het een goede pixelkwaliteit heeft. Voor mijn fotografie gebruik ik overigens een 36MP camera (D800) en daar zijn de pixels geen onzin.
Is nog steeds onzin. Je gaat niet een foto op 50 MP maken (met een cheap-ass camera) en dan op de pixels inzoomen. Voor zoom koop je een lens. 15MP is dus meer dan genoeg en als je wilt zoomen, moet je optische zoom gebruiken en dus een duurdere camera kopen met evt. een extra (tele)lens.
Ik doe het nog met een 10MP camera (Canon D60).
Heb dan wel fatsoenlijke lenzen natuurlijk.
(18-200 objectief voor het algemene werk, 120-400 voor tele.)
Bij een full-frame foto op A3 krijg ik uitstekende afdrukken.
Bij A2 gaat het redelijk, maar dan ga je het wel zien. Met name korreligheid in de donkere gebieden is goed te zien.

Ik heb slechts 3 keer een A2 afdruk laten maken. Landschap foto's in volle zon, daar valt het niet zo op.
Maar om daar dan een nieuwe body voor te kopen... Dat is het me niet waard.
Maar de sensor van je D800 is vele malen groter, waardoor de pixels ook daadwerkelijk veel informatie opvangen. De pixels van een 20 MP camera uit een gemiddelde smartphone hoef je echt niet te croppen bij iets minder dan daglicht, want je wordt er niet vrolijk van.
36MP vind ik ook wel extreem veel hoor, maar goed, de D800 is natuurlijk ook een camera in een hoog segment dus daar mag je het wel van verwachten (het enige vervelende aan dat ding is dat je een 32GB kaartje zo vol schiet op de volle resolutie) . Voor mobieltjes snap ik die megapixelhype ook niet. Heb nu zelf een One M8 met 4MP en de foto's vind ik prima, het had wel wat meer gekund maar goed, 20MP o.i.d. is pure onzin (zie je echt niks van hoor, tenzij je je telefoon op een statief zet).

OT;

Helemaal eens met Richard Yu trouwens. Ik vond 720p stiekem al zat, 1080p is wel nét iets scherper maar QHD snap ik inderdaad helemaal niks van, je zult het niet zien, het kost meer accu en bovendien zal de telefoon ook relatief trager worden; de processoren worden niet enorm veel sneller meer (kijk naar de Snapdragon 801 tegenover de 805 die in de LG G3 zal zitten), en als je dan een game speelt o.i.d. zal de telefoon op een véél hogere resolutie moeten renderen met een processor die niet veel sneller is dan de vorige generatie.
Zelfs bij full-frame camera's als de D800 is de beste optiek nog niet goed genoeg om de volledige mogelijkheden van deze sensors uit te nutten. De optiek van telefoons is veel kleiner waardoor -zelfs als dezelfde kwaliteit gehaald zou worden- het niet mogelijk is om de resolutie van de camera sensor uit te nutten. Bij de afmetingen van een telefoonsensor heb je daarom helemaal niks aan 8+ MPix en zelfs dat is al behoorlijk nutteloos.
Iedereen die dat niet gelooft: Fotografeer maar eens een testchart en zoom maar eens in tot pixelniveau: Het is niet mogelijk om zwart-wit overgangen te krijgen die 1/2 pixels scherp zijn, je hebt er minimaal 4-5 nodig.. (en dus mag je je sensorresolutie delen door de tweede macht daarvan...)
Inderdaad een grote gok. Ben het overigens wel met hem eens. Eerst vond ik het verschil tussen 1280x720 en 1920x1080 al overdreven, maar daar ben ik later wel op terug gekomen. Echter zie ik bij 2560x1440 echt totaal geen rede waarom dat beter zou zijn. Er zit nou eenmaal een maximum aan en zolang de grote van de schermpjes niet meegaat met de resolutie heeft het geen zin die resolutie te gaan verhogen imo. De standaard voor computerschermen is nog niet eens 2560x1440, dus waarom zouden we dat in godsnaam in mobieltjes willen?
Anoniem: 522715 @Onawt9 mei 2014 11:57
De vraag is natuurlijk of het scherm beter is gewoon door de full HD resolutie of doordat het scherm op andere vlakken is verbeterd?
Inderdaad, het gaat niet enkel om de techniek, uiteindelijk bepaalt de markt... en waar de consument gevoelig voor is, wordt niet enkel door ratio en nuchterheid bepaald. Dat maakt het juist ook lastig voor fabrikanten, waar zal die onberekenbare consument het meest gevoelig voor zijn....

Op dit item kan niet meer gereageerd worden.