Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 141 reacties
Submitter: Balance

De Japanse beeldschermfabrikant Japan Display ontwikkelt een 5,4"-scherm voor smartphones met een resolutie van 2560x1440 pixels. De wqhd-resolutie op de 5,4"-beeldschermdiagonaal zorgt volgens het bedrijf voor een recordpixeldichtheid van 543 ppi.

De lcd heeft een dikte van 1,12mm, randen van 1mm, een contastratio van 1500:1 en kijkhoeken van 160 graden. Het scherm kan 70 procent van de ntsc-kleurruimte weergeven. Japan Display kondigt ook een 6,2"-scherm met resolutie van 2560x1440 beeldpunten aan, waarbij de ppi-hoeveelheid op 473 uitkomt. Dit scherm is 1,65mm dik.

Onlangs liet de Chinese fabrikant Vivo al doorschemeren met een smartphone met resolutie 2560x1440 te komen. Die Xplay3S heeft een 6"-scherm. Tot nu toe is 1920x1080 pixels de hoogste resolutie die fabrikanten van smartphones hebben toegepast.

Japan Display toonde eerder deze week een 12,1"-scherm met resolutie van 3840x2160 beeldpunten, wat een pixeldichtheid van 365 pixels betekent. Dit scherm is voor tablets en laptops bedoeld en heeft randen van 2mm aan de zijkant en 6,8mm aan de onder- en bovenkant. Japan Display is een joint-venture van Sony, Toshiba en Hitachi.

Japan Display 5,4" 2560x1440 en 12,1 scherm 3840x2160Japan Display 5,4" 2560x1440 en 12,1 scherm 3840x2160

Moderatie-faq Wijzig weergave

Reacties (141)

Totaal offtopic: Je kunt me hiervoor downmodden.

Kan iemand me vertellen hoe de wiskundige functie eruit ziet wat betreft afstand van beeld en oog?? Als ik deze scherm voor me hebt zoals ik een bril draag, zie ik uberhaupt nog pixels?? Ik weet dat technologische ontwikkelingen goed zijn voor de economie, maar wat is hiervan de meerwaarde als je het niet kan benutten. Ik weet dat R&D mijlenver voorop loopt dan wat we nu zien, maar kan iemand mij vertellen wat voor nut zo'n scherm (of nog hoger ppi) kan bieden, behalve voor R&D doeleinden. Zoals eerder vermeld, technologische ontwikkelingen zijn goed voor de economie, zeker als ze NOG toepasbaar zijn. Vraag is, is zo'n scherm nog toepasbaar?? Schiet het niet een beetje door?? Als land laat je dan WEL zien dat je de technologie of beter de KENNIS ervoor heeft, maar dan nog, het is een beetje "burned money".
Zal niet over moderatie gaan teuten, maar hartstikke on-topic wat mij betreft. Nog sterker, het is denk ik DE vraag die klanten, maar ook ontwikkelaars zich moeten stellen wanneer zij de functionele specificaties voor een nieuw apparaat vaststellen. In een eerder topic (Foto's Nokia Lumia-toestel met grootste scherm komen online) heb ik dit eens uitgerekend, zie hieronder:

De relatie tussen boogminuten en de oplossingsnauwkeurigheid van het menselijk oog is samen te vatten met de volgende kengegevens (bron):

Kleinste scherpe afstand (als referentie) = 250 mm
Resolutie menselijk oog: (alfa) 1 tot 2 boogminuten
(één boogminuut = 1/60 graad, één boogseconde = 1/60 boogminuut)
Laten we van 1 boogminuut uitgaan (iemand met scherpe ogen dus):
Kleinste detail: 250xTAN(alfa) ~ 0.07 mm
Wanneer dit kleinste detail wordt teruggerekend tot een soort reken dot pitch, neem ik een paar onnauwkeurigheden voor lief:
  • Zo is een dot pitch met al die verschillende pixel configuraties een niet erg eenduidig verschijnsel meer. Voor het gemak neem ik het volgende aan: de dot pitch de steek is tussen twee pixels van een bepaalde kleur.
  • de (sub) pixel is de kleinste eenheid maatgevend voor die oplossingsnauwkeurigheid (dit is een discussie op zich vrees ik, en de escape voor iedereen die de illusie wil houden dat een hoge PPI "toch echt nodig is")
Zetten we die dot pitch om naar PPI, dan komen we voor die 0.07mm uit op 363 PPI. Hoger zou dus geen zin hebben. Zou je als individueel mens bijvoorbeeld 200 mm als voorkant van je scherptediepte bereik hebben, dan kom je op 0.06 mm/423 PPI uit, een grotere marge zal er niet zijn.

Het bovenstaande gaat er aan voorbij dat niemand zijn telefoon op 250 mm van het oog houdt. Doe het maar eens, dat is niet comfortabel voor een langere tijd. 300-350 mm is naar mijn idee een realistischer waarde, waardoor het aantal PPI nog lager uitvalt (0.1mm/254 PPI).

[Reactie gewijzigd door teacup op 26 oktober 2013 12:51]

Om bovenstaande te ondersteunen...

Ik houdt mijn telefoon regelmatig op zo'n 20 cm van mijn ogen.
Het is dan mogelijk om op een 5" scherm met 441 ppi (1080p umi x2), bijvoorbeeld op bed bijna de volledige tweakers website op 1 scherm te lezen.

Het scherm van mijn vriendin, wat ik eerder superscherp vond, 312 ppi (720p jiayu G3), voldoet niet om op die afstand de volledige website leesbaar weer te geven

Juist bij een telefoon vind ik een hoge ppi vaak handig omdat ik deze ook gebruik om te browsen als ik op bed lig en op dat moment dus erg dicht op het scherm zit.

Bij normal gebruik van de telefoon, op zo'n 35 cm afstand is de meerwaarde van 441 ppi echter niet meer aanwezig.

Interessant wellicht. Bij het van dichtbij observeren van bijvoorbeeld foto-prints zijn we in staat om tot aan 1200 ppi het verschil te kunnen zien. E.e.a. hangt overigens ook van andere factoren af. Voor het waarnemen van een hoge pixeldichtheid is een goede belichting ook van belang.
363 PPI. Hoger zou dus geen zin hebben.
Spannend verhaal, maar waarom zie ik dan bij ~400 PPI nog duidelijk dat de schuine randen van de wijzer van een analoge clock app niet zo volledig smooth zijn als een echte wijzer?
Ja daar heb je een punt. Een minuten wijzer van een analoge klok die op 58 minuten staat maakt een hele flauwe hoek van 12 graden (2/15*90 graden) met de verticaal. Als we aannemen dat die wijzer een centimeter lang is, dan zal de wijzer een rechthoek van circa 2mm x 9,5 mm overspannen (uitgaande van 400 PPI ~ 31x149 pixels). Per verticale mm heeft de display dus met 31/9,5 = 3 pixels te verschuiven. Bedenkende dat pixels niet mooi vierkant zijn maar vaak rechthoekig, met kleuren in een onregelmatige vlakverdeling kan dit benaderen van die schuine lijn nog moeizamer maken.

Op zich is die schuine wijzer een klassieke anti-aliasing situatie. Het hoeft niet alleen maar met resolutie te maken te hebben, maar kan ook door onregelmatigheden in de aansturing (rendering) worden veroorzaakt. En naast onze fysieke beperkingen van ons menselijk oog zijn we meedogenloos in het onderscheiden van patronen en afwijkingen hierin. Het is bijvoorbeeld een vraag of we die onregelmatigheden echt zien, of dat onze hersens een onregelmatigheid interpretatie maken. In dat laatste geval is het de vraag of wij een uitpixels opgebouwde wijzer ooit helemaal recht gaan zien. Waarschijnlijk zijn fuzzyness protocollen dan nog effectiever om onszelf om de tuin te leiden dan dat de heilige graal van nog hogere resoluties wordt nagejaagd.
Ben ik wel een beetje met je eens. Als je op de rand gaat zitten van wat je nog kunt onderscheiden heb je nog enige anti-aliasing nodig als je graag helemaal scherp beeld hebt. Alternatief is de resolutie niet op het randje kiezen, maar echt een orde grootte hoger.

Mijns inziens kun je je er beter niet al te druk over maken over of er met enige moeite nog pixel te onderscheiden valt. Eigenlijk is 800x480 voor een telefoon ook prima werkbaar. Zolang telefoons niet altijd optimaal bereik hebben. Een accu hebben waar je nauwelijks een dag mee doorkomt en zomaar stuk kunnen gaan als je ze gebruikt in de regen of een metertje laat vallen zijn andere dingen belangrijker. Meer dan HD resolutie is als je het daarmee vergelijkt vooral een gimmick. Maar iedereen mag die afweging voor zichzelf maken natuurlijk.
Inderdaad, met een overtreffende resolutie en antialiasing is niet meer nodig voor het wegwerken van de kartel randjes. Ik wacht er nog steeds op zulke hoge resoluties displays waarbij antialiasing niet meer nodig is, dan is naar mijn mening pas mogelijk alles zo te schalen zoals je wenst, kijk naar Windows 7 en 8 die hier nog steeds moeite mee hebben.
Natuurlijk, er zijn diverse zaken die veel belangrijkere zijn dan resolutie op het moment. Maar ze hoeven elkaar niet te bijten perse. Onderzoeks concern 1 doet research naar betere resoluties en concern 2 doet onderzoek naar sterker glas en concern 3 onderzoekt betere vocht isolatie of resistance of whatever.

Op een gegeven moment komt het allemaal bij elkaar en hebben we de Galaxy S20 en de iPhone 30 waar het allemaal een flink stuk beter is ;)
Goed verhaal met goede onderbouwing!

Wel een vraag, waar haal je de resolutie van het menselijke oog vandaan en is daarin rekening gehouden met de natuurlijke variatie tussen mensen wat betreft het zicht?
Ja, eerlijk zijn, als werktuigbouwer is het totaal niet mijn domein, al heb ik in mijn opleiding en werkkring best de nodige fysica gegeten. De bron haal ik aan in het begin van de berekening. Betrouwbaarheid??? Het was het enige antwoord die ik op mijn vraagstelling kon vinden. Ik verwacht dat de range van 1-2 boogminuten het spectrum tussen goed zienden en minder goed ziende mensen afdekt. Hoe dit boogminuten gegeven zich verhoud tot het verschijnsel bijziende mensen (zien dichtbij scherp) en verziende mensen (zien veraf scherp) is voor mij ook een vraag. Misschien iemand anders die nog iets kan toevoegen.

Mijn long shot: dichtbijziend en verziend heeft relatie met de mate waarmee de menselijke lens (en brandpuntsafstand) in staat is om te vervormen om gehoor te geven aan de opdracht voor het lezen van een verkeersbord of een vel papier in de hand. De oplossingsnauwkeurigheid, het boogminuten verhaal, heeft meer relatie met de dichtgepaktheid van de lichtgevoelige staafjes en kegeltjes aan de binnen kant van je oogbol en de afstand (oogboldiameter) ten opzichte van de lens. Voor meer info, een leuke bron (met alleen een in de naamgeving braafheids imago probleem :), hieronder ook al aangehaald: biodoen [...] (slikt een lelijke en zeer ongeëmancipeerde opmerking in)
Je hebt een goed onderbouwde berekening.
Maar ik ga er toch maar even van uit dat die toch grotendeels beperkt is tot de gemiddelde mens. Even de practisch werkbare afstand negerend: ik kon tot op minder dan 5cm scherp stellen, dat is nu nog minder dan 15cm en ik voel me al redelijk gehandicapped. Daar komt nog bij dat als je extra scherp ziet, je dus nog kleinere dingen zou kunnen zien. Op de ogentest op http://www.masselman.nl/ kan je een goede inschatting maken van je ogen. En als je dus op een nog grotere afstand dan daar aangegeven alles kunt zien... dan zal je wel beter dan gemiddeld kunnen zien.
Even uit de losse pols vanwege alle aannames en afrondingen: als je twee maal scherper ziet dan gemiddeld en op een vijfde van de afstand kan je dus dingen zien die tien keer zo klein zijn. (0,007mm->3630ppi)
Ik doe even als de gemiddelde die hier zegt "dat heeft geen zin" en zeg zolang er mensen zijn die het wel zien heeft het wel zin.

toevoeging: ik heb hem al vaker geplugged:
http://en.wikipedia.org/w...kipedia.org/wiki/IBM_T220 is een monsterlijk mooie monitor om soms achter te zitten O-) _/-\o_ :9~ 8-) O+

[Reactie gewijzigd door onetime op 28 oktober 2013 16:19]

Ik ben behoorlijk bijziend en het enige beeldscherm dat ik van dichtbij kan lezen zonder bril is een telefoon scherm.. In bed kijk ik dan liever films op mijn telefoon dan op mijn ipad, omdat 1080p op 5 cm afstand er echt wel top uitziet op mijn telefoon, maar het scherm van de ipad is op 5 cm afstand veel te groot en zie ik alleen maar losse pixels en ik hoef geen bril op.
Je gebruikt woorden als onzin, maar je schrijft er ook onzin mee. Dat is alsnog niet ongewenst, natuurlijk, maar wel voer voor een reactie.

Misschien ben je te jong om het te hebben meegemaakt, maar met printers hebben we precies hetzelfde gehad vanaf begin jaren '90 van de vorige eeuw. Toen ging men over van 9- of 24-naaldsprinters met printdichtheden van ruwweg 72 tot 240 dpi, een beetje waar we nu met de beeldschermtechnologie zitten dus, naar 300dpi inkjet. Dat was een verademing, de letters waren opeens redelijk vloeiend (maar je zag dat dat deels kwam van uitgelopen inkt, niet van pixelperfecte afdrukken). Tegenwoordig is 600 tot 1200 dpi zonder meer standaard en daar hoor je niemand over klagen.

Kortom: ook als je minder dan 100% zicht hebt of een kleine afwijking (er zijn bovendien zat mensen met meer dan 100%) heeft zoiets nog nut omdat je weliswaar de pixels niet direct onderscheidt, maar het beeld wel rustiger en vloeiender wordt, bijna analoog.

[Reactie gewijzigd door mae-t.net op 26 oktober 2013 18:25]

Of mensen die per se full HD wilden op hun scherm van 32". Allemaal bedonderd door de marketingmachine van de electronicaindustrie.
Ik zit hier met Full HD op 22 inch, en dat is al bijna pixels tellen, laat staan op 32 inch...
Heb je wel eens gehoord van een product genaamt "occulus rift"? Die zit ongeveer 1 cm van je gezicht, met lenzen om het nog groter te laten lijken.
Daar zijn die lenzen dus ook voor, die doen het lijken alsof het scherm oneindig ver weg is. Dus je focust gewoon op oneindig.

Zo'n bril is dus eigenlijk beter voor je ogen wat dat betreft dan een gewoon computerscherm, want je ogen hoeven niet scherp te stellen (oneindig is de ruststand voor de scherpstelspieren, bij ogen zonder afwijkingen dan).
+1
Het is op mijn Xperia T met 720p al onmogelijk de pixels te onderscheiden met je neus bovenop het scherm.

Maar nu beweren mensen het wel te zien.. misschien als je -10 hebt en je bril afzet. Waarschijnlijk zie je dan ook de poriën van je hand als een echoput :')
Ik heb een S4 met 1080p. Mijn vorig toestel, note 1 had een 768p scherm.

Een vriend op school beweerde dat zijn chineze smartphone 1080p was. Ik goed kijken naar het scherm en vertel hem: onzin, dit is hooguit 720p, waar heb je hem besteld? Hij gaat naar Alibaba express en ziet inderdaad: 1280x720.

Nee, ik heb geen -10.

Wel moet ik zeggen dat, hoewel het scherpteverschil wel duidelijk is als ik een website open en ver uitzoom, ik liever een 720p scherm in mijn phone heb en dat fabrikanten aan de accuduur zouden werken. Maar om te zeggen dat je -10 nodig hebt om het verschil te zien tussen 720p en 1080p praat je echt bullshit.

[Reactie gewijzigd door mohf op 27 oktober 2013 00:39]

Dat is eenzelfde discussie als mensen die beweren het verschil tussen een FLAC en een ongecomprimeerde WAV te horen.
Laat je vooral niet om de tuin praten door marketing van Apple. Producten verkopen staat op de eerste plaats bij dat bedrijf, niet accurate waarheden vertellen.

Er zijn zat mensen die het verschil zien, zeker op het door jou aangehaalde TV voorbeeld. Qua telefoons gaan we naar het punt waarop individuele pixels op geen enkele manier meer te onderscheiden zijn. Heel mooi, wat mij betreft. Of het nuttig is valt te betwijfelen, maar daar valt voorlopig dan ook niet zoveel over te zeggen.
Zie ook hier; http://www.engadget.com/2...-distance-to-screen-size/

Maar zoals altijd zijn er weer mensen die beweren dat ZIJ WEL het verschil zien. Op basis waarvan ze dat beweren weten ze zelf ook niet volgens mij; meestal hebben ze 'iets' in een winkel gezien. Niet echt een wetenschappelijke setting lijkt me. Medisch gezien is het simpelweg niet mogelijk om bepaalde resoluties bij bepaalde kijkafstanden waar te nemen. En dat geldt ook voor mijn voorbeelden.
Maar zoals altijd zijn er weer mensen die beweren dat ZIJ WEL het verschil zien.
Ach... volgens de Tweaker heeft toch nooit echt iets zin?

Sla eens de oude news postings er op terug. 2Ghz voor een CPU was onzin (was onmogelijk dat je het merkte). 1280+ op een 20" scherm was onzin (zou je ook alweer niet zien), DDR3 was onzin (je zou het toch niet kunnen merken), SATA was ook al onzin (geen device was er snel genoeg voor). 512MB+ RAM was onzin (zou je toch nooit gebruiken). 32GB+ HDDs waren ook al onzin (zou je nooit vol kunnen krijgen).

Echt, ELKE news posting van een jump in technologie en is een hele horde Tweakers die om het harst schreeuwt hoe onzinnig het allemaal is. En dan amper paar jaar later is het wat iedereen gebruikt en wil niemand meer minder.

Gelukkig dus dat er maar mensen zijn die WEL het verschil zien, anders zaten we nu nog met z'n allen op 800x600 op een 17" schermpje met een hooguit 500Mhz CPU.
De punten die je aanhaalt zijn allemaal technologisch van aard. De maximale resolutie die je kan benutten op een bepaalde afstand is puur biologisch: het oog _kan_ niet een hoger dpi waarnemen op een bepaalde afstand. Zo is het ook onzin om een tv met een dpi van 500+ te hebben: het is voor de afstand waarop je zit niet te zien. Het claimen gaat dan ook om mensen die denken meer te kunnen dan physiologisch mogelijk is. Daarom: leuk dat er technisch deze dpi's te halen zijn, maar voor onze ogen totale onzin.
Tot op zekere hoogte is dit natuurlijk zo. Goed voorbeeld is muziek. Vanaf een bepaald punt is de kwaliteit niet meer te verhogen. Inderdaad, niemand die het nog hoort.

Maar niet alles wat ik aanhaalde was puur technologisch. Vergeet niet dat 1280+ op een 20" scherm ook al onzin was volgens veel Tweakers (alles zou te klein worden :X) en dat valt nog ruim binnen alle marges.
Zo is het ook onzin om een tv met een dpi van 500+ te hebben
Voor een TV zou 500+ DPI onzin zijn voor in de huiskamer. Voor andere toepassingen misschien niet, zoals een video wall in een winkel centrum waar mensen recht langs lopen. Dat maakt toepassingen mogelijk die nu nog amper denkbaar zijn.

We hadden het echter over kleine schermen (5.4" in dit geval) voor tablets en smartphones. Daar zit je over het algemeen op leesboek afstand achter en dan is 20, 30 centimeter geen uitzondering. Waarom denk je dat voor zwart/wit text een beetje laser printer al makkelijk 1200dpi doet?

Nu is display DPI vs printing DPI een verhaal apart met name als het om kleuren en photos gaat, maar in het algemeen heb je flink wat meer puntjes nodig dan je eigenlijk kunt zien om de impressie van volledig gladde randen te krijgen in alle mogelijke situaties.
500ppi voor een videowall???? Je weet waar ppi voor staat? Als het ergens geen zin voor heeft is iets als een videowall.
De dingen die jij noemt hebben met een ander soort nut te maken dan 500+ ppi. 500ppi kan een gezond oog namelijk niet onderscheiden van 400 ppi op een normale afstand. Op een tv is 100ppi eigenlijk al onzinnig omdat je die op een veel grotere afstand bekijkt dan een telefoon.
Je snapt niet wat ik bedoel.

Jij denkt aan een film ofzo of een concert. Ik denk aan video wat behang kan vervangen, waar je gewoon direct naast loopt en 40 cm vanaf staat en waarvan je niet meer wilt kunnen zien dat het "video" is zoals wij dat nu kennen.

Zal niet de komende 10 of 20 jaar gaan gebeuren, misschien nog niet de komende 50 jaar.

Maar ooit... ooit zal men lachen om de volslagen naïviteit waarmee de Nederlandse tweakers van de jaren 2010 echt de meest primitieve techniek al totaal overbodig vonden, en oh oh oh, wat zal men dan blij zijn dat deze tweakers het niet voor het zeggen hadden.

Echt, dit is niet veel anders als de lui uit 1980 die met geen mogelijkheid konden voorstellen waarom een homecomputer ooit 10Mhz nodig zou moeten hebben. Misschien dat een enkele super computer dat nodig had, maar voor thuis? Absoluut belachelijk! 10MHZ!!!! 10 MILJOEN dingen per seconde??? Dat had je thuis ECHT NOOIT nodig.

Nu slechts 33 jaar later is het zo compleet en volledig duidelijk dat dat onzin was. We zitten nu op een enorme veelvoud ervan en dat wordt goed gebruikt ook. Keyword is: nieuwe toepassingen.

Maar ja, ga maar lekker alles overbodig vinden ;) Technologie groeit toch wel door :)
"Echt, dit is niet veel anders als de lui uit 1980 die met geen mogelijkheid konden voorstellen waarom een homecomputer ooit 10Mhz nodig zou moeten hebben. Misschien dat een enkele super computer dat nodig had, maar voor thuis? Absoluut belachelijk!"

Wow wat kortzichtig. Deze mannen/vrouwen hadden gelijk natuurlijk. Het is maar net wat jij onder "nodig" verstaat. Met een glazen bol of 30 jaar later levend kun je deze mensen makkelijk belachelijk maken. Met de technische beperkingen werden programmeurs in die tijd tot het uiterste gedreven en wisten ze op die manier weer grenzen te verleggen.
Hoeveel beter is het tegenwoordig dan allemaal. Het primaire doel van WP was niet anders dan bij versie tig van MS Word anno 2013.
Goed, je loopt nu met tig x de power in je broekzak van een C64 o.i.d. maar om dan te zeggen dat uitspraken uit die tijd belachelijk waren daarmee maak jij je wat mij betreft belachelijk.
De reden van de als maar hoger wordende getallen die gepaard gaan met schermen of processors zijn louter commercieel. En net als elk mens ben ik daar ook gevoelig voor. Meer is beter en verkoopt.

[Reactie gewijzigd door ikkuh61 op 27 oktober 2013 10:46]

De reden van de als maar hoger wordende getallen die gepaard gaan met schermen of processors zijn louter commercieel.
Dan blijf jij toch lekker op de c64? :+

Als dat ding alles doet wat jij nodig hebt en je 320x200 een fijne resolutie vindt om mee te werken, en al jouw data in 64kb past, veel plezier ermee zou ik zeggen!
Moeilijk he begrijpend lezen...lees op je gemakkie mijn post nog maar eens want volgens mij staat er echt heel wat anders.

[Reactie gewijzigd door ikkuh61 op 28 oktober 2013 10:39]

[quote[Met de technische beperkingen werden programmeurs in die tijd tot het uiterste gedreven en wisten ze op die manier weer grenzen te verleggen.[/quote]

Leuk verhaaltje, ik was zelf 1 van dergelijke programmeurs. Idiote dingen als jump between opcodes waren nodig om nog een beetje iets te kunnen doen. Als geen ander wisten wij hoe enorm nodig het was dat computers krachtiger werden, als was het alleen maar om ons werk makkelijker te maken.

Maar die mensen bedoelde ik natuurlijk niet.

Het waren de tweakers van die tijd. De hobbyisten die wat rommelde met hun computer, misschien nog net eens een listing overtikte, en van mening was dat een computer nooit meer dan 256 kleuren zou hoeven te hebben.

Namelijk, "waarom zou je ooit text in meer dan 256 kleuren willen hebben???". Ja, dat heb ik bijna letterlijk gehoord toen.
Op 40cm kun je 500ppi niet onderscheiden van 200ppi volgens mij. Geen zin om eraan te rekenen, maar het gezichtsvermogen van iemand met 20/20 vision is ongeveer 1 boogminuut.
Waarom zou je video willen gebruiken om behang te vervangen 8)7
Waarom zou je video willen gebruiken om behang te vervangen
Tsja... waarom zou graphics op een computer willen? WordPerfect draait toch ook goed met gewoon text? Met DOS kun je toch gewoon WP opstarten??? 8)7

Kijk eens wat de ziggo dome nu al bijvoorbeeld doet. Wat dacht je van toepassingen in de toekomst waarmee je je behang met een druk op de knop veranderd van het ene motief naar het andere, of full-wall informatie boards in winkel centra. Of een telepresence wall waar op de muur een plein van 1000km verderop geprojecteerd staat? Dan sta je gewoon op oog afstand met mensen te praten, en voor het realisme wil je dan echt wel wat beters als full HD.

En dan zullen er nog tal van toepassingen komen die we ons nu nog niet kunnen voorstellen.

Nog zo'n leuk voorbeeld; Internet vond "men" in 1990 ook maar onzin (bedenkt dat het www er zelfs nog niet was toen). Met zag wat text, misschien een ftp download, een usenet discussie, en "men" was het er al snel over eens dat dit NOOIT iets zou worden voor het grote publiek. En waarom zou het OOIT sneller willen? Je kunt toch helemaal niet sneller typen voor een usenet discussie of IRC chat?

Natuurlijk kon nog bijna niemand zich toen Facebook voorstellen en de impact die het zou hebben. Nee, men was er zeker van... waarom zou je nou Internet moeten hebben als je je brief gewoon op een floppy kon zetten en kon uitprinten? 8)7
Een videowall op je muur, om behang te vervangen ? Belachelijk.
Internet is iets heel anders dan een muur bij je thuis. Idemdito met Facebook. Wat denk je dat de kosten zijn voor een muur met "digitaal behang" ? Hoeveel nut heeft dat ? Het laatste moet je ver zoeken, in tegenstelling tot Internet en facebook.

Muren thuis zijn er om je te beschermen tegen de weers omstandigheden buiten, je te beschermen tegen kwaadwillenden etc. Binnen wil je rust. Daar past een "dynamisch behang" totaal niet bij.

Bovendien kan je vraagtekens erbij zetten hoeveel resolutie je nodig hebt voor een "streepje" op de muur. Ach, je kan zoveel nadelen noemen en zo weinig voordelen. Maar goed, iemand die perse iets nuttigs wil vinden, zal het vinden; nietwaar?

[Reactie gewijzigd door Madrox op 29 oktober 2013 00:32]

Hoeveel nut heeft dat ?
Natuurlijk zul je het nut er niet van inzien. Ik had ook niets anders verwacht. Camera in je mobiel zag je toch ook het nut niet van in paar jaar geleden? Mobiels waren om te bellen. PUNT! Wat had je nu aan een camera erin? BE-LA-CHE-LIJK!

Nu heeft gewoon elke mobiel standaard een camera, en handig dat het is joh! :P
Daar past een "dynamisch behang" totaal niet bij.
Het hoeft niet perse te bewegen. Kan een statisch plaatje zijn totdat je het veranderd. Maar als je graag midden in weiland wil zitten met planten die zachtjes meebewegen met een zacht windje kan dat natuurlijk ook dan.
Het laatste moet je ver zoeken, in tegenstelling tot Internet en facebook.
Internet en Facebook zitten *nu* right in your face. Je hebt er geen visie of voorstellingsvermogen voor nodig, het is er immers al. Dus NATUURLIJK vind je het nut hebben. Alles wat er immers al een poosje is vindt jij wel nuttig.

Maar in 1990 vond JIJ het concept van Internet en Facebook nog totale onzin. WordPerfect was iets heel anders zei je toen dan Internet. Idemdito met Lotus-1-2-3. Je vond dat het nut van Internet ver te zoeken was. Wat waren immers de kosten voor *digitaal bellen*? Hoeveel nut had het? Je moest het volgens jouw ver zoeken.

Toch?
Helemaal met je eens. Wij hebben overigens met ons Latijns alfabet een voordeel, maar denk eens aan Japans of Chinees? Het verschil is op Tweakers al eens eerder duidelijk gemaakt, met een scherm dat een nog hogere pixeldichtheid heeft: nieuwsbericht .
Nu is de afbeelding daar natuurlijk wat vergroot, maar ik geloof dat je dat verschil wel ziet op apparaten die je relatief dichtbij je houdt.

Wel jammer inderdaad dat juist de mensen hier iedere keer het nut van ontwikkelingen niet zien; ik merk hetzelfde op bij veel nieuwsberichten als jij.
Misschien is het handiger een oordeel te vellen over het nut nadat eenieder zo'n display in het echt gezien heeft. Ik heb een jaar of 5 of 6 geleden op de CéBIT voor het eerst een 4K display op 54" gezien. Ook zonder dat je er met je neus bovenop staat, zeg zo'n 4 a 5 meter, ziet het eruit alsof je door het raam naar buiten kijkt, in plaats van dat je naar een tv kijkt. Hoe dat wetenschappelijk/biologisch zit weet ik niet, maar ik zie het verschil echt wel, en gelukkig ben ik niet de enige.
Hou je wel rekening met de afwijkingen t.o.v. het gemiddelde?
Of neem je het gemiddelde en zeg je dat niemend het beter kan zien?
Als je het eerste doet heb je waarschijnlijk gelijk, als je het tweede doet schrijf je totale onzin.
Deze grafiek is vooral voor tv's bedoeld, en niet voor telefoonschermen die je misschien wel 20cm van je vandaan houd, ook moet je rekening houden dat veel 720p en 1080p content verre van perfect is en met een hogere resoluties zijn die perfecties minder een probleem.
Die grafiek kan je doortrekken van smartphones tot arena displays.

Het is de retina hoe beeld door je ooglens op ge projecteerd wordt en dan naar buiten tot de target dat is naar de maan waar je met math kan berekenen wat geprojecteerde retina cel kwa diameter op de maan zou zijn.

Een pixel zo groot als een stad.

Ergens online staat de grote en minute of angle een centrale retina cel door de oog lens maakt en dan op verschillende afstanden de projectie grote kan berekenen.

Dat is de referentie punt waar ergens de grens ligt.
Beetje hetzelfde als de mensen die zeggen het verschil te horen tussen een geperste -en gebrande muziekcd. De geperste klinkt uiteraard altijd beter. Misschien dat een hond het verschil zou kunnen horen maar een mens met zijn zwakke gehoor dus echt niet.

Dat soort mensen blijf je altijd wel houden maar in dit geval, hoe je het ook went of keert mensen geilen nou eenmaal op specs. Wie wil er tegenwoordig bijv. nog een dual core in zijn smartphone? Ik doe er zelf even hard aan mee.
Ik heb mijn nexus 4 gelockt op 1350 mhz en 2 cores. (Van de standaard 4 cores en 1.5ghz). Sneller verbruikt alleen maar meer batterij (en met de nexus 4 kun je het zo gek maken dat hij met 1u on screen time leeg is. Bij mij gaat hij toch 5-6u on screen time mee). Als ik ervoor had kunnen kiezen om een goedkopere soc er in te zetten had ik dat ook gedaan.
Het nut ervan is geen punt van discussie. 30 jaar gelden zag ook niemand het nut van minimaal 24 bits kleurdiepte voor een monitor.
Haha... mijn punt precies!

Kan het met zelfs nog herinneren. 24 bits... 16 miljoen kleuren... dat zou nooit nodig zijn, want je ogen zouden het kunnen onderscheiden. Nu weten we niet beter en zou iedereen steen en been klagen als we weer naar 256 kleuren terug gingen of zelfs 16k die volgens sommige toen het maximale was wat je kon zien :X
Je zit er echt naast. 24bit was allang van bekend dat het geeneens het maximale van je ogen kon weergeven. Je hebt je verkeerd laten inlichten (ook wat betreft scherpte).
Ik zeg niet dat ik het er niet mee of wel mee eens was, maar dat het een gangbare opmerking was. 24 bit was niet nodig omdat je ogen het niet zouden kunnen zien.

En een poosje eerder was zelfs 256 kleuren genoeg, "want wat moest je nou met meer kleuren op een COMPUTER scherm"?

Die mensen die dat destijds zeiden zaten volledig opgesloten in hun Lotus 1-2-3 of WordPerfect wereldje. Voor hen waren 10 kleuren al veel. 256 was zo ongeveer het maximale wat ze zich konden voorstellen en 4096 en verder... daar hield het gewoon op. Wat moet je ooit doen met menus en fonts in zoveel kleuren?

Het concept gaming met photo realistische graphics of zelfs gewoon video of fotos bekijken op de computer was zo ongelooflijk ver van hun verbeelding vandaan, dat kwam echt gewoon niet bij ze op. Fotos staan op papier en video staat op een videoband en op computers heb je een groen, wit of amber flikkerend cursortje.

Dat zelfde zie je hier nu ook weer keer op keer op Tweakers.

Niet zo gek lang geleden, een resolutie van 1600 op een 20" was onzinnig want dan werden de letters te klein. Gewoon niet capabel om te kunnen voorstellen dat je de zelfde grote kunt houden met meer pixels. Het werd wel genoemd hoor, maar dan waren de opmerkingen weer: waarom zou je een letter tekenen met meer pixels? Je kunt hem nu toch al lezen? :X
Ik ben blij dat er gelukkig ook nog Tweakers zijn die dit soort innovatie waarderen, ik word langzaam aan wel moe van iedereen die roept dat het geen zin meer heeft.
"Want 1080p op een Galaxy S4 of HTC One is al er hoog eigenlijk en meer is echt niet nodig"
Met zo'n houding waren we niet gekomen waar we nu waren in de 21e eeuw en dat geldt voor alle techniek.
Onzin. Vooruitgang is prima, maar sommige zaken hebben gewoon geen nut. Bijvoorbeeld geluid op frequenties die geen mens kan waarnemen, of scherpte van beelden die niemand kan zien. Maar ik begrijp dat jij graag een telefoon met 5000ppi wil zien in de toekomst, want dat is tenslotte vooruitgang?
Ik heb zelf al heel lang een 5D markII camera met slechts 21 megapixels. Moet ik die upgraden omwille van de vooruitgang? Nee hoor want ik zou nu al bushokjesposters kunnen printen en dat hoeft van mij niet eens. Toch zijn er mensen die denken 30, 40 of nog meer MP nodig te hebben. Op een compactcamera of telefoon nota bene. Dit is 'vooruitgang ' die volstrekt zinloos is.
Het houdt een keertje op ja, dat is al eerder gezegd. "beter dan CD" hoort echt nagenoeg niemand. Zelfs een expert heeft daar moeite mee.

Maar vergeet niet dat het in dit bericht weer om de typische Tweakers Pavlov reactie gaat: "Nieuwe techniek met veel betere specs: onzin".

Men kijkt eigenlijk niet of het nu wel of niet beter zou kunnen zijn. Er is gewoon maar 1 reactie: onzin! Dat is feitelijk net zo stom als de mensen die klakkeloos 50.000PPI beter zouden vinden.

Nu is zelfs 5000ppi inderdaad niet meer nodig, maar de huidige max is ook nog niet bereikt. Blu-ray b.v. in 1920x1080p ziet er duidelijk beter uit als DVD, ondanks dat ook hier weer Tweakers overtuigd zijn dat je het niet ziet. Ook 4K op een 40"+ zie je nog. Daarboven zal het op zo'n scherm grote inderdaad steeds minder nut gaan hebben, maar 8k op een 70"+, en helemaal op 100"+ (uiteraard niet voor de gemiddelde huiskamer) heeft men nu al van bewezen met experimentele setups in Japan dat het wel degelijk nut heeft.

PPI op de smartphone is ook zoiets. Bij introductie retina vond men de ~300 PPI hier nog massaal onzin. Nu is men het gewend en zien schermen met fors lagere PPI er opeens dof en wazig uit. Afgaande van wat ik nu zie denk ik dat we nog wel tenminste tot 600 PPI kunnen gaan. Zolang een hele schuine lijn er niet zo vloeiend uit ziet als een volledige analoge (b.v. op papier met plotter getekend of uit de losse hand) is het zeer zeker noodzakelijk de PPI te verhogen en is het GEEN onzin.
Het is misschien niet meer nodig om individuele pixels te kunnen onderscheiden, maar een scherper scherm leest veel rustiger (vind ik). Dus misschien dat je het verschil niet direct ziet, maar het zorgt er wel voor dat je ogen minder vermoeid raken.
Nou dat heb ik dus niet, wat wel belangrijk is hoe groot de font is.ik heb liever wat grotere font. Ipv friemelig klein. Want dan zit je te turen.
Dat is natuurlijk een kwestie van software, hoe die daarmee omspringt. iPhone 3gs en iPhone 4 hadden dezelfde schermgrootte, maar iPhone 4 had veel meer pixels. Daar zag je het verschil ook niet van. Dito met alle retina schermen overigens

(Verder geen apple fanboy, maar is makkelijk om even deze vergelijking te maken, voordat ik mensen tegen hun gevoelige schenen schop)
Je begrijpt niet wat Pietjebelll zegt: meer pixels maakt het zelfde font beter leesbaar.
Als het je te klein is stel je de font grootte toch hoger in?
Een voordeel van een hele heele hoge resolutie is dat dode pixels niet meer waarneembaar is.
De kans dat je dode pixels krijgt neemt echter wel "hele heel" erg snel toe.
Waarom is 600ppi op een printer dan niet high-end en buiten proporties? Die 300ppi is nog altijd te laag om echt retina genoemd te worden.

Dit gezegd zijnde. Het nut is beperkt daar je batterij er gewoon last van heeft als je nog hoger gaat en 300ppi best al aangenaam is.
Waarom is 600ppi op een printer dan niet high-end en buiten proporties?
Omdat dit er al een poosje is en men het gewend is.

Het is nou eenmaal mens eigen en in het bijzonder Tweakers eigen om elke nieuwe ontwikkeling overbodig te vinden. Als over 10 jaar elk scherm standaard 600ppi is, is iedereen er super happy mee en zal men klagen over elk scherm dat ook maar 1 ppi minder is.

Maar nu is het nog nieuwe, dus nu vindt de collectieve hivemind op Tweakers dat het overbodig is. Zo klinkt het namelijk net alsof ze heel critisch zijn en veel verstand van zaken hebben enzo.
Ik wil niet veel zeggen hoor, maar het verschil tussen SD-kwaliteit en HD-kwaliteit zie ik toch weldegelijk op mijn 32" TV. En nee ik zit geen 20 meter van me scherm af.
Typefout? Als je schreef "2 meter" dan was het logischer. Op 20 meter ga je juist geen verschil zien...
Ik bedoelde er juist mee te zeggen, dat ik zelfs op een afstand van 2 meter nog verschil zie.
Volgens de algehele Tweakers opinie van paar jaar geleden zou het onmogelijk zijn wat je zegt: niemand zou verschil zien tussen SD en HD op 2 meter. Dat zou je pas zien vanaf 40 cm en een 55" scherm en zo dicht zit niemand op het scherm (en dan kwamen ze met allemaal mooie grafieken die het aan zouden tonen etc)

:X
Heb je daar toevallig nog een linkje van? Ben eigenlijk wel benieuwd :)
Zoek gewoon naar zo'n beetje elk artikel vanaf 2000 ofzo waar "HD" in voorkomt of 1920. Bijna altijd wel raak ;)
Oke, ik zal het eens opzoeken. Ik denk wel dat ik een paar duizend hits ga krijgen.
Het verschil tussen SD en HD is natuurlijk ook wel redelijk groot. Maar 720p of 1080p, dat ga je echt niet zien als jij 3 meter van je tv af zit.
Ik zou hier ff rondneuzen als ik jou was.. ;)
Op een goede tv zie ik het verschil wel degelijk tussen 720p en 1080p op een metertje of 3 afstand..
http://www.gadgetzone.nl/nieuws.php?id=2966#.Um46elyAU1Q

Hij is echt niet de enige en hij heeft wel degelijk een punt. Hoe verder je ervan af zit, hoe minder kans dat iemand, ook jij, het verschil nog kan zien. Het is wetenschappelijk bewezen dat je bij een 1080P nog dichter bij de buis moet zitten om verschillen waar te nemen.

Whether you're dealing with 1080p/24 or standard 1080p/60, doesn't alter our overall views about 1080p TVs. We still believe that when you're dealing with TVs 50 inches and smaller, the added resolution has only a very minor impact on picture quality. In our tests, we put 720p (or 768p) sets next to 1080p sets, then feed them both the same source material, whether it's 1080i or 1080p, from the highest-quality Blu-ray player. We typically watch both sets for a while, with eyes darting back and forth between the two, looking for differences in the most-detailed sections, such as hair, textures of fabric, and grassy plains. Bottom line: It's almost always very difficult to see any difference--especially from farther than 8 feet away on a 50-inch TV.
http://reviews.cnet.com/720p-vs-1080p-hdtv/

[Reactie gewijzigd door Madrox op 28 oktober 2013 11:30]

Grappig dat je dan een marketingterm als retina gebruikt, zelf bedonderd door Apple's marketingmachine? Dus omdat het retina heet betekent het dat ik hogere resoluties niet kan waarnemen? Lol, ik kan weldegelijk de pixels zien op een retinascherm. Een 4.3" 720p of 5" 1080p scherm is gewoon veel scherper dan de iPhone retina scherm.
Op een normale kijkafstand zie je geen pixels. Ook jij niet nee.

En ik snap dat 'retina' een merknaam van Apple is, ik noem het alleen maar omdat het bekend is bij de meesten hier.
Wat ik niet snap is dat we binnenkort waarschijnlijk 4" schermen mogen bewonderen met 4K resoluties terwijl 90 % van de laptops nog steeds verkocht wordt met een baggere resolutie 1360x768 en de meeste 24" en 27" desktopmonitoren niet verder komen dan full HD. De enkelingen die het beter doen zitten direct in de hoogste prijsklasse.
hoe groter het scherm, hoe hoger de foutmarge, hoe (veel) hoger de prijs....
Ik blijf me verbazen waarom veel mensen altijd maar roepen van nutteloos en je ziet het toch niet etc.
Ondertussen drukken diezelfde mensen al wel zeg 10 jaar lang hun printjes af in 600dpi of zelfs meer!

Op papier zijn de lettertjes al jaren haarscherp, dus ik zou niet weten waarom dat bij displays niet het geval zou mogen zijn.

Daar komt nog bij, niemand verplicht je een model kopen met een dergelijk scherm hoor, als je het niet nuttig vind dan koop je gewoon wat anders. Ik vind het wel een mooie ontwikkeling en ik hoop dat de desktop schermen nu ook snel volgen.
Mijn iPhone 4 is net zo scherp als drukwerk (300dpi normaliter).

Desktopschermen zijn allang gevolgd. Maar jij wilt toch niet snappen dat 500ppi op een desktopscherm nog veel zinlozer is dan op een telefoon.
Desktop schermen zijn allang gevolgd? Ben ik wel heel benieuwd welke dat zijn...

Zelfs de paar nog niet echt te verkrijgen 4K schermen hebben nog bij lange na niet een pixel dichtheid van een paar honderd dpi dus je reactie raakt redelijk kant nog wal.

Voor enkele van mijn toepssingen is hogere resolutie=beter.
Bovendien kan jij al helemaal niet oordelen of dat voor mij zinloos is of niet, jij vind het zinloos, dus praat voor jezelf.
Als jij 300dpi precies zo scherp als drukwerk vindt, moet je een nieuw brilletje (en ja ik weet uit ervaring dat je een minieme oogafwijking kan hebben waar je jarenlang goed mee kunt functioneren zonder bril, maar het verschil is toch erg goed te zien als je er wel eentje opzet). 300dpi op een inkjetprinter was inderdaad ooit een revolutionaire stap richting drukwerkkwaliteit, maar dat was ook omdat de inkt uitvloeide tussen de puntjes. Echt analoog drukwerk van goede kwaliteit werd pas geevenaard toen de dichtheid nog wat omhoog ging naar 600 a 1200 dpi.

[Reactie gewijzigd door mae-t.net op 29 oktober 2013 15:43]

Leuk. Moeten we ook weer duurdere grafische chips hebben om op zo'n resolutie een game te kunnen spelen. Ik heb net een PC scherm gekocht met deze resolutie en betaal daar al even veel voor als een high end smartphone. Kunnen we die vooruitgang in techniek niet eens toe gaan passen op monitoren?

Het lijkt me nuttig voor VR headsets, maar in een telefoon hoeft het van mij echt niet.
Het lijkt me nuttig voor VR headsets, maar in een telefoon hoeft het van mij echt niet.
Ja een hele goeie toepassing. eens kijken welke resolutie uit die boogminutenberekening hierboven zou rollen, laten we een afstand tussen oog en display van 25 mm aannemen (is misschien al veel): 25*tan(1/60 graad) = 0.007 mm. Dit zou dus de dot pitch zijn van onze imaginaire resolutie

25.4 mm/0.007mm = 3493 DPI...............

Oke mijn kritiek op de jacht naar hoge resolutie is hierbij abrupt verstomd, en slaat om in ergernis waarom ze niet opschieten ;). 543 DPI bereikt, nog 2950 DPI te gaan. Kom op jongens, van mobiele telefoons kan ik niet echt opgewonden worden, maar VR brillen daarentegen....

Laat nu net die 25 mm ook de minimale brandpuntsafstand van het menselijk oog blijken te zijn, dus de displays op je ogen plakken voor een nog hogere resolutie helpt niet.
Maargoed als je eenmaal die 3500 dpi hebt bereikt heb je dus ook vrijwel hetzelfde beeld in je VR als in real life? En over welke resolutie heb je het dan als het scherm van de oculus 7 inch = 17.78 cm en 16:9 is?
Owww, ik dacht dat de megapixelrace in rustiger vaarwater was terechtgekomen...
Het is belangrijk dat we blijven doorontwikkelen. Ondanks dat de techniek wellicht nu nog niet goed tot zijn recht komt zal dat in de toekomst wel het geval zijn. Een hogere DPI leidt bijvoorbeeld tot ontwikkelingen op het gebied van UI. Denk aan internetsnelheden; met de komst van hogere snelheden werd de techniek ook anders benut.
Nee met kleine dieshrink is mobiele hardware krahtige genoeg geworden om hoge res shermen aan te sturen en is hetprakisch mogelijk om toch een soepel reageerbare UI te hebben op een smartphone. Of je het echt nodig hebt het is praktisch haalbaar.

Een 8K sherm in 5" lijkt mij zinlos je gaat op gegeven moment dat op je retina per cel meerder pixel ontvangt en nog meer pixels niet meer waar neembaar wordt. Dat is de absolute grens

Ergen is er een grens waarbij meer reso steed minder toe doet tot niet meer waarneembaar is.
De oculus rift kan zeker dit soort schermen gebruiken, Als je zo kort bij je beeldscherm zit heeft een dergelijke resolutie zeker nut.
er zijn wel situaties te bedenken waar dit ut heeft,
de reden dat mensen gefrustreerd zijn is omdat alle innovatie plaatsvindt op 10" en kleinere schermen... ik en velen anderen met mij zien liever betaalhare High res pc monitoren.

een 2560-1440 monitor kost nu erg veel geld. en 4k is er niet eens,
er zijn wel TV's met 4K (waar het minder nut heeft dan op een monitor)
en er zijn telefoons met full hd tablets met qhd maar gewone pc monitoren blijven haken op full HD (origineel waren ze iig nog 1920-1200)

dat is waar ik en velen met mij van balen, het nut van deze resolutie op deze schaal is midner dan echt hoge resolutie pc schermen. laptops beginnen eindelijk te komen dat geef ik toe maar het wordt tijd voor 4k monotiren om betaalbaar te worden.
Helemaal mee eens!

De DPI/PPI revolutie speelt zich met name af op schermen van zo'n 4" tot 15" (smart phones, tablets, laptops) en dan weer vanaf 55" (de 4k televisies).

20" high-dpi bestaat wel, maar dat zijn speciale schermen voor medische toepassingen. Behalve hoge resolutie zijn die ook extreem nauwkeurig en correct, en kosten makkelijk zo'n 20k per stuk en hebben vaak speciale hardware nodig.

Maar inderdaad, ik zou ook graag "retina" op de gewone PC monitor zien; dus iets van 5120 x 2880 op een 27".

Helaas is dit A nog niet haalbaar en B de markt is er steeds minder voor de "gewone PC". mobiles in al hun vormen verkopen zo'n 10x tot 20x meer. TVs verkopen ook een flink stuk meer.
waarom toch weer zo bekrompen denken.... ooit gehoord van LED-projectoren...dan zie je toch ook een geprojecteerde uitvergroting van het kleine ledschermpje?... nu heb je al een mobieltje met ingebouwde projector....straks is het ook mogelijk je 4k filmpjes uit je pocketdevice op een metersgroot scherm te bekijken ;p
Denk toch eens aan de designers. :'( Je moet UIs tegenwoordig al op gigantische resoluties ontwerpen wil je alles pixel perfect hebben.
Dan zit er een fout in je ontwerp.

Dit soort ontwerpen hoort schaalbaar te zijn.
Schalen levert nooit pixel perfecte resultaten op. Zelfs niet met vectoren. Als je allemaal knopjes en icoontjes hebt is het bijna onmogelijk om dat goed te schalen zonder dat er kleine blurry lijntjes ontstaan.

Een 3 pixel brede lijn wordt bijvoorbeeld op een lagere resolutie 1.5 pixels, wat niet kan dus maakt photoshop er een 2 pixels van met 1 pixel op 50% transparantie.
Tja dat ligt er maar net aan hoe je het rendert, de beste manier imo is door het aan de client over te laten en te bepalen óf en wát voor soort anti-aliasing te gebruiken. Schaalbaar is de enige manier om dat goed te doen ;)

Met kromme lijnen heb je het sowieso, wat voor scherm je ook hebt. Echter hoe hoger je PPI, hoe minder last je er van hebt :)
Nou zolang ik telefoon zie met 38 megapixels terwijl high end spiegelreflexcamera's het nog met 'maar' 18 moeten doen, dan denk ik dat die race volop gaande is ;) Mensen willen nou eenmaal graag bedonderd worden.
Door ontwikkelen en innovativiteit is een goed streven, alleen moet je je wel afvragen of de ontwikkeling waar het hier over gaat de juiste is om energie in te steken. Er is namelijk een behoorlijk verschil tussen echte innovativiteit en de marketing gedreven vooruitgang die we tegenwoordig veel zien. Er zijn genoeg andere verbeteringen te bedenken waar energie in gestoken kan worden die mooiere dingen opleveren als een nog hogere, waarschijnlijk onzichtbare, pixeldichtheid van een mobiel schermpje.

[Reactie gewijzigd door mxcreep op 26 oktober 2013 11:57]

innovatie in de telecommarkt gebeurd obv wat de markt wil en niet zozeer wat kan. Men wil snellere, mooiere en veel megapixelcamera's, dan krijgt men die ook.

Zo zie je maar dat men toch gewoon lekker oppervlakkig is.
Idd die nieuwe telefoon van Nokia met 41 MP is stiekem ook slechts een 10 MP camera waar 4x zoveel pixels worden ingezet voor ruisonderdrukking en/of burstmodus. 41 MP wegschrijven binnen een halve seconde zonder enorme compressie is een zware taak. Er wordt dan dus ook zoveel gecomprimeerd dat je net zo goed 8MP kan gebruiken zonder dikke compressie.
Waarbij echt de vraag gesteld kan worden of de aanvliegroute van Nokia de meest efficiënte is om dat doel van ruisonderdrukking te bereiken.

Zonder twijfel is dat voor de Nokia ontwerpers het geval geweest. De techniek (CCD sensor) was niet te duur beschikbaar en de investering in een weggooi algoritme om 75 procent van de data te diskwalificeren zal te overzien zijn geweest.

Of met dit resultaat een uitgekiend product is ontstaan? Het zal zijn ding wel doen, en 41MP bekt goed, maar ik vind het toch meer een kwantitatieve benadering dan een kwalitatieve benadering. Het laten werken van de CCD zal veel batterij vermogen kosten, de compressietechnieken die voor iedere foto worden gebruikt evenzo, en de compressie zal veel van de hardware vergen. Kortom, precies de verkeerde aanvliegroute voor een mobiel apparaat met een eindige energievoorraad.

Analogie met de pixeldiscussie in dit topic: is het domweg vergroten van het aantal pixels nu echt de enige aanvliegroute om ons een betere beleving te geven van een weergave op een display? Het eindige batterijvermogen van een telefoon lijkt me toch een behoorlijk dictaat om iets anders te gaan verzinnen. De telefoonfabrikanten hebben met het voortdurend scanderen van de display resoluties van hun nieuwe apparaten deze spec nu echter zo dominant gemaakt dat het nu een collectieve blikvernauwing tot gevolg heeft. En dat is de hond in de pot voor een echte koersverleggende innovatie. Bij een koersverleggende innovatie denk ik aan een benadering waarin beter wordt begrepen hoe mensen beelden verwerken in hun hersenen en dat hierop effectiever met display technieken wordt ingespeeld.

Voorlopig zwoegen we nog even verder in onze resolutie race. Nou ja, voor de VR brillen is dat ook wel nuttig :P alleen helaas voor de mobieltjes niet.
INDERDAAD, beste opmerking, ik werk met 80mp foto's van NASA op dagelijkse basis als hobbie.

Mijn 4770K wordt totaal vernietigt door zelfs een grayscale image....
Er bestaat op dit moment geen raket die krachtig genoeg is om ons naar de maan te brengen. ;)
Tuurlijk niet, omdat er niet genoeg interesse voor is, laat staan genoeg geld. Anders is het met de technologie van tegenwoordig een fluitje van een cent.

Het verder ontwikkelen van zulke schermen is wél interessant, maar dan voor de fabrikanten om (met of zonder marketing) een groter marktaandeel en/of grotere winst te bekomen.
We kunnen auto's maken met een v16 motor met 4 turbo's die 400 km/u haalt. Toch zie je in de praktijk dat iedereen een bescheiden motor van rond de 1.4 met 1 turbo gebruikt omdat dat gewoon veel goedkoper is, zowel in aanschaf als in gebruik en kun je die hoge topsnelheid nergens gebruiken (nee, ook in Duitsland niet waar het misschien op sommige plaatsen is toegestaan maar dan nog steeds praktisch onmogelijk is).

Het zelfde geld voor PPI. Technisch is een hogere PPI mogelijk, in de praktijk zie je het verschil niet meer, maar in de batterijverbruik merk je het wel.
Over de batterij duur, daar mort dan dus ook worden geïnnoveerd, betere accu's op hetzelfde formaat, de GPU moet kleiner, zuiniger en krachtiger en zo geld dat voor bijna alle onderdelen.
Met een betere accuduur wordt een hogere PPI in de praktijk nog steeds niet merkbaar.

Maar accuduur is wel een goed voorbeeld. Daar heeft innovatie zin. Onderzoek naar meer dan full hd op 5" is m.i. weggegooid geld.
Huh? Dat was toch een satelliet/kunstmaan :?
geen idee wat jij high-end noemt, maar in studio-fotografie schieten ze vlot boven de 50MP en in digital still kan de hasselblad H4D-200MS zelfs tot 200MP gaan (quad 50MP).

kwalitatief zijn die 38MP foto's van telefoons trouwens niets waard in vergelijking met DSLR's. Uiteindelijk moet je weten wat je met een foto wil doen: inzoomen totdat je neusharen kan zien is nutteloos, tenzij je ze wil printen op grootformaat
Dat is precies wat ik bedoel. Die telefoonmegapixels zijn waardeloos. Toch denken veel mensen dat het aantal megapixels is wat telt. Zelfs hier op t.net krijg je in de lijst van camera's in de pricewatch het aantal MP te zien.
Dat klopt ook wel natuurlijk. De MPrace is totaal uit z'n verband getrokken. Wat echter niet klopt is je laatste zin. Natuurlijk wordt dat gedaan. De techniek van tegenwoordig heeft niet zozeer meer te maken met MP's, maar is daar wel afhankelijk van. Ik eil ook graag weten hoeveel megapixels ik heb in mn telefoon, voor de vergelijking tellen nog veel meer factoren mee. Maar een camera van kwaliteit aardappel met een goede lens kan nooit betere foto's maken dan een 5 MP camera met standaard lens. Puur omdat er nu eenmaal een minimum is aan het aantal pixels per inch dat als vloeiend wordt gezien.

Mijn iPhone heeft bv een 8mp camera met saffieren lens. Deze schiet makkelijker mooie foto's dan onze 12 mp dslr. Puur vanwege de lens. De dslr beelden zijn echter veel beter voor verwerking in bv photoshop. Voor snelle fotos maken zegt MP tegenwoordig weer vrij veel mits het binnen bepaalde marges blijft (5-8). Daaronder hoef je niet veel van te verwachten en daarboven is vaak slap gelul.
En waarom zijn we niet met zijn allen op 6 MP spiegelreflexcamera's blijven hangen dan?
Precies, omdat pixels wel degelijk wat toevoegen. Met de beperking van een kleine sensor zul je moeten leven in een smartphone maar dat wil niet zeggen dat we nu allemaal beter af waren geweest met 1,2 MP. De HTC One heeft het met zijn UltraPixel Camera ook niet waargemaakt.
Veelal marketing en de gedachte bij velen dat meer == beter.
Ben het er inderdaad wel mee eens dat het tijd wordt dat de desktop schermen flink omhoog gaan in resolutie.
Zit nu al een paar jaar met een 30" omdat de hoge resolutie mij bevalt.
Zou graag een scherm met 8K resolutie hebben, maar ik denk dat de game ontwikkelaars daar niet blij mee zouden zijn. Beetje lullig als nieuwe games in een bench slechts 7 fps halen zonder triple sli :+
Nou hoge resolutie is wel fijn, past er meer op je scherm en is scherper maar met full hd vind ik op me 17 inch laptop al kleine pictogrammen hebben, wie weet hoe dat zit met die 4x hogere resoluties, maar ik geef je wel gelijk hoor, zou wel mooi zijn als we een keer eindelijk de retina desktop scherm resoluties zou mogen zien....
Stilstaan in techniek is gewoon geen optie. Of het nou nut heeft of niet.
Stilstaan in techniek betekent een econimische crisis waar de huidige crisis niets bij is.
Onzin. Vooruitgang betekent dat er zaken worden ontwikkeld die zin hebben. Het heeft zin om personenauto's te ontwikkelen die sneller van 0 tot 100 gaan. Het is nutteloos om personenauto's te ontwikkelen die 500km per uur kunnen rijden.
En toch worden er auto's gebouwd die sneller 0-100 halen dan een jaar geleden. Vervolgens maakt de bouwer/verkoper daar winst op.

Dat jij vindt dat het geen 'zin' heeft (omdat je het waarschijnlijk niet kunt betalen) wil niet zeggen dat andere mensen dat ook vinden.

Als er iets nutteloos uitgevonden wordt, maar het verkoopt goed, en er wordt winst mee gemaakt is het goed voor het bedrijf, de economie, werkgelegenheid, etc....
Dus heeft het wel degelijk 'zin'.

Uiteindelijk is jouw opmerking dus weer on'zin'........ ;)
Moeite met lezen?
Moeite met ooit een positieve reactie te plaatsen.......
Zeurpiet :+
Voor nu is het nutteloos, maar in de toekomst niet meer. Denk producten zoals een Oculus Rift, die hebben hier wel wat aan. En gewoon mooi om te zien dat het kan.
Dit soort extreme resuluties op een klein scherm lijken me voor een smartphone weinig meerwaarde te hebben. Langs de andere kant zorgt het wel degelijk voor innovatie en technische vernieuwingen. Ik denk bijvoorbeeld aan virtual reality headsets die wel juist nood hebben aan dit soort kleine schermen met hoge resolutie. Als de technische kennis en de productielijnen om dit soort panelen te produceren eenmaal bestaan, kan het ook de ontwikkeling van betaalbare VR-headsets vooruit helpen. Andere innovaties zijn de grafische chips die dit soort hoge resoluties ondersteunen. Dit maakt het dan weer mogelijk om het beeld van je telefoon op een high-res monitor of tablet weer te geven (om videogesprekken via je gsm aangenamer te maken bijvoorbeeld).
VR headsets maken volgens mij meer gebruik van dit soort micro OLED displays met WUXGA resoluties op minder dan 1"
Deze microdisplays worden ook al jaren gebruikt in elektronische viewfinders van digitale camera's

Wat ontwikkeling betreft kunnen ze al lang hele kleine displays maken met erg hoge resoluties. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True