Door Arnoud Wokke

Redacteur Tweakers

Smartphoneschermen scherp genoeg

Fabrikanten: resolutie hoeft niet omhoog

07-05-2017 • 06:00

174

Multipage-opmaak

Inleiding: de grens

Wie veel leest op Tweakers en grasduint door oude reacties, komt soms pareltjes tegen als deze over schermresoluties uit 2013: "720p is ook overkill op een 4,5" scherm, maar tegenwoordig zijn telefoons al snel 6" en dan voegt 720p wel wat toe. 1080p is inderdaad onzinnig." Het is een sentiment dat we al een aantal keer hebben gezien rondom schermontwikkelingen. Bij de stap naar smartphoneschermen met resoluties rond de 1280x720 pixels viel dat nog mee. Toen echter nauwelijks een jaar later de eerste berichten naar buiten kwamen over smartphones met schermen met full-hd-resolutie, was het een populair punt van discussie: kun je het verschil zien tussen een smartphonescherm met 1280x720 pixels en een met 1920x1080 pixels?

Een van de belangrijkste argumenten is een herhaling van wat de overleden Apple-topman Steve Jobs betoogde tijdens de presentatie van de iPhone 4 in 2010. Apple noemde dat scherm met 326ppi een Retina-scherm, omdat het menselijk oog op normale gebruiksafstand en met normaal zicht geen pixels zou kunnen onderscheiden. Dit argument hangt natuurlijk om die normale gebruiksafstand, die Jobs stelde op 25cm of meer. Inmiddels zijn de schermresoluties die waarde van 326ppi allang voorbij, maar er is een merkwaardige trend te zien. De resoluties blijven al lang gelijk en sommige fabrikanten hebben zelfs besloten resoluties softwarematig terug te schroeven. Schermen zijn klaarblijkelijk te scherp of in elk geval scherp genoeg.

Subpixel-lay-out van de Sony Xperia Z5 Premium (4k-scherm, links) en Sony Xperia Z5 (full hd)

De ontwikkeling van smartphoneschermen

Schermen in smartphones zijn snel scherper geworden. Waar een sprong in schermresolutie in bijvoorbeeld tv's maar zelden voorkomt en terwijl het ook bij monitoren en laptops vrij langzaam kan gaan, is er bij smartphones elk jaar een sprong te zien in de schermresolutie.

Reclame iPhone 4 retina

In 2010, op het moment dat Jobs de iPhone 4 met zijn Retina-scherm produceerde, werd Apple de duidelijke leider op dit gebied en dat bleef het Amerikaanse bedrijf tot 2013. Toen kwamen de eerste smartphones van in het Westen bekende fabrikanten met full-hd-schermen op de markt, zoals de Samsung Galaxy S4 en HTC One M7.

Deze grafiek geeft de ontwikkeling van het aantal pixels per inch weer van het scherpste scherm dat een fabrikant in een telefoon heeft gezet. Voor Samsung was dat in 2011 bijvoorbeeld in de Galaxy Nexus: een 4,65"-scherm met een resolutie van 1280x720 pixels. Waar in 2017 nog geen nieuwe modellen zijn, hebben we informatie uit het geruchtencircuit erbij gepakt en daarbij gegokt op de informatie waarin het scherm de hoogste pixeldichtheid heeft. Voor Apple gaat het daarbij bijvoorbeeld om de iPhone 8 Edition met 2960x1242 pixels en voor HTC is het de vermeende HTC U met 2560x1440 pixels op 5,5".

Je ziet één lijntje boven de 800 pixels per inch uitkomen. Dat is Sony, de enige grote fabrikant die tot nu toe een 4k-scherm op een telefoon zette. Het gaat om een 5,5"-lcd met 3840x2160 pixels. Tot aan 2015 groeide het gemiddelde flink, met een uitschieter van 26 procent scherpere schermen in 2013. In 2016 nam het aantal pixels per inch gemiddeld toe met 18 procent. Met de meest optimistische geruchten komt de groei in 2017 uit op 3,2 procent en als Apple het houdt bij het full-hd-scherm van de Plus-serie, is er helemaal geen groei.

Er is trouwens wel iets af te dingen op ppi als meting voor de scherpte van het scherm. Dat komt door de gebruikte structuur van subpixels. Vrijwel alle lcd's werken met rgb-pixels: elke pixel bevat een rode, een groene en een blauwe subpixel.

Samsung wisselde aanvankelijk veel af, maar gebruikt nu al enkele jaren dezelfde structuur. De naam is Diamond-pixels. De oledschermen van Samsung hebben weliswaar hetzelfde aantal pixels als lcd's met dezelfde resolutie, maar omdat die pixels subpixels delen, is het aantal subpixels twee derde van dat van lcd's. Dat leidt tot minder scherpte, al maakt het op hoge resoluties natuurlijk niets uit.

Fabrikanten: nu is het wel genoeg

Dat smartphoneschermen volgens fabrikanten nu scherp genoeg zijn, is af te leiden uit een paar belangrijke ontwikkelingen. De minst opvallende daarvan komt van LG, een van de grootste schermmakers ter wereld en bovendien een fabrikant die enkele jaren geleden de resolutie snel omhoog schroefde, naar 2560x1440 pixels in de LG G3 uit 2014.

Pixelfoto G2 en G3

Google Play-icoon op de LG G2 (full hd, links) en LG G3 (quad hd)

Sindsdien heeft LG de scherpte nauwelijks meer veranderd. De G5 heeft een iets hogere pixeldichtheid vanwege een iets kleinere diagonaal, 5,3" in plaats van 5,5", en de G6 heeft opnieuw een net iets scherper scherm door een verlenging van de display. LG ging tussen 2011 en 2014 van 233 naar 534ppi. Tussen 2014 en 2017 gingen de schermen van de Zuid-Koreaanse fabrikant van 534 naar 565ppi.

Een andere opvallende wijziging komt van die andere Zuid-Koreaanse fabrikant. Samsung zit ook al sinds 2014 op 2560x1440 pixels. Nu zou dat erop kunnen duiden dat Samsung problemen heeft met het produceren van oledschermen met hogere resoluties. Dat is mogelijk, zeker omdat Samsung met de Gear VR en andere accessoires een ecosysteem van virtualrealityproducten aan de man probeert te brengen. De fabrikant heeft dus veel belang bij schermen met hogere resoluties, maar tot nu toe zijn die niet verschenen.

Sterker nog, Samsung lijkt erop te hameren dat zelfs de huidige maximale schermresoluties alleen nodig zijn voor virtual reality. Gebruikers van een Galaxy S6 en S7 zullen merken dat als zij de update naar Android 7.0 hebben uitgevoerd, de telefoon standaard op een full-hd-resolutie staat. Pas als gebruikers hun Galaxy in de Gear VR steken, vraagt de telefoon uit zichzelf of de resolutie hoger mag; de Gear VR heeft die hogere resolutie nodig.

Niet alleen de Galaxy S6 en S7, ook de gloednieuwe S8 staat standaard op een lagere resolutie: 2280x1080 in plaats van 2960x1440 pixels. Het is een sterk signaal dat de fabrikant van mening is dat die hogere resolutie alleen nodig is voor vr en voor de rest in het dagelijks gebruik meer nadelen dan voordelen heeft.

De laatste aanwijzing dat fabrikanten het welletjes vinden, is het geringe aanbod van telefoons met 4k-schermen. Dat soort schermen zijn in productie. Sony bracht de Z5 Premium, de eerste telefoon met 4k-scherm, bijna anderhalf jaar geleden uit. Het ligt voor de hand dat de Japanse fabrikant het scherm ook aanbiedt aan andere fabrikanten, maar als dat zo is, heeft niemand toegehapt. Sony brengt zelf binnenkort de XZ Premium uit, de tweede telefoon met 4k-scherm, na de Z5 Premium.

Bovendien is het niet zo dat je de telefoon in 4k-modus gebruikt. De software geeft op de Z5 Premium alles weer in full hd, alleen beeldmateriaal in Sony's eigen apps maakt gebruik van de mogelijkheid van het scherm om zaken in 4k weer te geven. Voor dagelijks gebruik is die 4k-modus kennelijk geen goede optie, zo vindt Sony.

XPeria XZ Premium

Waarom het genoeg zou zijn

Recente ontwikkelingen bij enkele van de grootste smartphone- en schermproducenten ter wereld - Samsung, LG en Sony - wijzen erop dat zij smartphoneschermen wel scherp genoeg vinden. Ze geven echter geen publieke statements over het waarom van die ontwikkelingen. Het is dus giswerk, maar er zijn diverse redenen te verzinnen. De belangrijkste is dat het verschil nauwelijks te zien is. Wie op een Galaxy S8 de resolutie wisselt van maximaal naar de verlengde versie van full hd, moet goede ogen hebben en dichtbij zitten om het verschil te kunnen zien. In het dagelijks gebruik is dat effect al snel weg. Als het nu al lastig te zien is, waarom zou de resolutie dan verder omhoog moeten?

Daar komt bij dat een hogere schermresolutie op verschillende fronten nadelige gevolgen heeft. Het eerste betreft de grafische prestaties; de gpu moet meer pixels aansturen en daardoor komt de framerate bij gelijke omstandigheden lager te liggen. Een 4k-scherm heeft 2,25 keer zoveel pixels op het scherm als een quad-hd-display met 2560x1440 pixels. Ten opzichte van een full-hd-scherm is het aantal pixels zelfs keer vier keer zo groot.

Behalve op de grafische prestaties kan het ook een nadelig effect hebben op de accuduur. Dat hebben we kunnen meten op de Z5 Premium, die we van full hd via wat tweaks op 4k-modus hebben gezet en waarmee we vervolgens onze browsetest hebben gedraaid. Het resultaat kwam op 4k bijna twintig procent lager uit.

Dat is ook logisch, want een scherm met hogere resolutie heeft meer pixels om aan te sturen. Dat gebeurt met allemaal individuele transistors die allemaal een beetje stroom nodig hebben. Bovendien moet bij kleinere pixels de backlight feller branden voor dezelfde helderheid.

Vervolgens zijn er nog argumenten waar we als gebruikers weinig van te zien krijgen. Schermen met hogere resoluties zijn lastiger om te produceren en zijn, door de bank genomen, duurder. Dat betekent dat de hele telefoon duurder moet zijn als de fabrikant en retailers dezelfde marge willen hebben. Het is onbekend hoe groot dat effect precies is, maar het scherm is een van de duurste componenten van een telefoon.

Tot slot

Het is lastig te schatten hoe het verder zal gaan op de mobiele markt. Voorlopig lijken schermen met resoluties rond quad hd voldoende, terwijl budgetopties veelal blijven steken op lagere resoluties. Als displays met quad-hd-resoluties goedkoper worden en dus ook zullen verschijnen in budgettelefoons, ontstaat pas de eerste grote druk om de resoluties te verhogen. Om de prijs van high-end smartphones te rechtvaardigen, moet er op de specsheet immers voldoende verschil met goedkopere toestellen te zien zijn.

In dat licht is het ook logisch dat fabrikanten iets anders zijn gaan doen met displays. Als quad-hd-schermen dit jaar verschijnen in midrange-telefoons, dan is het enige wat high-end modellen van LG en Samsung onderscheidt niet de resolutie, maar de beeldverhouding. De beide Zuid-Koreaanse fabrikanten zijn voor de recentste iteraties van hun topmodellen overgestapt op langere schermen.

Het zou ook niet gek zijn als de race om de scherpste schermen ten einde kwam. Telefoons bleken eind 2014 al groot genoeg en zijn sindsdien inderdaad niet of nauwelijks groter geworden. Het is verrassend dat zelfs in de smartphonemarkt, die draait om snelle vooruitgang, soms even pas op de plaats wordt gemaakt. Niet elke keer als iets meer wordt, maakt dat van een smartphone een beter toestel. Of, zoals Tweakers opmerkte in de review van de eerste telefoon met quad-hd-scherm: meer pixels zijn niet altijd beter.

Lees meer

Reacties (174)

174
172
116
9
0
28
Wijzig sortering
Ik vind het verschil tussen OLED met een niet-RGB structuur vs een LCD scherm onderbelicht.

Op 5" is (voor mij) 1080p voor LCD prima, maar een AMOLED scherm van b.v. Samsung met Diamond matrix heeft veel minder pixels en ziet er vergelijkbaar uit als een LCD met 720p.

Leg maar eens een HTC One A9 met 1080p AMOLED naast een HTC One A9S met 720p LCD scherm, zelfde scherpte, maar mensen denken dat die eerste een scherper beeld geeft omdat 1080>720, niet dus als het niet beide RGB pixel lay-out heeft.

Bijna alle OLED schermen hebben dit, zelf zou ik dan ook kiezen voor 5" tot 5.5" met een LCD van 1080p of een OLED van 1440p om goed genoeg scherpte te geven. Twee hele andere getallen dus, voor dezelfde scherpte (ongeveer).
Volgens het artikel heeft diamond AMOLED, 2/3 van de subpixels van RGB. En ja 1080 is ongeveer 2/3 van 1440.
Maar dat is alleen maar verticaal.

Om precies te zijn, (2560*1440)/(1920*1080)*(2/3) = 1,2.
Dus diamond 1440p heeft 20% meer subpixels dan RGB 1080p.

edit: nog significanter is diamond 1080p vs RGB 720p:
(1920*1080)/(1280*720)*(2/3) = 1,5.
Dus 50% meer subpixels voor diamond 1080p!

[Reactie gewijzigd door N8w8 op 22 juli 2024 15:06]

Inderdaad, en op Windows Phone heb je dan ook nog subpixel rendering waardoor tekst op een 720p scherm scherper is dan op een 1080p OLED.

Ander dingen waar je nooit over hoort:
- Zwartwaarde bij daglicht
- Kleurcirkels onder grote hoeken
Twee aspecten waar OLED echt het onderspit delft.
OLED mag in theorie geen licht uitzenden bij zwart, het scherm ZELF is niet zwart. Beetje wazig groen. Bij daglicht betekent dit een slechter contrast dan LCD. Ik heb zo'n clearblack scherm, en dat is bij licht echt contrastrijker dan een OLED scherm.
Daarnaast is bij een LCD scherm de toplaag met de kristallen glad en uniform voor ieder type subpixel, het kleurfilter zit er achter. Bij een OLED paneel zijn alle subpixels afwijkend: gevolg is dat onder een hoek de hoogte van de pixels een rol gaat spelen, en je dus een soort van Newtonringen gaat zien. Heel storend.

En dan zijn er nog veel OLEDs die problemen hebben met:
- beteugelen kleurgamut: foto's zijn oververzadigd.
- witwaarde is vaak erg groenig

[Reactie gewijzigd door Verwijderd op 22 juli 2024 15:06]

In theorie is OLED wel de superieure techniek maar eigenlijk zit het nog in de kinderschoenen zoals LCD dat ook was 15 jaar geleden.

LCD heeft sinds die tijd echt grote stappen gemaakt en dat zal dus ook met OLED moeten gebeuren willen ze alle nadelen wegwerken.

Want voorlopig lijkt het alsof Samsung het vooral gebruikt uit marketing oogpunt en kostenbesparing.
Lol ... Volgens mij heeft de s8 veruit de beste display van het moment op zo ongeveer elk punt inclusief color accuracy. (Bron: Displaymate)
Weet niet waar je die groenigheid vandaan haalt maar na eerst voor te blauw uitgemaakt te zijn, is het nu groen voor oled?
Ik had een S5 mini: waardeloze OLED display. En ik heb regelmatig een Galaxy Note 4 in de handen, ook niet al te best.
Displaymate meet geen newtonringen en kleurverschuivingen onder grote kijkhoeken, enkel kleurnauwkeurigheid loodrecht.
Ook meten ze geen contrast en kleur van zwartpunt (niet neutraal bij OLED) bij daglicht.

[Reactie gewijzigd door Verwijderd op 22 juli 2024 15:06]

Je kunt nuilen wat je wilt, ze meteen ongeveer elke display na die iets voorstelt en zijn algemeen geaccepteerd als een betrouwbare bron als het gaat om een waarde oordeel over displays.
Je bent de eerste die überhaupt over newtonring verschuiving onder grote kijkhoek begint. De meeste mensen die ik ken kijken vrij recht tegen hun display, zelden onder een grote hoek.
Lijkt me ook erg sterk dat ze bij nacht hun metingen doen, dus met die zwartwaarden zal het ook wel loslopen. Daarbij zijn bij oled de zwartwaarden vaak een stuk beter dan bij LCD. (zo ongeveer iedere bron die dat bevestigt, zie Google zou ik zeggen)
Ze meten juist in donker (afgeschermd) terwijl ze met ambient licht moeten meten...
En daarnaast kunnen OLED schermen inbranden en een lagere helderheid krijgen na jaren gebruik. Als de OLED subpixels niet uniform helderheid verliezen is er ook nog eens kleurverschuiving (hoewel bijna alle fabrikanten tegenwoordig een kleurtemperatuur instelling hebben ingebouwd).
Die dingen branden alleen in als je de helderheid altijd op max hebt staan, heb ondertussen een S2, S3, S5 en nu een S8 en heb nog nooit een ingebrande OLED gehad, ook niet dat de uniformiteit verkeerd was.

LCD verliest nog altijd op contrast en zwartwaardes, daar zit de allergrootste meerwaarde voor OLED.

Voor de kleuren zijn tegewoordig ook zat instellingen om alles naar eigen wens in te stellen. Dus oververzadigd is een keuze en witbalans is ook in te stellen.
Als je zo snel opeenvolgende toestellen hebt gehad, heb je ze wellicht ook niet lang genoeg gebruikt om ingebrande OLEDs te kunnen hebben. Niet dat ik het al heb meegemaakt hoor, en sinds 2010 heb ik ook alleen maar OLED-toestellen gehad, en dit telkens voor minstens 2-3 jaar (Nokia E7, Nokia 808 Pv, Lumia 950). De ene OLED is wel de andere niet, en er zijn nu eenmaal goedkopere panelen in omloop die hier meer last van hebben dan andere.
Ik weet niet naar welk Oled scherm jij kijkt dat je wazig groen ziet maar dat is niet het geval bij alle oled schermen. Ik heb hier verschillende windows phones (950, 640) en verschillende iphones (6S 5S) in huis en de Oled van de 950 is by far de beste.
Idd, dat heb ik ook gemerkt toen ik diverse telefoons naast elkaar legde. De 950 is gewoon vlijmscherp.
Verwijderd @bgttje8 mei 2017 02:53
Hou de pleisters er maar bij dan, lol ;)

(een mes is vlijmscherp, een beeldscherm is haarscherp. je haalt hier iets door elkaar . . . .)
Haha, je hebt helemaal gelijk. Foutje.........
- witwaarde is vaak erg groenig
Raar, mijn klacht met oudere Samsungs was dat witwaarde net blauw was (dus geen groen).
Maar dat probleem is sinds de S5 van de baan, wit ziet er behoorlijk wit uit. (geen latere S serie in mijn handen gehad dus misschien dat het weer wat veranderd was, maar dat van de S5 zag er heel goed uit en wit was (in mijn ogen) wit)

Dat van de One Plus zag er ook goed uit en na een aantal jaar zag die van mijn broer er nog altijd goed uit. Dat inbranden zal wel serieus meevallen en zal weeral zijn als je hetzelfde beeld uren op het scherm laat staan, wat bij smartphones meestal niet gebeurd. Vroeger wel gezien op smartphones zonder OLED dat de statusbar ingebrand was, maar nog maar 1 keer gezien en geen idee wat die persoon met zijn smartphone uitspookt (gebruikte het iig meer dan de gemiddelde mens).
(...)
Leg maar eens een HTC One A9 met 1080p AMOLED naast een HTC One A9S met 720p LCD scherm
(...)
Weet je, dit vergelijken is nu juist het punt. Je legt in de dagelijkse omgang geen telefoons naast elkaar. Je hebt er in principe maar één in de hand en daarmee vervalt feitelijk je referentiekader om een scherm nog te kunnen beoordelen.

Ik zag het laatst nog, toen ik een ultra-budget telefoon kocht voor mijn vader. Deze Blackview A8 Max (€ 90,-) heeft een 5,5" 720p scherm (ooit redelijk baanbrekend, ten tijde van de eerste Samsung Galaxy Note) en tot m'n stomme verbazing viel dit mij helemaal niet eens op in het algemeen gebruik.

Pas toen ik m'n eigen telefoon, een OnePlus X, met 5" 1080p Amoled, er voor de gein eens naast legde viel e.e.a. wel op, maar nog steeds had ik niet het idee naar iets inferieurs te kijken - en belangrijker, nadat ik m'n eigen telefoon weer had weggelegd en verder ging met het configureren van de nieuwe telefoon, had je ook vrijwel direct niet meer het idee dat je naar een 'minder' scherm te kijken.
Toen ik van een Xiaomi mi4 naar iphone SE ging, toen ging ik van 441 ppi naar 326 ppi (full HD op 5 inch naar 1136*640 op 4 inch) en ondanks dat ik de iphone op de meeste punten fijner vind, mis ik toch de scherpte van de mi4 nog na ~9 maanden. Voor veel zaken maakt het niet zo veel uit, maar wel voor teksten lezen, letters zijn gewoon significant minder scherp.

Als je nooit beter gewent bent heb je misschien geen referentiekader, maar het is niet zo dat je het verschil enkel merkt als je telefoons naast elkaar legt is mijn ervaring. En dan is de iphone SE nog scherper ook ten opzichte van de 267 ppi van de blackview A8 Max die je aanhaalt. Nou geloof ik je dat het verschil voor jou niet merkbaar is in het dagelijks gebruik, mijn moeder merkt in de gebruikservaring al geen voordeel van HD zenders op de tv, dat is per mens verschillend.
Ja maar wat jij beschrijft zit ook zo'n beetje op de grens. Vind het niet raar dat je verschil zag.
Iedereen is beter gewend. Het heet papier. :P
Komt ook bij dat de contrastwaarde van de se om te huilen zo slecht is. Prima telefoontje voor de rest, als je niet de 16gb versie hebt iig, maar het scherm is echt beschamend. Zowel qua ppi als contrast.
Als je de scherpte van een HTC One M7 gewend bent, dan kan dat idd anders zijn voor mij dan voor een ander.

En ja, zelfs 5,5" Pentile AMOLED is prima om alles goed te kunnen zien, ik zeg ook niet dat het slecht is oid, ook de OP3 met 1080p AMOLED is best scherp, maar niet genoeg voor mij, het ziet er gewoon niet haarscherp meer uit. Maar precies wat je zegt, het is niet erg, zeker niet als je niet de ervaring hebt met een veel scherper scherm.

Dat een enkeling hier gaat roepen dat niemand het verschil tussen 1080p en 1440p kan zien, dan zeg ik, op LCD schermen vind ik dat idd vrij lastig, maar voor een AMOLED met Diamond of Pentile matrix is het voor mij zeker zichtbaar.
Je kunt dat verschil enorm makkelijk zien. Het enige wat je hoeft te doen is bv. een PDF met kleine lettertjes openen. ('t moet dan natuurlijk wel een PDF zijn die voor bv. A4 is bedoeld.) Vaak heb je dan onleesbaar kleine lettertjes, ook op 1080p, maar dat komt zelden doordat ze fysiek te klein zijn en enkel door een gebrek aan pixels.

Op pakweg 5" met 1080p is dat niet heel erg. De lettertjes die daarop onleesbaar zijn wegens een gebrek aan pixels zouden ook zonder inzoomen niet bepaald voor leescomfort zorgen. Maar op 720p zit je al heel snel onnodig in en uit te zoomen. Toch is het op telefoons best oké. Het is de 15" 1080p op m'n laptop die in vergelijking echt superbrak is.
Toch is het op telefoons best oké. Het is de 15" 1080p op m'n laptop die in vergelijking echt superbrak is.
Toch hebben de meeste 15"-schermen nog steeds 768×1366 al begint 1080p daar inmiddels ook een beetje gebruikelijker te worden.

Wat wel heel typisch is, dat 17" ook nog vaak op 900×1600 zit en hoewel 1080p daar al wat langer beschikbaar is, is het met de grotere resoluties niet het geval. Er is een groot aanbod van high-end 15" laptops met 3K en 4K (best stevig geprijsd) maar 17" nog vrijwel niet en wat er wel is, is al snel €3500.
Ik vind het scherm op de op3 meer dan scherp, heb zelfs de dpi aangepast zodat de letters kleiner zijn
Zojuist m'n Acer 5,5 inch 720 lcd, Honor 6 5 inch 1080 lcd en m'n Op3 5,5 inch 1080 amoled (op sRGB) allemaal het zelfde filmpje afgespeeld.
Maar man wat is dat beeld van de Op3 toch verrukkelijk om naar te kijken. Ik kan dan ook niet bepaal zeggen dat dat beeld als 720 overkomt 8-). Als het dan echt zo mocht zijn dan overtreft dat "720" amoledtje al die 1080 LCD schermpjes die ik heb gehad, incl m'n oude Honor 7 5,2 1080.
Bij bewegend beeld is dit idd eigenlijk niet te zien, op statische beelden zoals websites met tekst, kleine icoontjes etc wel.

Zelf gebruik ik mijn smartphone eigenlijk niet voor games of films/series, dat speelt ook een rol over hoe belangrijk het effect van het hebben van minder pixels voor mij is.

En films op OLED, tja, daar kan LCD moeilijk tegenop ;)

Doe mij ook maar OLED, maar dan wel met een tandje hogere resolutie dan LCD. En als OLED dan nog bij een lage helderheid grijs niet als roze zou kunnen weergeven, dat zou helemaal mooi zijn, heb de Nexus 6 een paar weken gebruikt tot ik dit echt zat was, mooi scherm, tot de helderheid omlaag ging en er niks meer van de kleurechtheid overbleef... Sommige modellen doen dit trouwens wel beter, zoals de One+ X, maar vanaf dat ik de HTC Desire met AMOLED heb zie ik dit helaas nog steeds op telefoons, roze grijs, of groenig wit, bij lagere helderheid.

[Reactie gewijzigd door darkcarlaza op 22 juli 2024 15:06]

http://i401.photobucket.c...eurenvlieg/P5074134-1.jpg (oké wel met dslr genomen)
Op zich kan ik nou niet zeggen dat mijn 1080 amoled op een 720 lcd lijkt.
Ik weet niet kan aan mij liggen, ik zelf zie gewoon duidelijk verschil tussen m'n 720 lcd en 1080 amoled bij alle beelden of het nu stilstaande of bewegende beelden zijn.
(Allebij op max helderheid)

[Reactie gewijzigd door Cosmo_nl op 22 juli 2024 15:06]

Ik heb een op3 met 1080p amoled scherm en hiervoor een HTC One m7 met een 1080p LCD scherm (en 0,7 inch kleiner) en ik kan niet zeggen dat de op3 op mij overkomt als een 720p scherm.
Ik vergelijk ook mijn M7 met b.v. de One+ X van een vriend wat 4,7" vs 5" is, beide FHD, ik zie heel duidelijk verschil en dat is slechts 0,3" verschil maar wel RGB vs Diamond matrix.

@gjmi hieronder, er staat idd wel over 1/3e minder subpixels, maar geen vergelijking met plaatjes oid. Dat mis ik een beetje, vandaar dat ik het onderbelicht vind, kan best wat meer in detail gegaan worden met voorbeelden zodat iedereen het kan zien.

De ene 1080p is de andere niet, dat staat er, maar daarna mis ik de impact die dat heeft op de scherpte.

[Reactie gewijzigd door darkcarlaza op 22 juli 2024 15:06]

Edit: Nevermind, dacht dat je de HTC One X+ bedoelde maar je doelt op de One Plus X, te snel gelezen.
Het staat toch duidelijk in het verhaal. Dat er subpixels over pixels gedeeld worden. En dat je minder scherpte hebt. Mij was het in ieder geval duidelijk na het lezen.
Het grote voordeel van Diamond PenTile(Wat in de S4 tot en met de S8 zit) is dat het scherm veel langer meegaat dan een non-PenTile display. Dit is blijkbaar de grootste reden dat Samsung dit gebruikt.
An OLED display is made from colored (RGB) sub pixels. A blue OLED has the lowest luminous efficiency (lower then red and green) and so needs to be driven at higher current - which means a lower lifetime.
https://www.oled-info.com...pentile-oleds-last-longer

[Reactie gewijzigd door MrFax op 22 juli 2024 15:06]

Een niet belicht punt in dit artikel is content. Met een super hoge resolutie heb je ook content nodig die dit waarmaakt, met alle nadelen van dien.

Bekijk eens een website die niet geoptimaliseerd is voor je display (vrijwel allemaal). Hoe enorm zacht de plaatjes zijn. En wat te denken van apps, die hun assets (plaatjes, video) 4 keer zo groot moeten maken om recht te doen aan je scherm. Wat je allemaal weer moet downloaden en opslaan.

Of die 4K (8K?) Netflix stream die thuis je hele Wifi leegtrekt. Denk aan al die server in de 'cloud' die al deze giga content moet opslaan en streamen, en het enorme energieverbruik wat daar bij komt kijken.

Je zou zelfs zover kunnen gaan dat high res schermen een maatschappelijke impact hebben.
Laat ze dan vooral ook even bij AMD langsgaan in verband met het onderstaande.

nieuws: AMD streeft naar resolutie van 16k bij 144Hz voor virtual reality

Even rekenen: UHD Bluray kan max 128Mbps pieken op een 100GB schijf voor 4K 60Hz 10bit content. Het is al een vrij efficient codec HEVC/H.265. Laten we er vanuitgaan dat we daar in de toekomst toch nog eens een verdubbeling op weten te halen qua subjectieve kwaliteit per GB in de vorm van Ultra HEVC. Dan krijg je ongeveer onderstaande trend:

8K/60Hz/10bit met UHEVC op een 200GB schijf
16K/60Hz/10bit met UHEVC op een 800GB schijf
16K/60Hz/12bit met UHEVC op een ~1TB schijf
16K/144Hz/12bit met UHEVC op een ~1,2TB schijf

Zelfs met een significant betere video codec dan die we nu hebben zit je dus alsnog op een factor 12 meer opslag voor de in AMD's visie technisch ultieme variant van diezelfde content. Dan heb je dusdanige kwaliteit dan zelfs bij maximale (breedbeeld VR-achtige) kijkhoek alsnog de pixels niet meer kunt zien. Kost wat, maar dan heb je ook wat, aldus AMD. Heeft zeker maatschappelijke impact, want die render farms, datacenters, routers, modems en computers staan dan flink extra te stoken allemaal, voor kwaliteit die nog maar weinigen visueel kunnen onderscheiden van de UHD Bluray 60Hz variant waar de vergelijking mee begon. Ergens tussen wat we nu hebben en wat AMD wil is er een maatschappelijk optimum hierin, maar geen idee waar en hoe je dat zou moeten vaststellen...
Tsja als je in de jaren 90 ging praten over dat UHD BluRay schijven wel 50GB zijn, en dat we nu prima films van ~4GB streamen, dan zouden ze je ook wel voor gek verklaren. Er was immers geen enkele infrastructuur die dan een beetje aan zou kunnen, 50GB was (veel) groter dan menig harde schijf, en zelfs een beetje prima 10Mbit routers gebruikten nog evenveel energie als een stofzuiger (nou ja, bij wijze van spreken dan, ik overdrijf om een punt te maken).

Maar de techniek zit niet stil, ook niet aan de back-end kant van het verhaal. Routers en servers worden ook steeds energiezuiniger (althans, relatief aan de performance van de apparaten), harde schijven steeds groter. Dus ik vind het een beetje naïef om te zeggen dat het allemaal zo slecht is voor de maatschappij... (sowieso is dit hele artikel een beetje vergelijkbaar met het "640KB zal voor iedereen genoeg zijn" verhaal - en ja, ik weet dat dat nooit zo op die manier gezegd is, is alleen een voorbeeld).

Ten slotte is er natuurlijk een verschil tussen een optimale resolutie voor Virtual Reality gebruik, en het kijken van films. Ik speel nu al games op 1440p resolutie, maar de meeste films die ik kijk zijn nog op 1080p, en dat is gewoon best prima. Er is een heel verschil tussen of je iets alleen kijkt, of dat je er interactief mee bezig bent. Kan best zijn dat films vrij lang op 4K blijven hangen, maar de gaming industrie (juist vanwege VR) lekker doorgaat naar 8K en 16K uiteindelijk. En daarbij moet je je natuurlijk realiseren dat er voor echt goede VR heel andere vereisten zijn dan voor een telefoonschermpje, bijvoorbeeld. Zo'n scherm in een VR bril zit vlak op je ogen, dus om het goed scherp te krijgen moet je het een erg grote resolutie hebben, en om er niet moe van te worden een hoge refresh rate. Speel maar eens een tijdje met een PSVR en je zult zien dat het "wel grappig" is, maar echt niet het toonbeeld een van mooie, soepele ervaring.

Al met al denk ik dus dat er over een tijdspanne van 10-20 jaar best wel 16K/144Hz gehaald kan worden voor VR, zonder die "maatschappelijke impact".
Eens, de vraag daarbij is of VR hetzelfde is als de ultieme bioscoopervaring. Qua kijkhoek krijg je dat volgens mij thuis alleen maar makkelijk voor elkaar met een display bril zoals VR ook gebruikt, vandaar mijn opmerking. Let wel op dat die games ook zoveel groter gaan worden trouwens. Gelukkig zijn dat vaak veel meer gameplay uren dan twee uur film kijken, dus op distributie bespaar je relatief veel.
Ik denk niet dat het hebben van een high-res scherm an sich een maatschappelijke impact met zich meebrengt. De gemiddelde consument in het Westen (a la Apple & Samsung) merkt het verschil niet tussen een goed 720p scherm en een 1080p scherm.

Pas als mensen met telefoon A en masse hun scherm gaan vergelijken met de concurrentie en er achter komen (door bijvoorbeeld antimarketing richting de directe concurrent door de producent of een reviewer die een bepaald scherm de hemel inprijst) dat hun scherm inderdaad 'beter' is/blijkt/lijkt, zal die groep met telefoon A wel degelijk voor een maatschappelijke impact zorgen.

In mijn optiek kan dit als medeverantwoordelijk worden gesteld voor de eeuwige strijd tussen Apple die voorheen lagere resoluties gebruikte (nog steeds t.o.v. de 1440p en 4k schermen) en Android telefoons die over het algemeen eerder begonnen met het gebruiken van schermen met een hogere resolutie.

[Reactie gewijzigd door rubenkemp op 22 juli 2024 15:06]

Wat een kul. Als we zo gaan redeneren, zijn er nog duizend en één dingen die we beter eerst kunnen doen dan het aanpassen van de resolutie van je smartphone scherm haha.

Die content wordt maar een paar keer opgeslagen en met de huidige staat van de techniek is er geen verschil met 4k nu en full HD een paar jaar terug. Protocollen, bandbreedte, opslag capaciteit en toegangssnelheid, etc etc is allemaal toegenomen.
Wie bepaalt wat 'scherp genoeg' is? Niet de consument maar het bedrijf achter de telefoon.
Welke consument interesseert het genoeg? Niet de gemiddelde consument.

Ik kan me zo voorstellen dat wat in dit artikel wordt geschreven (verwijzend naar de titel alleen al) 5 jaar geleden ook over de stap van 720p naar 1080p werd gezegd, en dan is het wel mooi dat er nu een artikel wordt geschreven met tal van 'bewijs' en toelichtingen bij berekeningen van pixeldichtheid etc., maar blijft het niet puur subjectief?

Men kan niet ontkrachten dat het verschil tussen 1080p en 1440p (of hoger) niet te zien is indien het gaat om afspelen van films met gelijke resolutie.

Bij het maken van foto's of het lezen van lange stukken tekst zie ik liever een 1440p scherm dan een 1080p scherm.

[Reactie gewijzigd door rubenkemp op 22 juli 2024 15:06]

Ik zelf geloof het ook niet echt. Als ik soms in bed op mijn telefoon kijk, dan zit dat ding enorm dichtbij. En waarom niet?

En gaan we nog wat met VR doen? De telefoon op je neus? Dan zijn de huidige resoluties nog lang niet genoeg.

http://imgur.com/gallery/TGqwf4Q

En dan zijn er plaatjes zoals dit, er scherp en dan is er scherp.

Ik heb voor mij een groot 4k scherm en hoewel ik niet claim pixels te kunnen zien zie ik bij een wit vlak toch een patroon, het is niet egaal wit, een zelfde effect als een wit vel papier, je kan de structuur zien.

Het betekend ook dat deze letters die ik nu type OF precies uitlijnen per pixel OF toch een kleine verkleuring laten zien. Ze zijn redelijk scherp maar nog niet perfect. Je kan ook nog zien dat ze opgebouwd zijn als pixels in een raster, zeker de letter k. Een lijn van 1 pixel dikte is nog steeds zeer herkenbaar als een zigzag van pixels.

Het kan dus nog beter want het mensenlijk oog heeft welliswaar zijn limieten (die nog niet echt bereikt zijn) maar het oog lijnt niet op met het scherm. Wil je dus echt geen pixels meer kunnen zien is het niet genoeg om een resolutie gelijk aan het menselijk te hebben maar moet die hoger zijn.

Als je een reactie schrijft, kijk eens naar het icoon rechts met de kleine S onderaan. Niet echt netjes op mijn 4k scherm, niet genoeg pixels om het perfect te renderen.

Resolutie kan nog beter en ik weet zeker dat dit ook gaat gebeuren.

Het verhaal van "het is nu genoeg" herhaalt zich om de zoveel jaren. En dan wordt de race weer ingezet.
Bij het maken van foto's of het lezen van lange stukken tekst zie ik liever een 1440p scherm dan een 1080p scherm.
Op een smartphone?????
Ik lees graag een boek in de trein en dat doe ik inderdaad op mijn smartphone
Ja maar ik lees dit op een smartphone met een lagere res dan full hd en ik zie op 20 cm al geen pixels meer. Alles netjes geanti-aliassed en strak.
Kan me dus niet voorstellen dat je meer dan hd nodig hebt om deftig een boek te lezen.
Tablets kan ik me nog indenken vanwege het grotere scherm
Mischien dat jij ontzettend kleine fonts hebt ingesteld voor je reader?
Zodra je antialiasing nodig hebt, kan je dus pixels onderscheiden. Anders zou antialiasing niet nodig zijn.
Tada! Het is niet dat de huidige resoluties onbruikbaar zijn.

Maar het kan nog beter. En de mens zal toch altijd proberen verder te gaan. En vroeger of later wordt dat dan weer gemeen goed.

Ooit hebben we 24k schermen en zullen mensen zeggen, 20k is genoeg voor iedereen. En in een lab zijn ze dan bezig met 48k :9~
Zodra je antialiasing nodig hebt, kan je dus pixels onderscheiden. Anders zou antialiasing niet nodig zijn.
AA is eigenlijk altijd nodig en is een natuurlijk iets.
Als jij je pixels zo klein wilt hebben dat je zonder aa geen pixels meer ziet dan ben je best wel aan het brute forcen.
Daarnaast, ga je dat beeld vervogens samplen dan ga je aliasing krijgen als er geen AA op zit.
Het beeld zonder AA kan je dus eigenlijk zien als een niet correct gerenderd beeld. Vandaar dat ik AA erbij haal.
Dat zou kunnen, maar op mijn 5.7 inch scherm (LG V10) lees ik witte letters op een zwarte achtergrond 's nachts op een kleine afstand van mijn gezicht (<20 cm). Het hebben van een scherp scherm bevalt mij goed.

Ook bij het maken van foto's en video's is het handig om de hoge kwaliteit die wordt geleverd door de camera op de smartphone direct terug te kunnen zien.
Toch zie ik altijd genoeg reacties van mensen hier die zweren dat ze echt wel verschil zien tussen full-HD en quad-HD. Zelfs bij normaal gebruik.
Ja, totdat je ze een test laat doen met normale gebruiksomstandigheden (niet op 1 cm afstand), waar ze niet weten welk scherm wat is.

De menselijke hersenen zijn raar. Als je graag wilt dat iets waar is, dan kun je je daar in zulke gevallen makkelijk van overtuigen.
En zit het verschil wat ze zien dan in pixels, of de kleur en helderheids verschillen van de schermen die ze vergelijken?

Ogen hebben namelijk ook maar een beperkt aantal "pixels" dus die zijn ook beperkt. Het is niet dat iemand 4 keer zoveel "pixels" heeft dan een gemiddeld mens.

(Met "pixels" bedoel ik natuurlijk de kegeltjes en staafjes in je oog die licht detecteren)

[Reactie gewijzigd door gjmi op 22 juli 2024 15:06]

De resolutie van het menselijk zicht wordt niet bepaald door het aantal kegeltjes maar door hoe goed je kunt scherpstellen. Mensen die een bril nodig hebben hebben niet minder kegels, alleen minder ronde ogen
Precies. Dus uitgaande van goede ogen kun je op een gegeven moment geen verschil meer zien. En dat sommigen beweren van wel.... dan zouden ze, met perfect oog, veel meer receptoren dan normaal moeten hebben. En dat kan niet. Dat bedoel ik.
misschien, maar de resolutie die daarvoor nodig is hebben we nog niet bereikt. Gaat natuurlijk wel gebeuren in de toekomst
Die hebben we al lang bereikt. Kun jij afzonderlijke pixels zien op een 4K telefoonscherm?
Nee, waarschijnlijk niet. Maar ik heb dan ook geen 4K scherm
Als je graag wilt dat iets waar is, dan kun je je daar in zulke gevallen makkelijk van overtuigen.
Maar dat is toch prima dan? Als de onwetende consument een 4k scherm verkiest boven een 2k scherm en het vervolgens denk te zien dat is het doel toch bereikt? Wie zijn wij dan om betweterig cijfertjes rond die mensen de oren te slaan en te roepen "je kunt dat helemaal niet zien"?
Verwijderd @PGB837 mei 2017 12:53
Ik heb ooit een artikel gevonden wat wetenschappelijk onderbouwde dat 900ppi de absolute grens is van waarneming. We hebben het dan over een mens met de beste ogen in ideale omstandigheden, een extreme uitzondering.
Op welke afstand is dat scherm dan, die factor moet je ook meenemen. Is dat voor een VR scherm vlak bij je ogen, of een telefoon op 25cm afstand? (Het lijkt me dat eerste)
Praktisch iedereen kan het verschil zien en dat is ook een beetje het probleem wat ik met dit artikel heb. De waarheid is namelijk dat er softwarematige trucs uitgehaald worden vanwege de beperkingen van de huidige schermen.

Bij tekst, ronde vormen en dergelijke wordt er nog altijd anti-aliasing toegepast, waardoor het er blurry uitziet. In een ideale situatie zijn letters gewoon zwart op wit en heb je geen pixels in grijstinten die een illusie van rondingen geven. Dan kom je pas op drukwerkkwaliteit uit.

Ik heb ooit eens een test gedaan waarbij ik een afbeelding met tekst naar puur zwart-wit had geconverteerd en op een 4K scherm bekeek. Het was veel scherper, maar bij de rondingen zag je nog steeds wat karteltjes. Bij Japanse tekens was het ook een stuk beter (probeer die maar eens klein weer te geven).

Als de schermen zo goed zijn dat je anti-aliasing kan uitzetten, dan kan dat zelfs een berg rekenkracht besparen. En als deze gemeengoed worden dan zullen we ons daarna afvragen hoe we in hemelsnaam al die jaren naar die blurry lettertjes hebben kunnen staren.

[Reactie gewijzigd door BarôZZa op 22 juli 2024 15:06]

Het zou best kunnen, je hebt ook mensen die zeggen het verschil te horen bij muziek tussen een gebrande en een geperste CD.
En wat wil je nu zeggen? Dat kan toch ook gewoon. Er is geen enkel wetenschappelijk bewijs in het artikel te vinden dat dat niet zo is.
Dat komt omdat dat uitzonderingen zijn, maar daar kun je geen beleid opvoeren. Dat is hetzelfde als bij politiek beleid. Je zult generalisaties moeten maken. De meeste mensen zullen het verschil niet kunnen zien.
Je ziet het verschil bij foto's en video's. Er is meer detail aanwezig. Ik zou ze zonder problemen uit een test kunnen vissen.

Bij weergave van bijvoorbeeld de Tweakers website lijkt het me dan weer sterk dat ik het verschil zie.

Maar het maakt gewoon echt heel weinig uit. Zelfs bij foto's, je hebt nog steeds prachtig beeld bij FullHD.
nu blijft het wachten op die ene spec die altijd maar is blijven zakken: autonomie van de batterij.
Ik gebruik bewust het woord capaciteit niet, want dat maakt in wezen niet uit: je wil je telefoon terug zoals vroeger een week kunnen gebruiken ipv een dag. Ja het gebruik is anders en de telefoon is krachtiger, maar dat alles is ondertussen al een paar jaar zo, terwijl de toestellen op dat punt achter blijven.
Zoals vroeger? Toen werd een gsm alleen gebruikt om de bellen en te sms'en. Als je alles op je smartphone uitzet en alleen belt en sms't gaat de accu ook bijna een week mee.

Smartphones doen wel degelijk steeds langer met een accu, het probleem is alleen dat mensen hun smartphone de laatste jaren steeds meer zijn gaan gebruiken en daarom je nogsteeds min of meer iedere dag moet opladen.

Maar dat is wel met een screen on tijd van al snel 4 of 5 uur. Mijn eerste smartphone, een HTC touch diamond, was na een paar uur mp3's luisteren al leeg. Met moderne smartphones heeft luisteren van muziek nagenoeg geen effect op de accu, om maar even een verschil te noemen.
Exact, ik heb een test gedaan op mijn S7e met superultrasaving, om het maar even zo te zeggen. Wat je krijgt is een super basaal minimalistische smartphone. Bellen, SMS, Email, Internet. Ik heb er bijna 9 dagen (in mijn type gebruik) mee gedaan!
Verwijderd @dasiro7 mei 2017 12:57
Jammer dat je zoveel weerstand krijgt want je punt blijft overeind: accuduur is het zwakste punt van een smartphone. Als ik de redenering even in het extreme trek: eigenlijk is een apparaat wat niet eens een etmaal zonder stroom kan niet eens echt mobiel te noemen.
Vroeger keek ik naar boven, om te kijken welk dagdeel het ongeveer was. Je ziet aan de lichtintensiteit wel ongeveer of het ochtend/middag/avond is, en met een beetje oefening en geluk , kon je dat adhv de stand van de zon nog wat preciezer bepalen.

Toen kreeg ik een horloge met stopwatch en wat al niet meer, zodat ik niet meer naar boven hoefde te kijken, maar altijd op de minuut af precies de tijd weergaf. Maar wel elke paar jaar die stomme batterij moeten vervangen!
Later had ik om de tijd te kunnen zien, een GSM. Waar ik wel ook mee kon bellen en smsen, maar met enorm veel minder batterijduur, ik moest gewoon elke paar weken opladen!

En nu zijn er smartphones met wifi en breedband internet, GPS, 10(!)x zo groot aanraakbaar quad HD scherm, virtual reality functies, meer CPU en RAM en GPU en opslag dan mijn vorige PC, enzovoort. Maar nu moet ie elke dag aan de lader!

Luister, sommige dingen vreten gewoon energie, het is niet realistisch te fantaseren over hoe je vroeger met een veel beperkter apparaat, langer kon doen.
Luister, sommige dingen vreten gewoon energie, het is niet realistisch te fantaseren over hoe je vroeger met een veel beperkter apparaat, langer kon doen.
Als ik je verhaal zo lees is die fantasie juist reëler dan ooit! De vraag is of je je gaat neerleggen bij wat je nu realistisch noemt of dat je gaat proberen die fantasie na te streven. Ik ben bv van mening dat de enige vooruitgang die er toe doet in telefoons de batterijduur is; dat is het eerste waar ik naar kijk in de specs. Ik snap dat een maand nog niet realistisch is, maar 'langer' of 'zo lang mogelijk' is toch niet raar om te vragen van fabrikanten? Die resoluties mogen ze van mij houden.
Tuurlijk, hoe meer accucapaciteit (sowieso per gram/ml) hoe beter. Maar dasiro doelde expliciet _niet_ op de accucapaciteit, en vergeleek autonomie met een ander apparaat van vroeger.

Ik heb er vertrouwen in dat de fabrikanten ernaar streven te voldoen aan de vraag van de markt. Mensen kopen massaal smartphones met beperkte accuduur, blijkbaar hebben ze dat liever dan dikkere/zwaardere telefoons (die ook bestaan), nou dan weten de fabrikanten genoeg.
Voor wie juist een telefoon met betere/dikkere/zwaardere accu wil, raad ik aan er daadwerkelijk zo een te kopen. Als je er toch een met normale accu koopt, maakt het niet uit hoeveel je klaagt op forums, voor de fabrikant is dat een signaal dat je genoegen neemt met een normale accu.

Verder, moeten ze roeien met de riemen die ze hebben, er is nou eenmaal veel vooruitgang geboekt op allerlei vlakken, en de accu chemie ontwikkelingen gaan daaraan gemeten inderdaad relatief langzamer.
Maar dat is niet zomaar een beslissing van "hee jaa weet je wat, als we nou voor onze volgende foon eens een nieuwe chemie en productieproces uitvinden, dan kan ie langer mee", want dat streven is er al en daar wordt al die tijd nonstop aan gewerkt in de laboratoria.

Je mag erover fantaseren natuurlijk, maar om bij elk bericht van een verbeterde CMOS sensor, betere CPU, meer RAM, en nu dus schermen, maar ook bij berichten over nieuwe uitvindingen op accugebied, steeds weer dezelfde reacties te zien...
Ja, we weten het, iedereen wil meer accu, de fabrikanten weten dat ook en daar wordt aan gewerkt.
Mensen die echt meer accu willen kunnen gewoon een nokia 3310 kopen, ze zijn er weer
Dan koop je toch een toestel dat zich daar op richt? Kleine display enorme batterij. Zijn er zat die daaraan voldoen en minstens 4 dagen meegaan.
akkoord dat sommige dingen energie vreten, maar het is geen of/of verhaal. Kijk naar wat er in de laptopmarkt gebeurd is: vroeger kon je rondslepen met een baksteen die na goed 2 uur werken leeg was, nu zit je nog rustig verder te tokkelen als het al na sluitingstijd is, daar is ook wifi, 4g, gps, een snellere cpu en beter scherm in gedropt. Daar is de autonomie met 300% gestegen ipv met 80% gedaald.
Vroeger hadden laptops een veel kortere accuduur omdat de chips veel meer verbruikten, nu is dat grotendeels weggeoptimaliseerd (een fase die smartphones hebben overgeslagen) en is het scherm de grootste verbruiker, net als bij smartphones.
Laptops hebben een ca 5x zo groot scherm en accu als smartphones, dus dat kan je tegen elkaar wegstrepen.

Maar de wifi/4G/GPS verbruiken nog steeds grofweg evenveel als een smartphone (iig niet 5x zoveel), dus heeft dat bij laptops een veel kleinere impact op batterijduur.
Daarnaast, telefoons zijn van 2" reflectieve monochrome LCD naar 5" backlit/oled gegaan, dat is ook weer onvergelijkbaar met laptops.

Ik neem aan dat als ze iets kunnen optimaliseren, ze dat ook doen, maar dat heeft gewoon tijd nodig om te ontwikkelen. Kijkend naar de ontwikkelingen qua laptop stroomverbruik in het verleden, kan je dat niet zomaar extrapoleren naar de toekomst en devices met andere verbruiksposten.

edit: wel eens van Mirasol displays gehoord? Dat kan iig wel veel schelen qua accuduur, wat mij betreft mogen ze daar telefoons mee uitbrengen maar om eoa reden doen ze dat niet (te donker?).

[Reactie gewijzigd door N8w8 op 22 juli 2024 15:06]

ik maak ook geen 1 op 1 vergelijking, maar de evolutie gaat gewoon compleet de andere richting uit, terwijl er toch vergelijkbare vernieuwingen zijn
Leuk geschreven :)

En ja, de techniek op gebied van accu's gaat nog niet bijna zo snel als de techniek van elektronica. Het is heel gewoon geworden om een smartphone elke nacht op te laden. Het maakt niet zo heel veel uit want in de nacht gaat laden het allersnelst. Je doet je ogen dicht en als je je ogen weer open doet is de accu vol.

Het opladen van 1 accu elke nacht is geen probleem, maar waar het probleem zit is het bijhouden van meerdere accu's. Laptop, smartphone, elektrische fiets, scheerapparaat en meer mobiele apparaten op accu. Het is bijna ondoenlijk om alle apparaten in een nacht op te laden. Je zult bijna een agenda moeten bijhouden van wanneer je iets gaat opladen om ervoor te zorgen dat je niet met verassingen komt te staan zoals een lege accu.

Het zal nog wel eventjes duren voordat accu's zich massaal tegelijkertijd zullen opladen {draadloos}. Voor de smartphone is die optie er wel, maar voor een elektrische fiets is dat niet beschikbaar. Je zult moeten managen van wanneer welke accu een oplading behoeft.
Ik ben zeer benieuwd hoe fabrikanten topmodellen gaan onderscheiden van midrange modellen, als de schermen goedkoper worden. Veel meer smaken om aan te passen als het geheugen, soc of camera zijn er niet. Het zal lastig worden voor ze.

Ik verwacht dat ze meer gaan inspelen op vasthoudendheid aan het merk.
Ik gok processoren en camera's. Beide zijn geen goedkope componenten, en op een dure smartphone zou je bijvoorbeeld twee of drie camera's met verschillende brandpuntsafstanden kunnen vinden (groothoek, normaal, portret/tele).

Ook de processor (SoC) speelt een enorme rol. De CPU-snelheid is vaak wel genoeg, maar een dure SoC doet veel meer. Het zorgt voor een razendsnelle LTE-connectie, verwerkt hoge resolutie en slow-motion camera beelden, zorgt voor goed afspelen van geluid, decodeert hoge resolutie video's, bepaald zeer nauwkeurig je locatie, heeft een veel sterkere GPU voor games en VR en doet dit alles zo efficient mogelijk.

Laten we de modernste high-end SoC vergelijken met de modernste instap SoC van Qualcomm:
  • Productie proces: 28nm vs 10nm
  • CPU: 8x Cortex-A53 vs 4x Cortex A73 + 4x Cortex A53
  • GPU: Adreno 505 (48 shaders) vs Adreno 530 (256 shaders)
  • RAM: 6,4 GB/s vs 29,9 GB/s
  • LTE: 300Mb/s down, 100Mb/s up vs 1000Mb/s down, 150Mb/s up
De GPU van de 835 is dus ongeveer 5x zo snel, de A73-cores draaien rondjes om de A53's, de geheugenbandbreedte is 5x zo groot, LTE is veel sneller en kan meer banden samenvoegen. Verder zijn er qua cameraverwerking, locatievoorziening en wifi/bluetooth ook nog gigantische verschillen. Verder is het geheel dankzij het 10nm process ook nog een stuk efficienter.

High-end SoC's zullen altijd duur blijven en dus altijd een factor om je mee te onderscheiden.

[Reactie gewijzigd door Balance op 22 juli 2024 15:06]

Oh nee?
Dual Stereo Speakers zie ik anders nog steeds weinig terug altijd een armzalige Monospeaker.
Ik zie daar de toegevoegde waarde niet van in. Speakers in smartphones geven nou niet bepaald goede geluidskwaliteit. Ook zullen de "stereospeakers" door het formaat van de telefoon relatief dicht bij elkaar zitten waardoor het stereoeffect praktisch wegvalt. Geef mij maar een goede stereo in-ears of headphones.
Daar ben ik het wel mee eens, stereospeakers voegt niet heel veel toe op een smartphone.

Maar in het algemeen kan de kwaliteit van de speakers van veel telefoons nog wel veel beter. De iPhone 7 van een vriend van mij heeft veel betere speakers dan mijn Nexus 6P, bijvoorbeeld. Ik was verbaasd hoe goed het geluid uit zijn iPhone was, zulk geluid heb ik nog nooit gehoord uit alle Nexus phones die ik de afgelopen jaren heb gehad.
Toen ik mijn HTC m8 had gebruikte ik de build-in speakers heel erg vaak thuis om filmpjes te kijken. Nu ik mijn S7 heb een stuk minder doordat het zo'n rottig klein kreng is waar ik altijd met mn hand overheen zit.
Het was voor mij wel degelijk een minpunt.
Als je kijkt naar de telefoons met losse modules zie je het volgende in de modules terug:
- geluidskwaliteit
- fotokwaliteit
- accuduur
Dit zijn dus de onderdelen waar een telefoon beter kan. Sommige merken leveren al een betere dac, andere merken schroeven accucapaciteit al op naar 4000-5000 mAh en er zijn al speciale camera telefoons geweest (niet erg succesvol).
Ik merk (voor mezelf) dat mid-range toestellen zich juist beginnen te onderscheiden van high-end, en wel op batterijduur.
Hogere resoluties gaan vaak ook ten koste van de helderheid van een scherm.
Dat zag je vooral goed toen de LG G3 uitgebracht werd, volgens mij werd dit toen het eerst echt goed belicht.

Tegenwoordig hebben ze die helderheid wel weer op kunnen krikken ondanks de kleine pixels, maar ben ook best benieuwd wat het effect daarvan is op de accu. Vast niet positief...
Dit is inderdaad tevens een valide reden die ik mis onder hoofdstuk 4 'waarom het genoeg zou zijn'.

Hoe meer (sub)pixels des te lager is de (max) brightness. En brightness (gemeten in aantal nits) is nog wel een punt waarop veel smartphones beter kunnen scoren. In de felle zon zijn veel displays nog niet (erg) gemakkelijk af te lezen. Tekst gaat nog maar afbeeldingen en video's zijn een ramp om te bekijken bij bijvoorbeeld 400 nits in de volle zon.
Is dat niet alleen met LCD schermen zo? AMOLED schermen lijken me alleen maar meer licht uit te stralen want "meer OLED's".
Een aantal jaren geleden was een hogere resolutie ook een goede sales pitch. Tegenwoordig heeft een gemiddelde telefoon al minstens full HD resolutie. Er is geen vraag naar een hogere resolutie en het is daarom niet kosteneffectief om te investering hierin (behalve voor VR toepassingen).

Een grotere dynamic range lijkt me overigens nog een welkome ontwikkeling, lijkt me erg tof om neon-achtige kleuren te kunnen zien op mijn scherm.
(...) niet kosteneffectief om te investering hierin (behalve voor VR toepassingen).
De vraag is dus of VR zo'n vlucht neemt dat het toch de moeite waard is.

Laat een mobiele telefoon die daarvoor, met bijvoorbeeld een 8k-scherm, specifiek geschikt is, een paar honderd euro duurder uitvallen. Dan zal de combinatie van die telefoon met een passieve VR-bril vast nog een stuk minder kosten dan een telefoon plus een actieve VR-bril.
als je een telefoon met VR gebruikt, dan heb je een ander probleem: processing power van de GPU en CPU.
Ja met 8k heb je mooi scherpe beelden, maar echt grafische pracht kan een telefoon niet berekenen. Foto en video en simpele graphics.
Als je bedenkt dat je op een PC minstens een GTX1070 nodig hebt om op in verhouding lage resolutie mooie beelden te toveren, kun je je voorstellen dat deze twee soorten VR niet echt met elkaar kunt vergelijken.
Misschien dat er over 5-10 jaar een manier is bedacht om beelden zonder of nauwelijks latency te streamen naar een VR bril of normaal scherm. Dat kan heel de game industry en dus ook VR op z'n kop zetten. Er is dan geen dure pc/console en apparte bril nodig. Alleen een (high end) smartphone en een vr bril houder van 100 euro.
Dan moet daar natuurlijk wel in geïnvesteerd worden. Als de vraag naar vr nu toch niet zo groot blijkt, dan stoppen de investeringen. En misschien zien we dan VR weer terug over 20 jaar.

Vooralsnog is VR voor de meesten mensen net als curved of 3d tv. Leuk voor een tijdje, maar stofhappers na de eerste week.
Zulke servers zijn natuurlijk ook te gebruiken om games streamen naar je tv, laptop of monitor. Die servers zijn dus ook van toepassing zonder VR brillen. De investeringen worden dan sowieso wel gedaan.

Of VR echt aanslaat bij consument over 10 jaar kan ik niet vertellen, denk alleen wel dat een pc of console plus een degelijke bril altijd veel geld kosten en smartphone vr altijd achterloopt (tenzij het streamen lukt), dus daar moet dan we een oplossing voorkomen.
Ik denk dat men dan maar richting de actieve brillen moet gaan, zodra telefoons een interface hebben die 4 of 8k op hoge Hz ondersteunt. Zal inderdaad duurder zijn voor VR klanten, maar goedkoper zijn voor en beter bij de eisen passen aan de ruime meerderheid. Daarnaast zullen VR gebruikers er ook op vooruit gaan, want: betere brillen.
Iedere wezenlijke verbetering aan de smartphone, anders dan betere accuduur, levert concurrentie op met andere productlijnen van dezelfde fabrikant. Grotere schermen (phablet) concurreert met de tablets, meer aansluitingen (HDMI, USB) concurreert met laptop, etc. Langzaam doorontwikkeling van de specs en softwarematig de oudere generatie telefoon onbruikbaar maken door traagheid levert de grootste continue kasstroom op - totdat een nieuw concept ontstaat wat de smartphone in huidige vorm vervangt.

Het zou bv de smartwatch geweest kunnen zijn. Er komt vast wel weer iets nieuws. Ik wacht af en probeer tot die tijd met een goede telefoon steeds zo lang mogelijk te doen. Ervaring leert dat bijblijven met de nieuwste smartphone specs gelijk staat aan teleurstelling en niet die verbetering levert die je hoopte. Zeker niet het aantal pixels boven 720P. :)
Iedere wezenlijke verbetering aan de smartphone, anders dan betere accuduur, levert concurrentie op met andere productlijnen van dezelfde fabrikant.
Op zich klopt dat, alleen zijn er een aantal fabrikanten die die andere productlijnen helemaal niet voeren. Daarnaast hebben juist twee fabrikanten die dat wel hebben, Samsung en Asus, juist uitbreidingen voor hun telefoons gemaakt die laptop-achtig gebruik mogelijk maken.

[Reactie gewijzigd door Zer0 op 22 juli 2024 15:06]

Klopt en niet zo gek ook. Goedkope laptops waar die apparaten mee concurreren hebben 5 tot 10x zo weinig marge. Samsung verkoopt je dus ook veel liever een telefoon die als computer bruikbaar is dan een laptop van die prijsklasse.
Niet alle fabrikanten hebben alle producten in hun portfolio. Hierdoor heb je juist ook innovatie precies zoals je het beschrijft.
Maar wat is scherp genoeg? Naar mijn mening +-400 ppi, dat is de sweet spot. Daarboven zie ik het verschil niet, daaronder duidelijk.

Op budget toestellen vind ik een mindere ppi geen probleem, maar bij een premium toestel zoals de reguliere iphone wel. Ik zie duidelijk dat dit scherm scherpte mist. Ik snap ook niet van apple dat ze de plus versie een hogere ppi geven. Is de ppi van de 7 dan te laag, of van de 7plus te hoog?
PPI. Leuk, maar wat is de kijkafstand??
Gewoon normaal gebruik. Voor VR zijn schermen van 400ppi veel te weinig. Dat lijkt mij duidelijk. Voor mij is +-330 ppi zoals op budget telefoons en 4.7 inch iphones ook te weinig.

Op dit item kan niet meer gereageerd worden.