Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel belooft minstens vier uur langere accuduur met 1W-schermpanelen

Intel heeft samen met de schermfabrikanten Sharp en Innolux een schermpaneel van 1W ontwikkeld. In samenwerking met andere technieken moet Intels Low Power Display-techniek leiden tot een accuduur die vier tot acht uur langer is.

Intel kondigde zijn Low Power Display tijdens de Computex 2018 aan. Het bedrijf demonstreerde een Dell XPS 13 met de schermtechnologie, die een accuduur van 25 uur en 14 minuten had, gemeten tijdens het continu afspelen van video. Diezelfde laptop zou zonder de techniek een accuduur van 20 uur hebben.

Intel claimt ook een accuduur van 28 uur gemeten te hebben, bij een systeem met een Core i7-8550U met UHD 620-gpu, Intel 600p-ssd en Windows 10. Ook hier ging het om het afspelen van een video, met een schermhelderheid van 150cd/m≤.

De systemen maken gebruik van een fullhd-scherm dat Intel samen met Innolux en Sharp ontwikkeld heeft. De bedrijven zouden het verbruik van zo'n scherm teruggebracht hebben van 2W naar 1W. Details over de Low Power Display-techniek gaven de bedrijven verder niet, maar er zouden geen concessies wat betreft de kwaliteit zijn gedaan.

De verwachting is dat Intel de specificatie aan fabrikanten van laptops gaat adviseren en dat er wordt samengewerkt met Intels in de processor geÔntegreerde gpu. Het is niet de eerste keer dat Intel samenwerkt met schermfabrikanten om het verbruik van schermen terug te brengen: in het verleden ontwikkelde Intel de Panel Self Refresh-technologie, waar LG in 2011 gebruik van ging maken. Hierbij slaat de laptop het laatst getoonde frame in geheugen in het scherm op. Bij statisch beeld kan het systeem dit frame tonen en de gpu sneller en vaker in een energiezuinige staat brengen.

Door Olaf van Miltenburg

NieuwscoŲrdinator

05-06-2018 • 15:03

38 Linkedin Google+

Reacties (38)

Wijzig sortering
De crux hierbij is dat het specifiek gaat om (dom) uitspelen van video, niet bij andere taken. Aangezien de GPU de video in hardware decodeert is dit, zelfs bij HEVC, tegenwoordig een 'lichte' taak. Dan is het niet zo bijzonder dat de batterij erg lang meegaat. Vergelijk het dan met gemiddeld gebruik van de laptop met en zonder de nieuwe techniek.
Deze testen zijn sowieso niet echt afspiegelingen van de werkelijkheid, omdat zaken als WiFi en Bluetooth uitgeschakeld worden. Echter word deze video test door meerdere fabrikanten toegepast, en zo zijn meerdere apparaten (of configuraties) juist goed te vergelijken.

Verder moet je de levensduur van een accu altijd met een korrel zout nemen. Verder doet niemand exact hetzelfde met zijn pc. 'Normaal gebruik' bestaat dan ook niet echt.
En dan wordt er ook nog getest bij 150cd/m≤, dat is vrij laag. Dat ze het verbruik van het scherm bij 150cd/m≤ kunnen halveren wil niet zeggen dat dat ook bij een meer realistische 250cd/m≤ lukt.

Je moet dit gewoon zien voor wat het is: opgeklopte reclame voor een weliswaar leuke verbetering, maar je gaat hier niet de aanschaf van je volgende laptop vanaf laten hangen.
Daar zijn de onafhankelijke, realistische, tests voor.
150cd/m2 is best veel, voor normaal gebruik worden schermen meestal tussen de 80 en 120 gekalibreerd. Eigenlijk gebruik je meer alleen als je buiten in de zon nog steeds je scherm moet kunnen lezen.
Natuurlijk gaat de 28 uur in de praktijk niet op, en kan je met hardwarematige decoding het processorgebruik bij video afspelen flink terugbrengen, maar daar gaat dit artikel eigenlijk niet over. Intel claimt het verbruik van het scherm zelf bijna kan halveren. Bij een low-power setup (dus met een CPU die veel idle is en nauwlijks load GPU/SSD/etc, een standaard office setup) is het scherm van een laptop een relatief flinke stroomvreter. Als ze dat kunnen verkleinen of zelfs halveren, dan doet het veel op de max gebruikerstijd in bepaalde scenario's. Voor de Gaming tijd, met CPU en GPU continue hoog, zal dit slechts minuten schelen. Mooi meegenomen, maar niet indrukwekkend.

Overigens leveren ze niet in op kwaliteit, zeggen ze, en dan is iedere winst mooi meegenomen. Een paar minuten, of kleinere/lichtere accu, of simpelweg voor minder energiegebruik en het milieu.
Als er - zoals beweerd - geen tot weinig concessies aan de beeldkwaliteit gedaan hoeven worden, zie ik deze techniek ook graag zsm terugkomen in normale monitoren. Scheelt een boel energie wereldwijd als dit de nieuwe standaard zou worden (voor op zijn minst kantoormachines), en in de zomer hoeft de airco minder hard aan.

[Reactie gewijzigd door BdK9001 op 5 juni 2018 15:08]

Voor kantoor gebruik kan dit best nuttig zijn.
Maar Pro en Gaming kan het wel weer nadelen hebben. Dit zijn denk ik geen HDR schermen met hoger refreshrates iets wat je voor Gaming/Films en Pro gebruik wel liever wilt hebben.

Maar voor Tekst verwerken lijk het mij prima.
Als de knipperende cursor het enige veranderende item op het scherm is, zou het scherm dan ipv 60x per sec bv 2x per seconde verversen?
Nee, in tegenstelling tot een e-ink scherm, moet een LCD scherm continue verversen om beeld te blijven tonen. Daarom zijn e-ink schermen ook zo energie zuinig.
Maar dit verversen kan dan wel uit een lokale buffer van het scherm. De GPU/CPU hoeven in theorie niet in actie te komen om een nieuw scherm te berekenen. Daar valt nog steeds winst te behalen en is ook waar Intel mee bezig is (geweest)
Nee, in tegenstelling tot een e-ink scherm, moet een LCD scherm continue verversen
Een TFT LCD panel is een sample&hold display, maw er is in principe geen refresh nodig om een statisch beeld in stand te houden.
Echter in de praktijk is een refresh snelheid van 1 update per seconde ruim voldoende voor een statisch beeld.
Daarom zijn e-ink schermen ook zo energie zuinig.
Nope! Ze zijn zo zuinig omdat je geen backlight nodig hebt.

btw Hier gaat het waarschijnlijk om IGZO schermen, die hebben lagere transmissie verliezen.

[Reactie gewijzigd door Carbon op 5 juni 2018 22:26]

Dat is misschien wel irritant bij het typen.
Tijdens het typen heb je maar zoveel frames per seconde nodig als dat jij kan typen om het vloeiend te laten zijn. Dat is het mooie hiervan. Keystroke == screen refresh.
Dat is het idee van die pannel self refresh techniek. Telefoons gebruiken het ook.
Helemaal gelijk, maar die Pro en Gaming schermen zijn dan maar een fractie van de dagelijks gebruikte scherm uren. In een de meeste bedrijven staat een gemiddeld scherm de hele dag aan en meestal zijn dat hele kantoorpanden vol. Daar valt veel winst te halen uit een kleine energie besparing. Die niche van gamers met een stevig gamingscherm gaat de planeet niet om zeep helpen.
Ben ik het ook helemaal mee eens. Als ze 50-300cd/m2 wel kunnen halen (als er te veel zonlicht is) is het goed als de kleuren vergelijkbaar zijn met goede IPS/TN of VA schermen. Dan zeg ik meteen doen.
Dat had ik inderdaad wat duidelijker moeten verwoorden idd :)
Ze zeggen niets over refreshrate, response-time, zwart-waarde of kleurbereik/diepte, enige wat je leest is een 150cd/m2 helderheid.

Als je verder leest dat in die test het dus een 25 vs 20 uur is met deze techniek, dat is dan nog wel een 20% 'verbetering' maar binnen een PC/laptop is je scherm niet snel meer je 'vretende' factor. CPU's met een 125tpd, videokaarten die ver over de 400-500 watt gaan.

En teruggerekend uit die test (20% verschil), zou dat impliceren dat het reguliere scherm dus tegen de 1.20watt zit (dat lijkt met trouwens met 150cd/m2 bijna onmogelijk), dat met bovengenoemde cijfers gaat het toch bar weinig 'energie' schelen als dit een standaard zou worden.

[Reactie gewijzigd door SinergyX op 5 juni 2018 15:25]

Die paar mensen die nog SLI/CrossfireX doen en 400w voor de GPU's verstoken zijn niet erg representatief ;) Zou me verbazen als die groep de 0,1% al haalt...
Voor de rest is het een leuke verbetering als je de performance nodig hebt je dan wel stroom kan besparen op andere componenten zoals je scherm.
Idem voor 125tdp cpu tegenwoordig. Ik zit op 25w met een Quadcore hyoerthreaded i5 op mijn laptop.
hyperthreaded i5?
Hyperthreading is bijna het enige verschil tussen de i5 en i7 lijn. Dit maakt het alleen nodeloos verwarrend. Nu moet je bij elke cpu gaan checken of hij HT heeft en inter heeft 5 miljard mobile cpus dus dat is super veel werk als je een nieuwe laptop wil. Ze moeten dat gewoon een i7 noemen imo. Maar ja ze maken nu ook een 4 core i3 dus ik kan maar beter de hoop opgeven dat er een makkelijk systeem is waaraan je snel kan zien wat een cpu ongeveer kan.

[Reactie gewijzigd door Origin64 op 6 juni 2018 15:01]

Verwarrend was het sowieso al want zelfs tot aan 2017 waren er voor laptops nog dual core HT i7 CPU's
https://ark.intel.com/pro...r-4M-Cache-up-to-4_00-GHz

Wat ik persoonlijk altijd al vreemd heb gevonden.
Dat kon dan nog verklaard worden met de redenering HT = altijd i7 maar dat is nu niet meer van toepassing.

Gelukkig is het bij desktop CPUs nog enigzins overzichtelijk

[Reactie gewijzigd door Origin64 op 6 juni 2018 23:01]

Ik denk niet dat er een laptop is tegenwoordig die een CPU TDP van 125W kan verstoken en daarnaast ook nog een high-end gpu met 275W+. Met een 60Wh accu ben je dan binnen 9 minuten door je accu heen. Zelfs met adapter houd je dat nog geen uur vol aangezien je dan zoveel stroom op laagspanning gaat trekken dat het kabeltje van het blok naar de laptop dit never nooit niet aankan. Je kabels moeten dan beide minstens 10.6 mm^2 zijn (7AWG).

So yeah in een laptop denk ik dat het scherm wel degelijk de meest verbruikende factoris als het gaat om continu verbruik. Huidige laptops hebben CPU’s met een max TDP van zo’n 25W en dan zit je al aan de high-end bussiness kant.
Alleen creŽer je dan wel een grote belasting op het milieu, aangezien dat al die bedrijven de monitoren moeten gaan vervangen.

Als ze moeten wachten totdat de monitoren defect raken, dan is er nog steeds een hoop energie verbruikt.
De systemen maken gebruik van een fullhd-scherm dat Intel samen met Innolux en Sharp ontwikkeld heeft. De bedrijven zouden het verbruik van zo'n scherm teruggebracht hebben van 2W naar 1W
Is dat incl of excl backlight?

Als het excl is, dan zou bij een laptop met een accuduur van 8 uur naar 12 uur betekenen dat de backlight ook 1 wat verbruikt. En dat lijkt mij een beetje weinig.
Met LED en een lage helderheid moet dat opzich kunnen maar dan zie ik ze niet snel 150cd/m2halen. ik vind dat inderdaad ook wel weinig voor een heel scherm.
Je vergeet dat de rest van de laptop ook energie verbruikt...
we hebben het hier over een relatieve winst van 4 uur.

Bij de waarden welke jij noemt, suggereer je dat de rest van de laptop ook maar 2 watt gebruikt. In dat geval zou ik 8 uur accuduur erg slecht vinden.
Waarschijnlijk weer een Intel only tech. Dus of het werkt alleen op Intel iGpu's of ze gaan weer proberen enorme royalties te vragen a la firewire en thunderbolt etc. So thx but no thx.
Tjah, een dergelijk scherm combineren met een Snapdragon 850 gaat denk ik inderdaad niet gebeuren.
Kunnen we van "schermpanelen" -> LCD panelen maken?

Het gaat hier om panel performance inclusief "backlight" aangezien we het over luminance hebben (150cd/m≤). Echter zijn er meer manieren om luminance te creŽren, niet enkel (o)LEDs of CCFLs.

150cd/m≤ is erg weinig, maar zeker goed werkbaar in laag verlichte ruimten.
Wellicht worden hier transflective panelen toegepast? Met "gunstige" lichtomstandigheden kan dit zeer veel invloed hebben op het stroomverbruik.

[Reactie gewijzigd door kid1988 op 5 juni 2018 15:50]

Ze vergelijken op 150cd/m≤, ws omdat dat n standaard waarde is die veel andere tests ook gebruiken.
Dus dat betekent niet meteen dat ie niet hoger kan, of dat de resultaten dan tegenvallen.
Voor binnenshuis is dat ook genoeg, alleen buiten/in de zon heb je liefst meer.
Overigens gebruik ik mijn monitor altijd op 32cd/m≤, als ie lager kon mss wel nog lager (maar ik heb daar alleen indirect daglicht, en een 2W burolamp).

[Reactie gewijzigd door N8w8 op 5 juni 2018 21:42]

Wanneer gaat dit in productie ? Is de vraag.
Eerder, wat gaat het alternatief worden?
Dit lijkt een beetje Gsync achtige implementatie te gaan worden, waar Freesync een zelfde resultaat kent zonder de extra toeslag / vendor lock.

[Reactie gewijzigd door Canule op 6 juni 2018 08:27]

Ik vermoed dat ze het screen on time voordeel teniet gaan doen met een lagere batterij capaciteit om kosten te drukken.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True