Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Wetenschappers werken aan oledscherm met pixeldichtheid van 10.000ppi

Wetenschappers van Samsung en Stanford University werken aan oledschermen met een zeer hoge pixeldichtheid, van meer dan 10.000 pixels per inch. Dergelijke schermen zouden van pas kunnen komen in bijvoorbeeld VR- en AR-brillen.

Het scherm gebruikt een laag van oleds die wit licht uitstralen, die tussen twee reflecterende lagen is gepositioneerd. Daarvan is een gemaakt van zilver en de ander bestaat uit een metasurface met nanostructuren. Die laag wordt door IEEE Spectrum omschreven als een 'bos van microscopisch kleine pilaren', die ieder minder dan een golflengte van licht uit elkaar staan. Clusters van die pilaren, die 80 nanometer hoog en 100 nanometer breed zijn, fungeren als pixels met een grootte van ongeveer 2,4 micron. Dat komt overeen met iets minder dan 1/10.000e van een inch en resulteert dus in een oledscherm met een pixeldichtheid van meer dan 10.000ppi.

Iedere pixel is verdeeld in vier subpixels van gelijke grootte. De kleuren van die subpixels worden bepaald door de ruimte tussen de nanopilaartjes. Bij de subpixel voor rood licht staan de pilaartjes het dichtst op elkaar en bij de blauwe subpixel is er het meeste tussenruimte. Het licht dat de oleds uitstralen, weerkaatst tussen de twee reflecterende lagen en bouwt zich op deze manier op. Volgens de onderzoekers maakt dat het scherm helderder dan traditionele oledschermen.

Afbeelding: Samsung/Stanford, via IEEE Spectrum

Huidige oledschermen hebben in smartphones een pixeldichtheid van zo'n 400 tot 500ppi. Bij VR-brillen is een hogere pixeldichtheid gewenst, omdat het beeld van kleine schermpjes daarin extreem wordt uitvergroot. Dat resulteert in het zogenaamde screendoor-effect, waarbij zwarte lijnen tussen de individuele pixels zichtbaar zijn. De HTC Vive Pro heeft bijvoorbeeld twee 3,5"-oledschermpjes, met ieder een resolutie van 1440x1600 pixels, ofwel 615 pixels per inch. Er zijn VR-brillen met een iets hogere pixeldichtheid, maar die gebruiken lcd's. De HP Reverb G2 heeft bijvoorbeeld twee 2,89"-lcd's met ieder 2160x2160 pixels, wat neerkomt op ongeveer 1057ppi.

Er wordt door meerdere wetenschappers onderzoek gedaan naar schermen met een hoge pixeldichtheid. IEEE Spectrum merkt op dat dit veelal gaat om schermen op basis van microleds, met een pixeldichtheid tussen 10.000 en 30.000ppi. Het Chinese Jade Bird Display en VueReal uit Canada werken aan dergelijke schermen. Het voordeel van de oledvariant zou zijn dat de kleurweergave zeer nauwkeurig is.

Wanneer er daadwerkelijk VR- of AR-brillen verschijnen met een dergelijke hoge pixeldichtheid, is nog niet bekend. Vooralsnog zijn de schermpjes nog niet in productie en gaat het enkel om wetenschappelijk onderzoek. Het onderzoek van Samsung en Stanford is gepubliceerd in Science.

Door Julian Huijbregts

Nieuwsredacteur

26-10-2020 • 16:19

81 Linkedin

Submitter: LongBowNL

Reacties (81)

Wijzig sortering
> De HP Reverb G2 heeft bijvoorbeeld twee 2,89"-lcd's met ieder 2160x2160 pixels, dat komt neer op zo'n 1057ppi.

Dan heb je hier dus 100x de bandbreedte voor nodig om eea aan te sturen. En alles moet SVG worden, en procedurally generated textures om hier goed gebruik van te maken. Dit gaat nogal wat hoofdbrekers opleveren, lijkt me.
In 1e instantie is upscalen natuurlijk goed mogelijk. Vervolgens heb je dan geen screen-door effect (als ik het goed begrijp).
Screen door gaat vooral om de ruimte tussen de pixels die geen licht geven. Die ruimte moet kleiner worden (dat is ook mogelijk met kleinere pixels)
AI Upscaling gaat vast nog wel groeien inderdaad.
Je haalt wat dingen door elkaar zoals @PizZa_CalZone aangeeft. Het komt neer op in totaal een 4k scherm, de grootte van het scherm bepaald vervolgens de PPI.
Wel twee verschillende renders voor links en rechts, geen idee wat dat voor extra performance vraagt ten opzichte van één 4k scherm.
Als je dezelfde schermgrootte aanhoud als de reverb G2 heb je met 10.000ppi natuurlijk wel degelijk 100x de bandbreedte nodig als met 1.000 ppi. Daar heeft @HetMes gewoon gelijk in hoor. Je hebt dan immers 100 maal zoveel pixels om aan te sturen.
> Dit gaat nogal wat hoofdbrekers opleveren, lijkt me.

Ach ja, ik weet nog goed dat we 320x200 als resolutie hadden met 16 kleuren, een CPU op snelheden van hooguit 1Mhz en een totaal geheugen tussen de 16k en 128k.

Toen was überhaupt een paar simpele lijnen op het scherm in real-time tekenen al een hele uitdaging. Als je bedenkt hoe ver we sinds toen gekomen zijn, gaat 100x bandbreedte ook best wel lukken.
Jeetje, en Doom op 320x240 was toen toch echt terrifying ;-)
2160 x 2160 komt grofweg uit op de helft van het aantal pixels van een 4K scherm. Er zitten er hier 2 van in, dus pak-em-beet een 4k resolutie.

Ik weet niet waar je het mee vergelijkt als je het over 100x de bandbreedte hebt, maar ondertussen is 4K redelijk gemeengoed en zullen de hoofbrekers waar je over spreekt reeds opgelost zijn.

edit: oh je vergelijkt het mogelijk met het nieuwe scherm waarover in dit bericht gesproken wordt. Dan is het nog steeds niet 100x de bandbreedte. Je kunt ook een scherm met maar 100 pixels hebben en toch een ppi van 10.000, dus de resolutie en afmetingen zijn erg van belang.

[Reactie gewijzigd door PizZa_CalZone op 26 oktober 2020 17:14]

edit: oh je vergelijkt het mogelijk met het nieuwe scherm waarover in dit bericht gesproken wordt. Dan is het nog steeds niet 100x de bandbreedte. Je kunt ook een scherm met maar 100 pixels hebben en toch een ppi van 10.000, dus de resolutie en afmetingen zijn erg van belang.
Tbv VR is een scherm van een paar mm2 niet voldoende; je wil een zo groot mogelijk deel van je field of view vullen. Dat komt al snel neer op een paar inch diagonaal. Dus ja: veel meer pixels aansturen = veel meer bandbreedte nodig.
Dat zou je mogelijk kunnen oplossen met lenzen.
Niet zonder op minder dpi uit te komen.
dpi gaat over het scherm, als je daarna het beeld vergroot dmv lenzen en dan op je oog laat schijnen doet niets af aan de grootte van het paneel of de DPI van het paneel. Uiteindelijk heb je dan gewoon een 4k paneel, maar dan wat kleiner die je inderdaad met lenzen opblaast.
En dan kom je dus uit op aanzienlijk lagere dpi dan waar die 100x meer bandbreedte op is gebaseerd. Terwijl aanzienlijk hogere dpi juist het doel is van deze technologie.
Stel je even FOV rendering voor met een nieuwe soort display-pipeline;

Je game rendert 180 graden FOV op 1280x720
90 graden op 1024x1024
45 graden op 2048x2048

Als je die over elkaar weet te leggen op de plek waar je met je oog naar kijkt, en dat daar zo kunt aansturen, heb je al die bandbreedte niet nodig, en gebruik je alleen de miniscule pixels waar je ze nodig hebt.

Ons brein sluit invoer van licht af op het moment dat we onze ogen bewegen, en dat zou voldoende ruimte moeten geven om een 90fps scherm op tijd te updaten met de plek waar je je ogen naar richt.

De techniek uit dit artikel is fucking geniaal! Ik kan niet wachten op de foveated rendering pipelines, nieuwe display technieken en volgende generatie VR...
Je kunt geen scherm hebben met maar 100 pixels en een ppi van 10.000 als het scherm 2,89 inch is.
Die HP Reverb G2 heeft een ppi van +- 1000, dus een ppi van 10.000 kost 100 keer zoveel bandbreedte als je op native resolutie werkt.
Daarom zeg ik dat de afmetingen van belang zijn, je kunt nog steeds prima een scherm van 100 pixels hebben met een ppi van 10k. Hij zal dan alleen erg klein moeten zijn. Dit kun je weer potentieel oplossen met de juiste lenzen in een VR bril.
Zonder te spreken over de afmetingen van een scherm betekent ppi niets en gaat die bandbreedte berekening niet op. Tevens is het zo dat wanneer je de resolutie hetzelfde houdt, ppi geen reet uitmaakt voor wat betreft de bandbreedte.

Er worden bijna appels met peren vergeleken.

[Reactie gewijzigd door PizZa_CalZone op 27 oktober 2020 10:08]

Klopt, maar de vergelijking is met de HP Reverb G2, en dan is het dus hoe dan ook 100x als je op de volledige resolutie werkt.
Een scherm van 100 pixels en 10.000 ppi kan prima, maar dat is dan inderdaad een scherm van 1/100 inch. Als je dat opschaalt naar die 2,89 inch van de HP Reverb G2, hou je een ppi over van +- 34.
Als je dan foveated rendering toepast (dus enkel scherp in dat deel van je blikveld waar je daadwerkelijk goed scherp ziet en niet daarbuiten) scheelt dat 80 à 90% aan rendering power.
Denk dat het wel meevalt, en dat ze bijv. een upscaling techniek kunnen toepassen vlak voor het scherm. Het gaat tenslotte - als ik het goed begrijp - niet zozeer om de resolutie van de games zelf, maar de ruimte tussen pixels die door de lenzen van een VR bril overdreven wordt.
Of je lost het op met scherpte voveated rendering: Alleen dat deel scherp waar de eyetracker ziet dat je ogen naar kijken.
Dan heb je hier dus 100x de bandbreedte voor nodig om eea aan te sturen.
Hoe kom je hierbij? Er wordt helemaal geen resolutie genoemd in het artikel.
Wat is de "retina ppi" voor VR headsets?
Ik denk dat dit aardig in de buurt komt..
Dit gaat niet om VR maar AR, waarbij je zo'n display in het montuur van een bril wilt kunnen plaatsen en dan via waveguides naar de ogen brengt.
Die is er niet. Dat hangt namelijk helemaal af van de lenzen. Kleinere schermen zoals deze zullen meer uitvergroot worden. Dat is zeker fijn voor kleinere headsets, maar betekent niet automatisch ook scherper beeld. Uiteindelijk zijn in dit geval dus de resolutie en kijkhoek de bepalende factoren voor beeldscherpte, niet de PPI.
ppd (pixel per degree) data is belangrijker dan ppi voor retina. Dat hang van hoeveel je "zoom" op die schrem.
Dat hang ook van de mensen. Veel mensen rapporteren geen SDE (screen door effect) te zien op de Oculus Quest 2 maar mijn eerste reactie toen ik het krijg was "oh no, nog SDE duidelijk te zien".
Ik heb bijvoorbeeld de Pimax 8K X en Varjo (3000ppi) geprobeerd en ik kond nog een klein beetje de pixels zien.
Wat is de "retina ppi" voor VR headsets?
Met ca een pixel per boogseconde kom je een heel eind.
Het is zoals eerder al vermeld pixels per gegree (of pixels per graad van je kijkhoed) en dit is voor mensen 60 (hoger kunnen de ligtgevoelige cellen en visuele cortex nietgaan)
reviews: Wanneer wordt vr echt realistisch? - Een blik op de technieken van m...
en de maximale kijkhoek is voor het menselijk oog 210° of 150° afhankelijk van hoe je het wiki artikel leest..
https://en.wikipedia.org/wiki/Field_of_view

dus 60*210 12600 pixels (een 10000 dpi schermpje van 1.26" zou dus voldoende moeten zijn)
Opvallend dat er hier twee groene subpixels zijn per pixel. Normaal wordt groen toch altijd gedeeld tussen pixels omdat die kleur dominant is (wij die het beste kunnen zien)?
Nee normaal is RGB, dus 3 subpixels per pixel.

Maar dit is een PenTile indeling. Niet bepaald optimaal, zeker niet als je met een vergrootglas naar het scherm kijkt zoals in een VR headset :-( Jammer want RGB oled schermen bestaan ook gewoon.

[Reactie gewijzigd door GekkePrutser op 26 oktober 2020 17:25]

Dit is geen pentile display, er staat dat er vier subpixels per pixel zijn. Dat zijn een rode, een blauwe en twee groene subpixels per pixel.
Ah okee. Vreemde keuze dan. Want de blauwe verouderen het snelst normaal gezien. Je zou juist verwachten dat er dan 2 blauwe zouden zijn.
Dit zijn witte OLED subpixels, ze slijten allemaal even snel. De kleur wordt bepaald door de afstand tussen de reflecterende pilaartjes waartussen het licht heen en weer kaatst, waar alleen een bepaalde frequentie uit ontsnapt (zoals met het iriserende effect van vlinder vleugels). Dit moet mooie heldere en pure kleuren opleveren.

Waarschijnlijk ook meteen handig om het patent van LG mee te omzeilen, dat witte OLEDs gebruikt in combinatie met kleurfilters.

Er zijn twee groene subpixels omdat groen de meest heldere primaire kleur is.
Er zijn in dit ontwerp geen fysieke subpixels (zoals dat met OLED TVs behavle die van LG wel altijd het geval is). Het uitgestraalde licht is een fysieke eigenschap en geen chemische. Er is dan dus ook geen slijtage per kleur zoals je dat anders zou hebben met losse LEDs per kleur.
Het is maar de vraag wat je als referentie neemt, het plaatje (artist impression) geeft twee groene subpixels, maar de tekst in de bron heeft het over: "In each pixel, the subpixel with the most densely packed nano-pillars yields red light; the one with moderately densely packed nano-pillars yields green light; and the two with the least densely packed nano-pillars yield blue light." Overigens roept dat ook weer vragen op, want als de kleuren het gevolg van interferentie zijn want moeten die kleurmaskers dan in de tekening? Daarbij, blauw heeft de kortste golflengte van de drie.
Daarbij, blauw heeft de kortste golflengte van de drie.
Ik snapte die ook niet helemaal. Ik dacht misschien werkt het doordat men dan dus juist bepaalde frequenties door wil laten, en dus moet het passen maar dat dat strookt dan niet met de kleinere ruimtes voor rood en groen. Ik heb zo een idee dat de artist impression niet nog eerst langs de researchers is gegaan ;).

Als je 1 specifieke frequentie door wilt laten maak je de ruimte net groot genoeg voor die frequentie en de rest wordt verder door diffuse verspreiding niet gepolariseerd en niet op de juiste manier weerkaatst, maar geabsorbeerd door die pilaartjes oid.
voor toepassingen in vr en ar brillen...ok
en wat heb je nodig om zo'n scherm aan te sturen ?

geloof niet dat er een hdmi spec of iets bestaat dat zo'n scherm op meer dan 5hz kan aansturen. laat staan de nu al minimaal 90hz standaard op de vr brillen.

en zelfs voor een game als minecraft op die resolutie zul je toch een paar rtx3090 kaarten in sli moeten zetten denk ik.

kunnen we die (voor nu) nutteloze pixelrace niet ff een halt toe roepen ?
zelfs de snelste 3d kaarten op de markt krijgen veel spellen in 4k60 nog niet eens gehandled. laat staan dit soort vr-dromen.

mja, zal vast vet zijn als dit over 50jr op de markt komt...
Wie zegt dat ze er 30+inch schermen mee willen maken?
niemand

maar het artikel geeft aan dat het voor vr en ar toepassingen is...

en dat de huidige max ppi voor deze apparaten ongeveer 1000ppi is voor 2 4k schermpjes in je bril, en voor oled net de helft...

dat komt neer op bijna exact 20x zoveel pixels per scherm voor deze futuristische onzin...

succes met het aansturen daarvan...
Als men over 15 jaar wel de hardware heeft om dergelijk resoluties aan te kunnen dan is het ook wel handig als er (bijna) schermen zijn die dat weer kunnen geven. En hoe langer die op de markt zijn en hoe meer er gemaakt worden hoe betaalbaarder het word.
Ook al schaal je HD content op, in elk geval ben je van het screendoor effect af. En technieken die de gebieden die het scherpst in beeld komen gedetailleerder renderen bestaan ook al, dus die kunnen hier ook van profiteren.
Over 50 jaar kan je misschien je bewustzijn wel uploaden in een game :) denk het niet maar, zou wel de ultieme ervaring zijn.
Zijn kleinere schermen ook een voordeel voor VR brillen ivm de lenzen? Dus is het eenvoudiger / goedkoper om goede lenzen te maken voor een kleiner scherm dan een groot scherm?
Hoe groter het scherm, hoe groter de lens moet zijn. Een grotere lens zal ook duurder zijn, maar is ook niet zo praktisch in een VR-bril :)
Klopt, maar als het scherm zeg maar 10x10mm wordt, dan lijkt me niet dat je een veel kleinere lens nodig hebt toch? Hoe zit het met je FOV dan? Dat wordt toch meer bepaald door de lens dan het scherm?
Je wilt kleine schermen omdat een VR-bril wel draagbaar moet zijn.
Hoe je het wendt of keert: een VR-bril is toch altijd behoorlijk lomp. Het is niet voor niets dat er banden aanzitten die over je hoofd lopen: dat gewicht moet je wel gedurende lange tijd kunnen torsen zonder er een nek-hernia aan over te houden. Dus kleine schermpjes met goede, zuivere lenzen zijn wel een vereiste.

En ja: bij grotere schermen zul je ook grotere lenzen nodig hebben (of meer afstand tussen scherm en lens) en grote lenzen zijn DUUR. Zeker wanneer de vergroting aanzienlijk is, zijn onzuiverheden extreem storend. Dus als je de yields goed wil houden, zijn kleinere lenzen zeker te prefereren. Een hogere DPI betekent dus dat je kleinere lenzen kunt inzetten en dat komt ook de draagbaarheid ten goede.
Of gewoon de headset en bijkomend materiaal zo licht mogelijk maken? Beetje hetzelfde als dat er tegenwoordig 'normal sized' muizen zijn van 50~60g (zonder holes) die vroeger minimaal 100~120 waren.

Gewoon slim design en materiaal.
Eeh... mijn 18 jaar oude muis had al een stuk metaal als gewicht omdat deze anders te licht was. Deze had ik eruit gehaald voor snellere bewegingen tijdens het gamen. Maakte de instant headshots toch makkelijker.
was gewoon compensatie voor el cheapo kabels
Je oog / netvlies ziet in het midden veel detail en kleur, maar daarbuiten, laat staan aan de randen, niet.

Dus de scherpte / mate van detail van het beeld hoeft alleen hoog te zijn waar je op focust.

Kortom je pupil volgen en daar het beeld op sturen zou al veel data kunnen ‘besparen’. Maakt het wel ingewikkelder maar dit is voorlopig realistischer dan een videokaart die pakweg 2 inch hoog x 2 inch breed x 10.000 dpi = 40.000 pixels x 2 ogen = 800K kuch 80K aan kan. Vooral voor mobiele en draagbare toepassingen, die mensen liever zien dan vaste en bedrade.

[Reactie gewijzigd door breakers op 27 oktober 2020 10:46]

4K (3840 x 2160 pixels) dus is al 8,294,400 pixels.
maar idd een scherm met 10k dpi 2 inch is 400 miljoen pixels, als ik het goed heb. keer 2.

[Reactie gewijzigd door bZrk62 op 26 oktober 2020 19:29]

Pupil tracking is niet eens strikt noodzakelijk. De Quest 1 heeft ook fixed foveated rendering en je went al heel snel om voornamelijk je hoofd te draaien ipv rond te kijken. Ook de lenzen in deze headsets (CV1, Rift S, Quest 1/2) zijn aan de buitenrand fresnel om de dikte van de lenzen te beperken, dit komt echter niet ten goede van de scherpte. Dit soort headsets hebben dus echt een sweet spot die je wil gebruiken en de rest is alleen geschikt voor de periferie van je blikveld.
Volgens mij is iedere pixel nog steeds zo groot als de witte oled pixel die erachter zit, of zie ik dit verkeerd? De kleine pilaartjes zijn enkel om de witte oled pixels te kleuren. Dat kan dan wel een heel fijn bos zijn, dit zou ik niet de afzonderlijke pixels noemen.
Ik denk dat de LED als FALD op micro schaal wordt gebruikt voor helderheid van meerdere subpixels, maar qua kleuren dus tientallen tot honderden verschillende waardes kan geven op dat oppervlak.
Als het beperken van het screen-door effect het voornaamste doel is, is het dan voor VR/AR geen logischere volgende stap om eerst te focussen op het verkleinen van de ruimte tussen de pixels in bestaande displays? Dat lijkt als leek makkelijker te realiseren dan ook meteen het vergroten van de pixeldichtheid.
Nog even en het “ziet” eruit alsof het is zoals je normaal om je heen kijkt. De ontwikkelingen gaan nu echt in snetrein vaart. VR gaat nog veel gaver worden dan dat het nu al.
Ik zie geen vermelding van de helderheid van dit soort displays. De microled displays zijn ook al heel erg klein en vaak zo helder dat je je netvlies zou beschadigen als je er onbeschermd naar zou kijken. Dit maakt het mogelijk om het beeld een paar keer te laten reflecteren voordat het op je netvlies terecht komt.

Verder vraag ik me af hoe snel microled pixels slijten ten opzichte van dit soort OLED displays.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Black Friday 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True