Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 65 reacties
Submitter: player-x

Onderzoekers van Nvidia hebben een manier gevonden om de resolutie van een beeldscherm te verviervoudigen en de refreshrate te verdubbelen. Hiervoor stapelen zij meerdere schermen op elkaar, maakte het Amerikaanse bedrijf maandag bekend.

De onderzoekers pasten de techniek, die zij cascaded displays noemen, voor het eerst toe bij twee lcd-schermen van 7" met een resolutie van 1280 bij 800 pixels. Ze verwijderden de behuizing van beide panelen en plaatsten die op elkaar. Daarbij werd de backlight van één scherm, dat bovenop werd geplaatst, weggehaald.

Vanwege een polarisatieverschil werd er een afstand van een kwart pixel tussen beide schermen gehanteerd. Hierdoor besloeg iedere pixel van het bovenste lcd-scherm, die als 'sluiter' diende, vier pixel pixels van de onderste. Uit de eerste resultaten bleek het concept scherpere afbeeldingen op te leveren dan reguliere lcd-schermen, met name als er werd ingezoomd.

Nvidia cascaded displays

Bij een tweede experiment bootsten de onderzoekers het effect succesvol na bij een andere toepassing. Hiervoor gebruikten zij de lenzen van twee LCoS-projectoren en plaatsten zij die op een breadboard, waarbij de afbeelding van de eerste projector door middel van een zogeheten relay lens gelijktijdig met de afbeelding van de tweede zichtbaar werd. Door middel van een stralingsdeler en een projectielens kon de gecombineerde afbeelding vervolgens scherper worden getoond.

De techniek zou volgens Nvidia met name nuttig zijn voor vr-brillen, zoals de Oculus Rift. Bij die brillen valt een lage resolutie namelijk eerder op, omdat de ogen dichtbij het scherm zijn. Desondanks laat Nvidia niets los over eventuele producten die ook daadwerkelijk met de techniek worden uitgerust.

Moderatie-faq Wijzig weergave

Reacties (65)

ok leuk idee, maar je kan alsnog maar een kleur weergeven per pixel,
kortom je hebt nu 5 pixels die overlappen, 1 overall onderste laagen 4 kwart bovenlaag pixels.
maar je kan die kwarten niet direct aansturen met de exact gewenste kleur gezien deze pixel gedeeld wordt over 4 andere onderste laag pixel...

dus vraag me af hoeveel dit echt helpt, het zal wel erg goed werken tegen aliasing.
Ik denk dat er dan niet een daadwerkelijke verviervoudiging van detail is. De technische resolutie is wel dergelijk zoveel groter, maar in principe heb je nu ook te maken met een geheel nieuwe layout wat betreft hoe pixels gebouwd worden. Waarschijnlijk is daarbij een nieuw algoritme ontwikkeld die deze beeldschermcombinatie aanstuurt om zo toch een zo accuraat mogelijk beeld te geven.

Een slimme samenwerking tussen pixels, zoals bijvoorbeeld ook het geval is bij de rood-groen-blauw-groen streepjespixels layout waarbij groen gedeeld wordt, zou hier ook toegepast kunnen worden. In plaats van dat 1 pixel met 3 subpixels verantwoordelijk is voor een bepaalde kleur, zijn er nu meerdere nodig, en moet er rekenkundig worden bepaald welke pixels wanneer aangaan om gecombineerd met elkaar het juiste beeld te leveren zonder de nieuwe buurpixel te verstoren.

Want inderdaad, zoals je zegt, per onderste pixel heb je 4 bovenste pixels om rekening mee te houden. Als op die 'superpixel', om het zo maar voor het gemak te noemen, een stukje van je totaalplaatje moet worden afgebeeld waarin rood, groen, geel en blauw zitten, heb je al een probleem: op geen enkele manier is dit voor elkaar te krijgen. Om nog maar te zwijgen over de expansie van dit probleem door naar de volgende superpixels door de cascaded layout.

Het is met deze techniek dus niet mogelijk om daadwerkelijk 4x zoveel individuele pixels te tonen. Ik vermoed dat de daadwerkelijke verhoging van detail maximaal 2x is, omdat er simpelweg slechts 2x zoveel pixels aangestuurd worden, en dat dit maximum niet bereikt zal worden doordat er een trade-of bestaat tussen verhoogde anti-aliasing en verlaagde hoeveelheid contrast tussen individuele pixels.
Het is met deze techniek dus niet mogelijk om daadwerkelijk 4x zoveel individuele pixels te tonen. Ik vermoed dat de daadwerkelijke verhoging van detail maximaal 2x is, omdat er simpelweg slechts 2x zoveel pixels aangestuurd worden, en dat dit maximum niet bereikt zal worden doordat er een trade-of bestaat tussen verhoogde anti-aliasing en verlaagde hoeveelheid contrast tussen individuele pixels.
Nee de resolutie word wel degelijk 4x verhoogt, maar die verhoging zal gepaard gaan met met artifacts, zo als ze inde demo uitleggen.

De hoeveelheid is afhankelijk van het te weer te geven plaatje, maar is ook afhankelijk van het algoritme dat het plaatje moet berekenen.
Maar de pixels overlappen toch?
Hierdoor besloeg iedere pixel van het bovenste lcd-scherm, die als 'sluiter' diende, vier pixel pixels van de onderste
Dus dan heb je sowieso een pixel dubbel die niet mee telt.

Maar waarom vier keer? Je hebt twee keer de hoeveelheid van het oorspronkelijke scherm..
Kijk naar het laatste plaatje, je krijgt dus echt 4x zoveel pixels met deze methode, alleen zal niet altijd de pixels met de juiste helderheid of kleur weer gegeven kunnen worden.

Daar je bij deze methode steeds kleuren en helderheidsniveau moet mengen met overlappende pixels.

Een checkers board pattern is bv niet mogelijk op pixel niveau.

Ook harde overgangen met niet mengbare kleuren geven artifacts, de methode is misschien niet perfect, maar daar tegen over staat dat men veel hogere refresh rates per paneel kan gebruiken, daar men van bv van twee afzonderlijke 1080p panelen gebruik maakt ipv van een 4K paneel, En twee goedkope 1080p panelen zijn nog steeds goedkoper zijn een 4K paneel.

Persoonlijk voor mij denk ik dat de nadelen niet opwegen tegen voordelen, maar dat is ook behoorlijk afhankelijk van het gebruikte eind doel.
Ik ben hierom ook verbaasd dat deze techniek zo goed werkt om de framerate te verhogen, de artifacts die ik verwachtten waren bijna afwezig! De artifacts zullen natuurlijk groter worden als de verschillen tussen de frames groter word (hogere snelheid), maar als beide display's 60 frames draaien zal die interval nauwelijks merkbaar zijn bij normale beelden :9~

hopelijk word dit alleen niet gebruikt voor een nieuwe nvidia exclusive :'(
Die video laat ook zien hoe ze met cascaded displays de ververssnelheid kunnen verdubbelen dmv die twee schermen, best interessant.

Dit zou allicht een goedkope manier zijn om zťťr scherpe 120Hz monitors te maken voor een degelijke prijs?

interessante ontwikkeling hoe dan ook :)
je ogen kunnen maar 60hz waarnemen
Dit is simpelweg niet juist. Dat is een fabeltje, vermoedelijk gecreŽerd door een corporatie in de media-industry na introductie van technologie die deze snelheid aankan en/of ter excuus voor het niet verder ontwikkelen van refresh-rate technologie, om mensen de indruk te wekken dat dit het absolute maximum is en je niet meer nodig hebt en oh spek onze portemonnee. Hetzelfde werd gezegd in de tijd dat 30hz mainstream was, dat dit dan zogenaamd de limiet was van je ogen. Fun fact: Complete bullshit.

Onze ogen kunnen veel meer dan 60hz waarnemen. Wellicht is er een bepaalde resolutie waarbij we zeggen dat de beelden vloeiend zijn, maar dit is zeker niet de grens van menselijk visueel waarnemen.

Ten eerste werken onze ogen niet met een totale framerate. Elke receptor, om het maar even makkelijk te illustreren, heeft een eigen framerate. In principe zijn er twee staten: Receptief en Refractair. In de eerste kan het geactiveerd worden door licht wat uiteindelijk een signaal geeft, in het tweede geval is er een complexe pathway die de geactiveerde molecule terugbrengt naar receptieve staat. Dit laatste is de voornaamste bottleneck per individuele receptor. Er is dus geen absolute framerate. Wat je daarnaast wellicht al vermoedt, is dat de framerate per receptor vele malen hoger ligt dan 60hz. Ik kan op dit moment de exacte waarde niet geven, die is ook nog aan onderzoek onderhevig, maar deze ligt zeker hoog in de honderden.

Hoewel het moeilijk is om hogere framerates duidelijk van elkaar te onderscheiden wegens het vloeiend zijn ervan, is er wel degelijk een waarneembaar verschil tussen 60hz en 120hz, tussen 120hz en 180hz, enzovoort.

Bron: Ik heb biologie gestudeerd, de werking van perceptie kwam daar aan bod bij Integratieve Neurobiologie. Andere bron: Geen, weet niet goed hoe ik hiernaar moet zoeken en ik ben eerlijk gezegd gewoon lui. Weet dat de bronnen bestaan, je kan mijn claim nagaan.
Onze natuurkunde docent zei dat je niet meer dan 60 hz kon zien, dan zou hij het denk ik wel fout hebben :)
snap niet waarom mensen een 120hz scherm willen hebben, want je ogen kunnen maar 60hz waarnemen, lijkt mij nogal geld verspilling kan je beter voor hogere revolutie gaan.
hoe hoger Hz hoe beter voor je ogen... omdat het een rustig beeld geeft zodat je geen hoofdpijn krijgt.

60 Hz is niet genoeg, maar boven 100 Hz is ok.

[Reactie gewijzigd door Dark Angel 58 op 29 juli 2014 00:26]

Dat gaat op voor CRT schermen niet voor LCD's. LCD's wisselen de frames niet af met zwart beeld in tegenstelling tot CRT.

Het maakt vooral een verschil bij bewegend beeld dat je probeert te lezen of op probeert te focussen. Beweeg de scrollbar is van deze site. Heel traag op en neer en focus op een stukje tekst. De tekst wordt wazig. Niet omdat het focus punt is veranderd maar omdat de frame rate te laag is om adequaat de refresh rate van je ogen bij te houden. Je ogen missen de informatie tussen de huidige frames die het nodig heeft om de tekst leesbaar te houden tijdens het bewegen.

De hoger de framerate, de makkelijker de tekst nog te lezen zal zijn.

Probeer bij een echt goede 3D film zoals Avatar de snel bewegende beelden scherp te zien. Dat lukt je niet omdat de frame rate te laag is, en de informatie die je ogen proberen uit te lezen er dus simpelweg niet is. Je hersenen vullen die ontbrekende informatie aan. De transitie van het ene naar het andere frame, waardoor je die wazige beelden krijgt.

[Reactie gewijzigd door Seth_Chaos op 29 juli 2014 09:08]

Op zich een goed idee. Voor weinig geld meer beeldinformatie in een relatief laag resolutie scherm. Ik ben alleen wel benieuwd naar het algoritme dat ze gebruiken om de pixels aan te sturen van beide LCD's. Kan dit realtime, of alleen met vooraf voorbereidde beelden? Als het realtime kan is het ook een mooie oplossing als tussenstap tussen 1080p TV's en 4k, een beetje zoals HD Ready (720p/1080i).
Waarom een tussenstap? In principe moet het mogelijk zijn om een extreme resolutie te creŽren door dit bij 4k schermen toe te passen.
maarja als je dit gaat toepassen bij 4K schermen (ofwel resoluties die dan vele malen hoger zijn dan 4K, zul je toch eerst hardware moeten hebben die krachtig genoeg is om dat aan te kunnen sturen, de huidige 4K schermen brengen een redelijke single highend GPU al op zn knieen als je alles op ultra hebt staan (en dus veel objecten etc)...
Zeker waar. Ik zie dat nu ook niet snel gebeuren, zeker niet voor weinig geld. Maar het zou moeten kunnen met 2 4k tv's. Je betaald dan natuurlijk ook voor 2.
TIjdens de video roept ze regelmatig dat het realtime gerenderd is, dus, ja... Maar ik zou de toepassing niet zo zeer zoeken in TV's waar het toch niet zo lastig meer is om gewoon een echt 4k scherm te maken, maar zoals in de video ook getoond vooral in head mounted displays en beamers omdat je daar echt nog een uitdaging hebt omdat je een hogere resolutie wil op een kleiner schermpje.
Maar hoe veel backlight is hier dan voor nodig? Dat zou nogal een probleem kunnen worden in verband met stroomverbruik, willen ze het een beetje draagbaar houden.
Met led valt het stroomverbruik wellicht nog binnen de perken, maar ik vroeg me ook al af hoeveel sterker de backlight moet zijn om dit fatsoenlijk te kunnen gebruiken. Aan de andere kant heb je bij een VR-bril niet zo'n felle backlight nodig omdat je niet met direct zonlicht rekening hoeft te houden.
Als ik zelf al kijk bij mijn telefoon, op de laagste helderheid krijg ik in het donker pijn in mijn ogen, maar kan ik buiten niet eens zien of het scherm uberhaubt aan is.
Of je nu een of twee LCDs gebruikt, is niet zo een groot verschil, daar de LCD zelf behoorlijk transparant is.

Laten we zeggen dat het LCD gedeelte van het paneel 90% tot 10% licht door latent is, met deze techniek word dat 80% tot 5%, dat betekend dat je wit wat minder helder word, maar je zwart wel een heel stuk zwarter worden.
Offtopic: dan moet je een telefoon met een beter scherm halen

Ontopic: het lijkt zo logisch en toch is het pas net echt uitgevoerd. Ik denk echter dat het NOOIT de telefoon brache gaat bereiken omdat iedere fabrikant denkt dat mensen ultra licht wilt met een dikte van minder dan 6mm.
Ik denk echter dat het NOOIT de telefoon brache gaat bereiken omdat iedere fabrikant denkt dat mensen ultra licht wilt met een dikte van minder dan 6mm.
Dat is natuurlijk niet waar. Vroeger waren telefoontjes kleiner en lichter als dat ze nu zijn. Nu wil men meer functionaliteit en daarvoor moet de telefoon groter en zwaarder worden. Als men betere kwaliteit wil dan zijn er best wel mensen die het niet erg vinden als de telefoon een halve milimeter dikker en een paar gram zwaarder wordt. Verbeteringen komen soms tegen een prijs.
Persoonlijk heb ik ook geen behoefte aan een telefoon van 3mm dik.
liever Zelfde maar dan 8mm met driedubbele batterij er in.
En dan moet jij beter leren lezen, ik heb het over de laagste helderheid, niet dynamisch zoals deze normaal staat ingesteld op mijn telefoon waardoor ik het scherm ook prima buiten af kan lezen...
Wat dacht je van een LCD en oled te combineren ,
Het is toch nog op Smartphone/tablet grootte, dus dat valt wel te doen.
Als opleg scherm gebruik je LCD met daaronder het Oled scherm.
Voor een OR niet veel. 2 kleine schermen. :P
Een OR heeft maar 1 scherm..
Ja, maar ze willen dat uitvoeren bij de nieuwe.
Ik heb de backlight van mijn Dell U2410 op 0% staan (zonder dollen) en dat vind ik helder genoeg. :*) Als je niet met je scherm in de volle zon zit dan hebben de meeste desktopschermen toch wel een backlight die helder zat is.

[Reactie gewijzigd door Aham brahmasmi op 29 juli 2014 15:23]

Vraag me af of een variant ook met E Ink schermen mogelijk is.
EInk is niet doorzichtig dus dat zal al niet gaan.
Zal vast even duren voordat dit verkocht wordt.
Ik hoor niemand over het feit dat met het meerdere schermen op elkaar stapelen de panelen dan wel erg dik worden.
Zo dik zijn LCD panelen ook niet als er geen behuizing om heen zit, bovendien zal dit schermfabrikanten juist weer uitdagen om nog dunnere schermen te gaan proberen te produceren, wat ook juist een positieve wending zal zijn.

[Reactie gewijzigd door i8086 op 29 juli 2014 07:57]

LCD's zijn inderdaad niet zo dik, en bovendien gebruiken ze hier maar ťťn backlight voor beide LCD's.
als dit gedaan wordt tijdens paneel fabricage, denk ik dat het paneel zelfs niet meer dan 1mm dikker zal worden.

Daar je ook geen aparte glasplaat meer nodig heb, en alleen een extra LCD laag nodig is
De trend van dunne schermen is al een poos aan de gang en zal gewoon voortgezet worden, met de huidige technieken zal het niet dunner kunnen worden dan momenteel gangbaar is.

Een scherm zonder bezel is kwetsbaar en daarbij ziet het er ook niet uit.
Denk nu even terug aan de vraag die iemand hier een paar weken terug stelde :
"Waarom zijn transparante displays nuttig."
Wel dit kan ook een toepassing zijn.

Qua dikte denk dan eens aan die plooibare displays, die zijn ook meestal flinter dun.

combineer de 2 met hetgeen je hierboven gelezen hebt, en je kan je een redelijk goede voorstelling maken.
En waar baseer jij die wijsheid op?

Het filmpje toont aan dat men het al voor elkaar kreeg om een goed werkende prototype te maken met van de plank gebruikte schermen, dus er hoeft dus helemaal geen nieuwe techniek te te worden ontwikkeld.

Al de problemen die men zou kunnen hebben zijn van mechanisch aart, niet proces technisch.

Deze techniek kan dus heel goed met 1 tot 2 jaar op de markt gebracht kunnen worden, tenzij je dat met even duren bedoelt.
Een prototype maken is iets heel anders dan het geschikt maken voor massaproductie. Misschien is het wel heel duur werk om de 2 schermen precies uit te lijnen en moet hier een nieuwe techniek voor worden ontwikkelt en geÔntroduceerd in de fabrieken. Zaken als een nieuwe controller die hier voor moeten worden ontwikkeld (je moet nu immers 2 beeldschermen aansturen met gegevens uit 1 videokabel van de pc etc.) zullen wel relatief makkelijk te ontwikkelen zijn, al kost dit ook nog wel een goed aantal maanden tot een jaar gok ik zo.

Daarnaast heb je nog andere problemen zoals dat je een veel sterkere achtergrond verlichting nodig hebt om een leesbaar scherm te krijgen. Ik weet nog dat 6-7 jaar terug een lcd paneel 95-98% van het licht tegenhield (zat toen een beamer te maken met een zo'n paneel), als je 4 van die panelen op elkaar stopt moet je dus al een flink sterkere lichtbron hebben dan gebruikelijk. Dit kost een stuk meer energie en is dus zeker in tablets en laptops niet wenselijk. Dan krijg je ook nog eens dat de pixels van het achterste scherm veel donkerder zullen zijn dan die van het voorste scherm. Hier moet men ook een techniek verzinnen om dit tegen te gaan, dit testen, geschikt maken voor massaproductie, meer testen, etc.

@player-x
Dat is wel een totaal andere techniek, ik zeg ook niet dat het onmogelijk is maar het is wel nieuwe techniek die ontwikkelt moet worden, dus een technisch probleem waar je eerder aangaf dat je niet verwachtte dat die er zou zijn.

Er zijn idd ontwikkelingen in de transparantie van lcd panelen maar dit betreft nog altijd niet de schermen die in onze tv's en monitoren zitten daar er vaak nadelen inzitten (lagere resolutie bijvoorbeeld, immers hoe kleiner de pixels, hoe minder licht ze door laten, dit is de voornaamste reden dat hoge resolutie schermen meer stroom gebruiken dan lage resolutie schermen, en vaak ook een minder contrast en mindere kleurweergave).

Die 'onzin' haal ik uit mijn ervaring met beamers bouwen een aantal jaar geleden. Toen had je een 400 watt metaalhalide lamp nodig om door een 12 inch laptopscherm van 1280*720 een beeld te krijgen op een paar meter in een donkere kamer beeld te krijgen. Standaard liet het paneel ~2% van het licht door en als je vrijwel alle lagen/filters van het scherm afpielde kon je soms wel ~4% licht doorlating hebben. Deze 'onzin' kan uiteraard niet op tegen jouwn 'wijsheid' van een snelle google image search naar, jawel, prototypes van technologieŽn die fabrikanten nog niet zo veel aan consumenten durfen te verkopen.

[Reactie gewijzigd door svenk91 op 29 juli 2014 15:31]

Een prototype maken is iets heel anders dan het geschikt maken voor massaproductie. Misschien is het wel heel duur werk om de 2 schermen precies uit te lijnen en moet hier een nieuwe techniek voor worden ontwikkelt en geÔntroduceerd in de fabrieken.
Als men de 3D NAND chips tot op een paar micron uit kunnen lijnen om ze te stapelen, en een prisma achtige laag uit kunnen brengen en uitlijnen voor 3D weergave, denk ik dat dit nu niet direct zo een probleem zal zijn.
Daarnaast heb je nog andere problemen zoals dat je een veel sterkere achtergrond verlichting nodig hebt om een leesbaar scherm te krijgen. Ik weet nog dat 6-7 jaar terug een lcd paneel 95-98% van het licht tegenhield
Waar haal je die onzin vandaan, LCDs zijn behoorlijk licht door latent!
Dit kost een stuk meer energie en is dus zeker in tablets en laptops niet wenselijk.
Op zijn hoogst 2x meer licht dan voorheen, en voor een VR headset scherm met een kleine scherm, is het nog steeds een stuk minder dan een 15 of 17 laptop scherm!
Dan krijg je ook nog eens dat de pixels van het achterste scherm veel donkerder zullen zijn dan die van het voorste scherm.
Ten eerste is dat just andersom, maar leg mij eens uit hoe dat een probleem is, beide houden gewoon 50% het totale licht tegen, de voorste niet meer dan de achterse.
Hier moet men ook een techniek verzinnen om dit tegen te gaan, dit testen, geschikt maken voor massaproductie, meer testen, etc.
Geloof dat nVidia dat allang heeft gedaan en aangetoond hoe dat moet in dat filmpje.

Je loopt volgens mij problemen te zoeken die er niet zijn, ja de techniek heeft nadelen maar niet die jij hier nu opnoemt, en is imho, iig voor budget redenen deze techniek zeer interessant voor VR headsets.

[Reactie gewijzigd door player-x op 29 juli 2014 17:16]

Zeeeer interessante video. Eventjes kijken hoe lang het nog duurt voordat ze op de markt zijn.
dit met 2 1080p schermen of hoger in een oculus rift met g-Sync support voor 350 euro en ik ben een tevreden man. De kans hier op is vrij klein, maar we mogen altijd hopen.
Maar de consumenten versie van de OR zal met een scherm van 2560x1440 of hoger geleverd gaan worden, dus al zeer hoog... En bij VR is 'g-sync' sowieso al nodig want tearing is iets dat je niet wilt zien en de belevenis zeer negatief kan beinvloeden... Maargoed vanaf morgenavond kan ik het zelf bekijken want dan is mijn DK2 binnen... ;)
Dat is nogsteeds maar 1280x1440 per oog, effectief zelfs minder omdat niet het hele scherm word benut dus met deze techniek krijg je een betere beeldkwaliteit, zelfs als je 2560x1440 resolutie schermen gebruikt. En G-Sync zit tot nu toe in geen enkele VR bril dus ik denk dat je G-Sync en V-Sync door elkaar haalt.
V-Sync is in een VR bril ook niet prettg want het zorgt voor stuttering, iets dat je alleen maar beter ziet met een VR bril. Persoonlijk denk ik dat tearing zelfs minder storend is in een VR bril, maar met G-Sync heb je geen van beide.
g-sync is een soort van v-sync, alleen net iets geavanceerder... maar het principe is gelijk,zorgen dat elk frame gekoppeld is aan het tonen van het beeld wat er voor zorgt dat oa tearing weg is..
Ik weet heel goed wat G-Sync is, en ik weet ook dat er niet een VR bril is met G-Sync.

V-Sync matched de refreshrate van de videokaart met dat wat het beeldscherm aan kan, dat is altijd een vaste refreshrate, bij de meeste schermen 60Hz, bij geavanceerde schermen kan het oplopen tot 144Hz.
G-Sync zorgt er voor dat de refreshrate van de monitor zich aanpast op dat wat de videokaart uit stuurt. Dit gebeurd geheel variabel en zorgt er voor dat ieder beeld dat de videokaart genereerd ook op het scherm word getoond zonder vertragingen en zonder tearing.
G-Sync vereist een andere aansturing van het paneel en dus vooralsnog een extra chip in een monitor. Toekomstige monitor controllerchips gaan G-Sync geÔntegreerd krijgen maar er is tot nu toe nog geen enkele fabrikant van deze chips die G-Sync verwerkt heeft zitten in een chip.
De reden waarom V-Sync en G-Sync zo'n groot verschil maken is omdat bij V-Sync een videokaart wel meer beelden kan renderen, maar deze niet worden weergegeven, dit voelt aan als gestotter in een computerspel.
Ik raad aan om waar kan een keer een G-Sync monitor uit te testen, het verschil is (hoewel het misschien niet zo klinkt) fenomenaal. Ik heb hands on ervaring met zowel het nvidia prototype als de nieuwe PG278Q van ASUS.
zijn alleen TN schermen op dit moment, dus dat komt er bij mij niet in....
Dat is logisch, IPS en VA zijn simpelweg te traag om een vernieuwingsfrequentie van 144Hz aan te kunnen. Een enkel VA paneel kan 120Hz aan, maar zover ik weet is er alleen Eizo die een full HD 24" scherm heeft met een VA paneel en 120Hz. Maargoed die ondersteund nogsteeds geen G-Sync.
Vet hoor! Wel is het zo dat als je een schaakbord/dambord wilt weergeven, dat dat dus niet mogelijk is, omdat elke pixel 4 * 1/4 pixel erboven heeft liggen. Dat betekend dus de onderste pixel 2 keer zwart moet weergeven en 2 keer wit, dit kan je nooit voor elkaar krijgen op deze manier. Je moet dan simpelweg een van de panelen gewoon wit maken en dan het andere paneel het schaakbord laten weergeven. De maximale resolutie waarmee dat kan is dus gelijk aan de resolutie van een enkel scherm. Met andere woorden, er zijn situaties te bedenken waarbij deze technologie niets bijdraagt.
ik moet zeggen, de techniek van lcd-schermen kennende (ik heb hier ooit een verslag over moeten maken), dat het mij niet verbaasd dat dit werkt. ik zou er zelf niet zo gauw op zijn gekomen, dat geef ik toe, maar het lijkt mij niet echt een revolutionaire techniek.

wel indrukwekkend dat deze techniek, zonder een grote koste groei, met 2x zo veel componenten een 4x zo grote resolutie en dubbele refresh rate kan bereiken. ik kan mij zeker voorstellen dat dit in oculus rift achtige projecten een enorme bonus kan zijn, doordat je nu 2 goedkopere componenten kan nemen om de prestaties te krijgen van 1 veel gecompliceerder en duurder lcd scherm.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True