Samsung toont oledlaptopscherm met camera achter display

Samsung Display heeft een preview getoond van de Blaze Bezel: een laptop met een bijna-randloos oledscherm en camera achter het scherm. Verder zijn er nog weinig nadere details over de laptop bekend.

Samsung Display heeft de laptop aangekondigd op de Weibo-pagina van het merk, meldt XDA-Developers. Samsung Display claimt dat de laptop een screen-to-bodyverhouding van 93 procent heeft en dus bijna geen rand heeft. Het scherm heeft ook geen gat bovenin voor de camera. Waar andere merken kiezen om de camera te verplaatsen naar bijvoorbeeld een schermrand aan de onderkant, kiest Samsung ervoor om de camera achter het scherm te plaatsen.

De Samsung Blade Bezel weegt 130 gram en heeft een oledpaneel dat 1mm dik is. In de preview toont Samsung geen verdere specifficaties voor de Blaze Bezel. Onlangs liet Samsung Display al weten dit jaar flink in te zetten op oledtechnologie voor laptops, met de aankondiging van tien nieuwe oledpanelen.

Voor het plaatsen van een camera achter een scherm is oled een voor de hand liggende keuze. Bij lcd's is dat lastig, omdat het backlight niet transparant is. Oledschermen kunnen hier via een transparant substraat en de ruimte tussen de pixels wel geschikt voor zijn. In wezen wordt daar al gebruik van gemaakt bij optische vingerafdrukscanners in smartphones, waarbij de camera door de pixels heen kijkt zodra de pixels de vinger verlichten.

Niet alleen voor laptops, maar ook voor smartphones werken veel merken aan het wegwerken van de frontcamera's achter het scherm. ZTE bracht in december de Axon 20 5G uit in de EU, de eerste smartphonecamera die je in Nederland kunt kopen met een camera achter het scherm. Onlangs nam de Chinese displaymaker Visionox een oledscherm met frontcamera achter het scherm in massaproductie. Verder belooft Xiaomi dit jaar smartphones met under-display-camera uit te brengen en in november lekte een Oppo-prototype uit met een in het scherm weggewerkte frontcamera.

Door Stephan Vegelien

Redacteur

14-01-2021 • 11:49

118

Reacties (118)

118
117
32
6
0
76
Wijzig sortering
Lijkt me de way to go, nu nog iets lager positioneren en online meetings voelen weer wat menselijker aan, je kijkt naar je collega's én recht in de camera.
Daar ben ik het helemaal mee eens, maar dan wil ik eerst een fysieke schakelaar waarmee ik de webcam uit kan zetten. Hij kan nu niet meer afgeplakt worden op deze manier. Een simpele software switch is niet voldoende imho.
Toch grappig dat een hoop mensen zich daar een laptop zorgen over maken maar wel uren per dag in een camera op hun telefoon kijken en zich daar nul zorgen over maken.
Telefoon zit in mn zak of ligt plat als ik hem niet gebruik, waarmee zowel de voor als achter camera niks zinvols zien.

Laptops blijven vaak permanent open staan met een perfect overzicht van de hele kamer.

Wat mij betreft is het schuifje echt voor die situatie: waar ik niet op het apparaat gefocused ben, maar hij wel open staat.
Ik klap mijn laptop vaak ook dicht, en leg (ondanks dat die plat ergens ligt) ook vaak genoeg iets over mijn telefoon heen als ik zeker wil zijn dat niemand mee kan kijken. Mijn webcam had ik ook voor coronatijd altijd afgeplakt, ook voor de zekerheid
Dat is de reden dat ik een OP7T pro heb. De camera schuift pas uit als ik deze gebruik.
Idem hier. <3 mijn Poco F2 Pro. Uitschuifbare cameras zijn op telefoons een geweldige implementatie.
Idem hier, ook de 7pro
Xiaomi Mi 9T idem. Lang leve privacy.
Vaak is de telefoon meer voor recreatie gebruik en een laptop meer voor zakelijk.
Toch wordt ik liever in de gaten gehouden tijdens zakelijk gebruik dan tijdens recreatie.
Exactly my point. Een telefoon ligt 24x7 bij je en de microfoon kan can alles opnemen. De laptop staat (als het goed is) meer uit dan aan per dag.
Hm bij mij juist omgekeerd. De PC staat altijd aan als ik op ben, de telefoon ligt ergens in een hoekje op de lader. Waarom zou ik een telefoon gebruiken als ik een PC bij de hand heb :) Sinds Corona gebruik ik hem nauwelijks meer.

Overigens vind ik het met een telefoon net zo goed een probleem. Maar het OS is over het algemeen wel een stuk strikter.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 01:49]

Ik kijk geen uren per dag in mijn telefoon. Daarnaast heeft iOS daarvoor tegenwoordig ook een privacy functie ingebouwd. Je ziet wanneer een app de camera activeert en je ziet welke app de camera voor het laatste gebruikt heeft. Daarnaast heb ik aardig wat vertrouwen in iOS.

In Windows een stuk minder. En wil ik graag de webcam kunnen afsluiten (fysiek).
Ik denk eerder dat het een gevoelskwestie is dat jij meer vertrouwen hebt in iOs (mobiel os) dan in Windows.
Klopt, maar dit kwam dus naar voren dankzij iOS 14.
Daar ben ik ook niet blij mee en zijn helaas weinig oplossingen voor. Voor de iPhone was er de EyePatch case maar deze lijkt niet meer ontwikkeld te worden voor nieuwe modellen.
Toch grappig dat een hoop mensen zich daar een laptop zorgen over maken maar wel uren per dag in een camera op hun telefoon kijken en zich daar nul zorgen over maken.
Ik zou dat op een Android ook geen fijn idee vinden. Op een niet gejailbroken iOS durf ik het wel aan, ook omdat malware in de officiële app store zeldzaam is.
vaak kun je in je bios hem uitzetten en wachtwoord op je bios zetten.

windows erkend vervolgens de webcam niet meer. Natuurlijk moet je hem wel activeren wil je hem dan weer gebruiken.
Maar je wilt 'm snel aan en uit kunnen zetten. Daar is het bios niet geschikt voor.
Verschillende fabrikanten hebben laptops met een fysieke kill switch voor de webcam in designs gestopt. Ook meen ik dat o.a. (Moderne) MacBooks een disconnect functie voor de webcam en microfoon hebben waneer de klep van het apparaat gesloten is.

Artikeltje van een HP met killswitch:
https://www.cnet.com/news...-protect-you-from-creeps/
Met de klep dicht is er ook niet zoveel te zien op de camera denk ik...
Microfoon is dan het belangrijkste denk ik😅
Als iemand zo graag wil horen wat je te vertellen hebt dat een gerichte aanval een optie is zijn er denk ik zoveel andere opties (telefoons, verstopte antwoordapparaten, laser richtmicrofoon) dat je misschien beter helemaal geen apparatuur bij je kan hebben voor je wat zegt...
Op MacBooks gaat het lampje naast je webcam branden, dit is hardware matig geregeld. Kan niet met software aangepast worden.
Dat moet je dan maar geloven. Zal niet de eerste keer zijn dat een fabrikant daarover liegt. (Inclusief Apple. bv encryptie op eerste modellen iPhones)

Daaarom blijft iets dat je zelf kunt verifieren het beste.
Mijn HP Elitebook x360 heeft een fysiek schuifje voor de webcam. Dat schuifje is kleiner en netter dan die killswitch die hierboven genoemd werd. En dan weet ik ook echt zeker dat die webcam niks kan zien.

Ik bedenk nu dat ik nooit geluisterd heb of dan ook de microfoons afgedekt worden. Dat zou heel makkelijk kunnen, maar het lijkt er niet op. Nog een leuk verbeterpuntje.
Ik kan niet zo snel een goede foto vinden. Maar dat schuifje is vrijwel onzichtbaar weggewerkt. Mijn collegas konden dat schuifje niet eens vinden nadat je ze vertelde dat er een schuifje voor de webcam op het scherm zit.
Bron over dat Apple encryption ding? Ken ‘t verhaal niet.
Was in de tijd van de iPhone3 en iPhone4.
De iPhone4 had hardwarematige encryptie zoals vereist is voor beursgenoteerde klanten in de VS.
Apple had echter bij de iPhone3 of 3 ES of zo ook al beweerd dat het hardwarematige encryptie was. Dat werd ontdekt toen de IPhone4.
Een heleboel bedrijven hadden toen ineens een probleem dat ze dus de wet overtreden hadden omdat Apple ze voorgelogen had.
Ik kan me dat nog goed herineren omdat het voor ons ook een zware vereiste was. Gelukkig waren wij pas met de iPhone4 op Apple over gegaan.
Bivakmuts dragen kan natuurlijk ook. Jeetje, waar maken mensen zich druk om.
Weet je sinds wanneer de mensen dit beginnen serieus te nemen? Een aantal jaar terug gaf Mark Zuckerberg een interview, zittend bij zijn laptop, en zijn camera was afgeplakt met zwarte tape. Als de eigenaar van Facebook (ook geen goede reputatie i.v.m. privacy) zo'n maatregelen neemt, moet er iets aan hand zijn,.. nee?
Volgens mij is dit juist beter omdat de pixels voor de camera uit moeten staan voor gebruik. Je ziet dus bij gebruik van de laptop onmiddellijk dat de camera aan staat.
Sommige webcams hebben een (hardware-matige) koppeling met een ledlampje, waardoor je altijd ziet dat de webcam aan of uit staat. Dat lijkt me hier inderdaad geen overbodige luxe.
De video laat het niet zien maar ik ging er altijd vanuit dat de pixels op de plaats van de camera uitgeschakeld moeten worden bij het gebruiken van de camera zodat het licht het beeld niet kan verstoren. Je zou dan zitten met een rond zwart gat bij het gebruiken van de camera. Weet iemand of dit effectief het geval is?
Daar lijkt het wel op in de video. Bij 16 sec. in de video zie je een gat dat langzaam 'dicht' gaat met pixels.

Overigens 'toont' samsung hier geen camera achter een display, maar een concept video waarbij ze een camera achter een display geanimeerd hebben. Nergens in de video wordt een daadwerkelijk product getoond...
Volgens mij valt het wel iets mee; als het OLED substraat aan de achter/zijkant lichtdicht is en je de camera wat verderop laat focussen valt de schermlaag grotendeels weg. Je zou het scherm zelfs nog als extra lichtbron kunnen inzetten...
Een camera onder het scherm op die plaats vind ik eerder een gimmick...
Hadden ze die nu centraal in het scherm gestoken... Dat zou een wereld van verschil maken in de 1000'den online meetings die tegenwoordig doorgaan. Het gevoel hebben dat iemand echt naar je kijk, dat lijkt me waardevol.
Ze moeten aanpassingen maken aan het scherm om er een camera achter te stoppen.

1. Ze passen de pixel lay-out(en volgens mij een lagere resolutie) zodat er meer licht tussen de pixels door schijnt. Dit zorgt voor kinderen beeldkwaliteit.

2. De pixels om de camera heen moeten uitstaan als de camera aan staat als je enige kwaliteit wilt hebben.

Beide dingen wil je niet in het midden van je scherm hebben.
Een gimmick met een security risico.. wat moeten de mensen die hun camera afplakken nu..
Ah want met een afgeplakte camera zijn je laptop en je data en je wachtwoorden en je gebruik en je privé foto's wel veilig?

Ik vind dit altijd zo'n rare redenatie.

False sense of security. Beter zorg je ervoor dat je pc malware vrij is.
Jij doet ook niet je voordeur op slot omdat men ook een raampje kan intikken? Veiligheid en privacy is een som van een hoop aspecten.
Het is wel een som die begint met eerst de grote dingen oplossen, zoals bv. malware.

Ik maak me niet druk over de hypothetische kans dat een "state actor" in staat is via gehackede firmware zonder lampje mij op de foto kan zetten. Als ze daar echt zoveel effort in willen steken kunnen ze mij ook wel door het raam met een telelens opnemen. Of gewoon vragen of ik even wil poseren...

Voor een doorsnee crimineel is dat allemaal veel te duur en veel te veel gedoe. De kans dat je slachtoffer wordt van malware is 1000x zo groot.
Nee precies andersom.

De webcam afplakken en denken dat je dan veilig bent zou ik dan vergelijken met de gordijnen van je huis dicht doen maar de deuren niet op slot.
Daar moet je inderdaad voor zorgen. Daarnaast gewoon lekker je webcam afplakken of het schuifje dicht doen.
False sense of security. Beter zorg je ervoor dat je pc malware vrij is.
Een goede beveiliging is gelaagd. Mijn voorkeur heeft daarom fysieke hardwareschakelaars, zodat je ook nog eens je microfoon kan blokkeren.

Dat is voorkeur, niet eis. Het is niet altijd praktisch. ;)
Met de meeste software-controlled geluidskaarten is het prima mogelijk je laptopspeakers qua werking om te draaien en als microfoon te gebruiken. Als je echt paranoia bent moet je die er ook uit slopen, want niemand heeft daar een schakelaar op zitten.
Als die pixels aanstaan zal de camera hoogstwaarschijnlijk niks tot baggere kwaliteit zien.
Inderdaad, zie toch liever een soort uitschuifbare camera. Scherm ziet er mooi uit maar komt niet in bedrijven met een hoog risico op spionage.
Oleds op maximaal laten schijnen boven de lens :)

Heb je wel altijd een wittig stipje op je scherm natuurlijk. Verre van ideaal.
Grote kans dat die nog enigszins 'te zien' is onder het scherm en in het midden te afleiden zal zijn.
Leuk dat het kan, maar geef mij maar gewoon een camera waarvan ik kan zien of deze aan of uit staat. Ik vind het nog steeds heel erg jammer dat de pop up camera's niet zijn gebleven. Het is al bewezen dat deze lang niet zo snel kapot gaan als dat iedereen bang voor was, mits ze gewoon goed gemaakt zijn.
Ik vind dit altijd een beetje rare insteek. Je kan de camera nog steeds gewoon uitzetten en toegang blokkeren. Bovendien zegt het lampje bij de camera ook niets, uiteindelijk is de software die bepaald of dit lampje aan is of niet, dus weet je uiteindelijk nog niets.

Een popup camera maakt de behuizing van het scherm weer dikker. En dat "mits ze goed gemaakt zijn", telt natuurlijk voor alles. ;)
Ik ben er wat dat betreft nog altijd huiverig voor ook al kan je een camera uitzetten en toegang blokkeren, ze vinden altijd een manier om hem weer te activeren.
Daarom heb ik er zo'n fysiek schuifje voor mijn camera op de laptop zitten, ik zie dat hier niet zo makkelijk gebeuren om die erop te plakken.
Maar ik vind het er wel heel mooi uitzien zo'n dunne rand op een laptopscherm :)

[Reactie gewijzigd door tjempeng op 23 juli 2024 01:49]

Wat een onzinnige opmerking zeg... alles wat virtueel is te hacken BIOS/OS/cam software een fysiek manueel schuifje kan je simpel weg niet hacken.
Een schakelaar die de stroomvoorziening naar een webcam stopt, of gewoon de datakabel onderbreekt is anders ook niet te hacken hoor. het schuifje zit op de webcam en dat maakt het makkelijk bereikbaar.
Want zero-day vulnerabilities bestaan niet?
Als je denkt dat een overheid-achtige partij hun dure zero-day vulnerabilities gaan gebruiken om bij random mensen op de webcam te gluren denk ik dat je hoog scoort op de paranoia schaal.
Want zero-day vulnerabilities zijn alleen bekend bij en worden alleen gebruikt door vijandige overheden?
Wat een gebrek aan kennis zeg.
Zo lang mensen zich nog gewoon door "Microsoft" aan de telefoon laten overtuigen executable code te runnen en dat voordeliger is dan dure zero-days te gebruiken (die na snel patchen niets meer waard zijn) denk ik dat zero-days minder door met hagel schietende ransomware types en voornamelijk in gerichte aanvallen gebruikt worden. Niet dat het niet kan, maar de realiteit is dat op dit moment weinig thuisgebruikers door zero-days worden geinfecteerd (dat is nl. niet nodig, hun systemen zijn zowiezo lek als een mandje)
Het probleem met beveiliging is dat je bij een webcam haast gedwongen bent om software te gebruiken waarvan de veiligheid dubieus is: Skype, Zoom, Teams, ga zo maar door. Je installeert niet alleen de software, maar rich ook je netwerkbeveiliging zo in dat geluid en video het internet op kan. Jou bespioneren is voor degenen die daar toegang toe hebben een fluije van een cent, daar zijn geen kwetsbaarheden in software voor nodig. Vandaar dat geheime diensten zeer zaak inzetten op onvrijwillige samenwerking met techreuzen.

Je kunt je PC beveiligen tegen baldadige tieners die in een computer proberen in te breken, maar de computerbeveiliging is tegenwoordig op een dusdanig niveau dat even een simpel scriptje draaien om binnen te komen er tegenwoordig al lang niet meer bij is en de dreiging ervan tegenwoordig veel lager is.
Als je een beetje goed design hebt dan zitten die camera en het lampje toch op dezelfde stroom-aansluitingen? Lijkt me niet zo moeilijk. Als de camera stroom krijgt, gaat het lampje aan. Dan weet je altijd wanneer de camera aan staat.
Die webcams werken via USB, daar zit altijd spanning op.
Er kan toch gewoon een schakeling in zitten die het ledje én de camera module tegelijk uitschakeld? 8)7
Dan zet je de USB poort toch uit?
Totdat je ledje kapot gaat. :+
Het probleem zit er in dat er geen manier is voor een leek om het verschil te zien tussen een camera die zo werkt en eentje die een 'software controlled' lampje heeft.
Je zal maar een virus hebben die de webcam vrolijk inschakeld.

En niet bij iedere notebook kan de webcam uit in de BIOS (dat lost het probleem voor "99.99%" op), maar een laptop is geen smartphone, fabrikanten hebben dus meer keuzes in hoe ze dit oplossen.

Ik vind de methode die sommige Lenovo laptops gebruiken (gewoon een schuifje) simpel maar het doet wat het doen moet.
Geef mij ook maar een schuifje oid. Ik denk ook dat de issue is dat de mensen die een virus op hun pc hebben staan meestal niet eens weten wat een BIOS is en er niet bewust van zijn dat ze dan bespioneerd worden bijv door potentiële inbrekers (ja klinkt alu hoedje niveau maar dit gebeurd dus echt). Probleem bij camera onder het scherm blijft inderdaad dat je afhankelijk bent van de manufacturer of je 'm volledig kan uitzetten.
Dat was ook mijn eerste gedachte, we hebben feiten genoeg dat camera's uitgeschakeld lijken ,maar wel door spy/malware ingeschakeld kunnen zonder dat het lampje gaat branden.
Zeer recent was een topic over Dell die ze compleet met schuifje levert
Het feit dat iemand een backdoor op de computer heeft en daardoor allerlei informatie onbewust prijsgeeft aan duistere types vind ik persoonlijk relevanter dan of de camera wel of geen schuifje heeft.

Je kan dat schuifje keurig dicht houden, maar als je rustig doet wat de "microsoft medewerker" aan de telefoon vraagt en je bankrekening wordt geplunderd helpt zo'n schuifje je helemaal niks.
Maakt niet uit dat het ander potentieel nog schadelijker is, je wilt zoveel mogelijk schade voorkomen. Het liefste dat niemand meer op phishing emails klikt en backdoors niet bestaan, maar dat is niet realistisch.
Moet je je dan niet meer zorgen maken over keyloggers, dan dat iemand kan zien wat jij doet?
Men moet zich evenveel zorgen maken om beide.

Alleen in het geval van de webcam is dat makkelijker op te lossen.
Alleen de makkelijke problemen oplossing gaat niet echt helpen denk ik...
Nooit gezegd dat een schuifje het probleem oplost.

Maar het is wel zo fijn als fabrikanten zo'n heel simpele optie gebruiken, dat een virus mee kan kijken wat je typed en eventueel data door stuurt is totaal iets anders vind ik, en meer aan de user zelf om erop te letten dat het niet gebeurt.
Ingebouwd schuifje? Zoals sommige laptops hebben, super fijn. Als ik die op mijn laptop verschuif zie ik fysiek iets voor de lens schuiven. Is niet extreem dik.

Het is wel mega gaaf een onder het scherm cameratje maar het is onmogelijk om die te blokkeren. Althans ik ga geen sticker plakken op mijn scherm zelf.
De simpelste oplossing is vaak de beste. :)
Zo'n schuifje maakt idd niet zo heel veel uit, maar het ging om een popup cam.
Nee, die popup cam was alleen omdat je dan kan zien of de camera aan staat / jouw in beeld kan hebben. Niet omdat het perse popup moest zijn.

Dat minieme schuifje is de ideale oplossing. (zo netjes weggewerkt dat de meeste collegas het niet eens konden vinden)
Maar werkt helaas niet voor een camera achter het scherm zit.

Kun je wellicht nog steeds een schuifje maken en een gekoppelde fysieke indicator bij het schuifje. Maar daadwerkelijk zien dat de lens geblokkeerd word kan uiteraard niet.
Inderdaad, maar ja als het scherm al bijna randloos is, is er geen plek meer voor zo'n camera. Dan had ik liever een pop up camera gezien.
En waar moet zo'n popup camera naartoe inklappen als het scherm superdun en randloos is?
superdunne camera? :P
Bovendien zegt het lampje bij de camera ook niets, uiteindelijk is de software die bepaald of dit lampje aan is of niet, dus weet je uiteindelijk nog niets.
Daarom is het ook goed om te weten bij welk bedrijf je een laptop koopt. Een vriend van mij had altijd een specifiek merk laptop omdat het lampje hierbij in het circuit van de camera verwerkt zat. Stond er stroom op de camera dan stond er stroom op het lampje, stond er geen stroom op waren beiden uit. Niks te doen met software. Weet alleen zo direct niet meer welk merk dit was.
Bij HP is dat tegenwoordig ook dacht ik
Zelf heb ik in m'n Spectre x360 een camera-kill-switch naast mijn USB poort die hem hardwarematig uitschakelt. Best wel netjes.
Yep, had het ook nog graag gezien. Maarja duurder en hogere failure rate dan een gat of notch in het scherm. Zag overigens een review van mr mobile over de axon met under display camera: knap, maar het stukje waar de camera achter zit heeft een lage resolutie, en de camerakwaliteit is matig. Ruimte voor verbetering dus, die er vast zal komen.
Ik zag laatst een filmpje over camera achter het scherm wegwerken. Maar de technologie is nog niet zo ver dat je de camera niet ziet.

https://youtu.be/YHZp6b8qJew

[Reactie gewijzigd door aliberto op 23 juli 2024 01:49]

Bovendien mis je met een pop up camera wel waterdichtheid.
Heb zelf de mi 9t pro werkt wel perfect, maar ben als de dood om hem in een plas met water te laten vallen..
Klopt maar dit is een laptop scherm, die zullen de meeste mensen niet buiten in de regen gebruiken of tijdens het lopen.
Ik heb persoonlijk die vrees nooit zo gehad. Heb zelf ook een oneplus 7T pro in gebruik gehad en eigenlijk nooit bang geweest voor aanrakingen met water. Maargoed dat is dan maar net de afweging die je zelf moet maken, en misschien als je een paar jaar verder was geweest en ze het verder ontwikkelden hadden ze het wel waterproof kunnen maken. Jammer dat het idee nu in de prullenbak is gegooid zonder duidelijke reden.
Maar dat is een telefoon, dit gaat om een laptop. Wanneer laat iemand daadwerkelijk zijn laptop in het water plonsen? Omgestoten koffie oid gebeurd weleens maar dan is het relevanter dat het keyboard deck (en touchpad) helemaal dicht zit.
De Gigabyte Aero heeft de camera onder het scherm en boven het toetsenbord geplaatst.

Voordeel: Strakkere bezel voor het OLED scherm
Nadeel: De camera kijkt recht je neus in en ik heb voor een call van zometeen een Logitech aan het scherm hangen... die voor een soort notch zorgt op het scherm :+

Wel met een schuifje overigens, dus uit = uit.
Wat ik zelf ook wel een goede oplossing vond was een klein lipje (/reverse notch) waardoor je gelijk ook de laptop makkelijker kon openen.
Volgens mij is het wel zo. dat wanneer de pixels boven de camera aan staan je zeker weet dat je camera in ieder geval niks kan zien
Het zou fijn zijn als ze per wet afdwingen dat webcams en microfoons hardwarematig aan/uit gezet kunnen worden, het liefst compleet disconnected.
Zou wel een toegevoegde waarde zijn als de camera in het midden van het scherm zou zitten. Op die manier krijg je online conversaties waar mensen elkaar echt recht aankijken. Of krijg je dan een transparante pixel op de neus van iemand op de plek waar de camera zit :+ ?
De Samsung Blade Bezel weegt 130 gram en heeft een oledpaneel dat 1mm dik is. In de preview toont Samsung geen verdere specifficaties voor de Blaze Bezel.
Volgens mij weegt het OLED paneel 130 gram, niet de hele laptop.

Verder mooi ding maar ziet er erg kwetsbaar uit. Zou ook mooi zijn als ze hardwarematige switch hebben voor die webcam, en hoop dat de kwaliteit van het scherm daar net zo goed is als de rest.
Haha scherp. _/-\o_ Als de laptop 130 gram was zou dat het nieuws zijn en had niemand het over die camera!
In de begintijd van de televisie dacht men dat degene voor de camera, bijvoorbeeld een omroeper of nieuwslezer, de huiskamer in kon kijken via het televisiescherm. Met de ontwikkeling van dit soort cameraatjes is die gedachte eindelijk niet zo heel gek meer :+
Oled is wel mooi, maar of dat nu ideaal is voor een laptop vraag ik me af. Oled is niet zo goed in statische beelden doordat de leds dan ongelijkmatig slijten. Op een computer scherm staan nu eenmaal heel wat elementen permanent op dezelfde plek.

Een camera achter het scherm is ook grappig, maar er zijn maar weinig mensen die zich storen aan een camera in de bovenrand. Wie op zijn privacy is gesteld plakt de camera vaak af of plakt er een schuifje voor. Wanneer de camera achter het scherm zit geeft dat toch een probleempje.
Oled is wel mooi, maar of dat nu ideaal is voor een laptop vraag ik me af. Oled is niet zo goed in statische beelden doordat de leds dan ongelijkmatig slijten. Op een computer scherm staan nu eenmaal heel wat elementen permanent op dezelfde plek
Op zich zou je je dezelfde vraag kunnen stellen over smartphones. Ook veel statische elementen in beeld, en toch is het vandaag de standaard geworden. Ook al doen we doorgaans iets minder lang statische dingen met een smartphone dan op een laptop. -Naar mijn ervaring- is enkel Waze een boosdoener geweest voor lichte inbranding na enkele jaren, maar dan nog zeker niet storend. Verder geen last gehad.

Ik gebruik inmiddels een jaartje een Oled C9 TV als Windows monitor (+ gewoon als TV). Voorlopig nog geen enkele vorm van slijtage/inbranden gemerkt. Ik neem wel veel maatregelen, maar ben er wel redelijk gerust in. Zelfs als ik na 2 of 3 jaar heeeel lichte vormen van inbranden zou merken, weegt dat nog niet op tegen het perfecte zwart en de perfecte kleuren zonder backlight bleed of dergelijke.

[Reactie gewijzigd door musback op 23 juli 2024 01:49]

Een telefoonscherm bevat veel minder statische elementen dan een computerscherm. Daar heb je uren achtereen een aantal iconen en een werkbalk op dezelfde plek staan. Vensters zet je ook vaak op dezelfde plek neer. Juist die witte vlakken zijn ook nog eens de oorzaak van de snelste slijtage.
Op een telefoon heb je wel iconen op vaste plekken staan, maar je werkt vaak full screen en swiped de content continu langs. Bovendien komt de donkere modes steeds meer in zwang en die laat de pixels veel minder hard slijten dan een wit scherm.

Voor wie veel werk doet waar kleurechtheid belangrijk is (grafisch/video) is oled natuurlijk een hele vooruitgang. Bij privé gebruik zal de slijtage ook veel minder zijn, zeker niet als je vaak full screen spelletjes speelt of video kijkt.
Zeker juist allemaal!
ik denk ook wel dat als ik de opgesomde maatregelen niét zou nemen, dat het een ander verhaal kan zijn. Dus het is wel een beetje 'bezint eer ge begint' met Oled als PC monitor :-) Maar naarmate de technologie beter wordt komen we er wel!
Ik denk dat OLED heel snel gemeengoed voor laptops gaat worden, vanwege twee cruciale eigenschappen: Energieverbruik en dikte. Beide zijn criteria waar consumenten laptops op selecteren, als het ding ook nog eens mooier beeld geeft, dan is de keus snel gemaakt.

Over inbranden wordt vooral veel geschreven en ja, er bestaan mensen die geen OLED-televisie kopen omdat ze bang zijn voor inbranden, maar die groep is klein. Je moet bedenken dat de meeste schermen in laptops aan hun einde komen doordat het apparaat een keer stuitert. De reparatie-industrie om schermen in laptops te vervangen bestaat al, misschien krijgen ze er een klein beetje omzet bij vanwege ingebrande schermen, misschien verliezen ze omzet omdat OLED-schermen flexibel zijn en minder gevoelig voor breken.
Oled vreet juist meer stroom zodra er helder beeld wordt getoond.
Het gaat om die "zodra": Een telefoon met OLED-scherm doet gewoon langer op een batterij, een reden waarom ze zo populair in telefoons zijn.
Tot op heden is IPS gemiddeld zuiniger dan oled. Het gebeurt maar zelden dat het beeld overweldigend zwart is. Zelfs met darkmode apps waarbij er geen een hele donkere grijstint wordt gebruikt om het contrast niet te hard te laten ogen. Oled schermen zijn in telefoons populair omdat het kleine schermen zijn en mensen het contrast mooi vinden. Oled wordt ontzetten inefficient zodra je de brightness gaat pushen.
Onzin, hier heb heb je metingen, je moet ongeveer 50% wit hebben voordat OLED meer gaat gebruiken dan IPS:
https://www.notebookcheck...onsumption_557e3152b5.png

Kijk eens naar de 5% wit: Dat is een factor veel zuiniger. En met 5% wit kun je heel zinnig een gebruikersinterface weergeven, kwestie van een beetje donkere kleuren in je interface gebruiken en hopsakee, energieverbruik scherm enorm veel lager, tel uit je winst als telefoonfabrikant.
Dat is een meting van een hele tijd terug afgeleid aan de brightness waardes.

Het mindere verbruik is voornamelijk wanneer de pixels uit staat oftewel kleurcode #000000, niet wanneer het een donker grijs of een andere donkere kleur is wat niet absoluut zwart is. Daarnaast zijn de IPS edge lit backlights enorm efficient geworden terwijl Oled flink meer is gaan verbruiken om helderheids niveaus van 500nits en hoger te bereiken.

Je data is dus verouderd en je conclusies kloppen dus niet meer in deze tijd.

"OLED Televisions
While OLED televisions provide a superior picture quality, they do consume more energy than their LED predecessors. On average, a 55" OLED television consumes roughly 98 watts per hour per day, while an LED TV of similar size consumes 57 watts per hour per day. When comparing a 65" OLED, an LED television consumes 88 watts compared to 116 watts for the OLED per hour per day. This amounts to roughly a 53% increase in energy consumption for a 55-inch and a 40% increase in energy consumption for a 65" OLED television."

https://www.rtings.com/tv...tion-and-electricity-cost

https://www.buildwithrise...%20per%20hour%20per%20day.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 01:49]

Je kan mijn data veroudert noemen, maar waar je mee aankomt is volstrekt irrelevant: Wat voor televisies geldt, geldt niet voor laptops, omdat televisies energie mogen gebruiken en in het bijzonder de 500 cd/m² uitsluitend relevant is voor televisies. Een laptop brandt doorgaans rond de 100 cd/m² en dankzij de zuinigheid van oled-schermen kan dat waarschijnlijk wel wat hoger komen, maar dat is het dan.
100nits? dat is niet eens zichtbaar met overhead light. 200nits is het absoluut minimum bij binnenshuis daglicht en zelfs dat is eigenlijk al niet acceptabel qua usability. Een TL buis overstemt het scherm dan al binnen een kantoor setting. In een donkere kamer is 100nits doable. Moderne laptops gaat rond de 400~500 nits. 50% brightness zit doorgaans rond de 250nits to 300nits. 1 van mijn laptops is overigens een Oled laptop (Razer Blade 15 van de zaak en deze gaat sneller door de batterij heen dan mijn persoonlijke met een 240hz IPS paneel). Dan heb ik nog niet de factor meegenomen dat Oled schermen 9 van de 10 keer in laptops met glossy panelen komen en om de spiegeling te elimineren heb je wel een hogere brightness nodig.

Het klopt gewoon niet wat je zegt.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 01:49]

100 cd/m² is zeer gebruikelijk voor laptop, het kan zijn dat ze op maximaal vermogen iets meer kunnen. Voor desktopmonitoren is een limiet van 250 cd/m² zeer gebruikelijk en de huidige met HDR aangeprezen modellen gaan vaak tot 400. Voor laptops zal men niet snel dergelijke schermen plaatsen, vanwege de batterij.

Wijs mij een laptop aan die 400 cd/m² haalt, het enige wat je zult vinden zijn OLED-modellen.

De Razer Blade 15, is dat niet een laptop met dikke Geforce RTX 3000-GPU en desktopprocessoren? Het heeft niet zoveel zin om een LCD-scherm van 8 watt met een OLED-scherm van gemiddeld zeg 4 watt te vervangen als de rest van de laptop dat ruimschoots compenseert.
Nogmaals, 100 nits is niet zichtbaar overdag in een normaal verlichte kamer. Mijn werk is het creeeren van digitale ontwerpen in de vorm van UI's en digital design (UX designer) en in het verleden ook brandassets etc (voor merken als LG, Facebook, Starbucks etc). Beeldschermen zijn eigenlijk mijn professionele leven waar ik minimaal 40 uur per week mee bezig ben. Naast dat alle gecalibreerd is waar ik op werk bezit ik ook de in-depth kennis van wat in context wel en niet werkt op beeldscherm gebied. Wat jij verkondigd hier is gewoon onzin. 100 nits voor een laptop betekent 100nits rond minimale brightness. Geen mens dat overdag een laptop op minimale brightness gebruikt tenzij deze op dat mometn echt de utierste uit zijn battery life wilt halen. Dit is dan voor non reflective panelen het geval.

"Laptops and PCs are mostly indoor creatures, so they don’t need to be as bright. 200 is on the low end but still usable, while above 400 is above average. Not many computer displays go above 500 or 600 nits, and you probably won’t need to use the full brightness on one of those very often. Again, though, you can’t go wrong getting more nits if you have the option to."

https://www.maketecheasie...nit-of-screen-brightness/
De Razer Blade 15, is dat niet een laptop met dikke Geforce RTX 3000-GPU en desktopprocessoren? Het heeft niet zoveel zin om een LCD-scherm van 8 watt met een OLED-scherm van gemiddeld zeg 4 watt te vervangen als de rest van de laptop dat ruimschoots compenseert.
Buiten gaming om gedraagd de laptop zich als een ultrabook en sipt ongeveer 7 tot 12 watt weg en heeft een batterij duur van tegen de 7 uur. Beiden hebben verder identieke specs, maar de Oled variant houdt het zo;n 4.5 uur uit terwijl de resolutie bewust op 1080P gezet wordt in plaats van 4K. Panellook beaamt dit, de Oled schermen verstoken meer stroom. Sterker nog, veel Oled laptops welke de brightness niet gelimiteerd hebben verliezen hun kleurenspectrum omdat de interne display port niet het benodigde stroom kan leveren om een Oled scherm op 100% met een breed kleurenspectrum te voeden.
Ik denk dat je onderschat hoe licht of donker 100 cd/m² is. Ik heb even de max. helderheid van het paneel in mijn laptop opgezocht en dat is toch een heel respectabele 250 cd/m². In die zin onderschat ik dus ook hoe veel licht mijn laptop kan geven. Maar... trek ik de stekker eruit, dan springt het scherm naar 50% helderheid en als ik even geheel niet-wetenschappelijk de aanname doe dat 50% helderheid rond de 125 cd/m² zal zitten, dan is de conclusie dat er op die manier normaal met het apparaat te werken valt. Niet buiten natuurlijk, maar overdag binnen, ben ik niet direct geneigd de helderheid weer omhoog te zetten als ik op batterijen werk.

Terug naar het onderwerp: Dat op mobiele apparaten OLED de overhand heeft gekregen vanwege het lage verbruik is een feit: Er valt energie te besparen. WOLED zoals in televisies is een inherent inefficiënte techniek omdat 50% van het licht tegengehouden wordt. Er zijn ongetwijfeld meer redenen, de link die je gaf vergelijkt het totaalverbruik van een UN8000 met een C7, er zijn een hoop manieren om TV's met elkaar te vergelijken. Dat de C7 meer verbruikt geloof ik direct, omdat het apparaat helemaal geoptimaliseerd is op felle HDR en je lasogen te bezorgen.

De laptopschermen van Samsung zijn geen TV-schermen, het zijn evoluties van de mobiele schermen, geoptimaliseerd voor laag verbruik en ze erven dan ook eigenschappen van die schermen. Ongetwijfeld zal het zo zijn dan als je zo'n paneel op zijn maximale 400 cd/m² laat knallen, dat het verbruik juist een stuk hoger ligt.

Wat betreft jouw persoonlijke ervaring: Een batterijverschil van 4,5 versus 7 uur is onmogelijk door een verschil in scherm te verklaren, daar is iets anders aan de hand, ook al lijken de specs van de laptop wellicht identiek.
Ik denk dat je onderschat hoe licht of donker 100 cd/m² is. Ik heb even de max. helderheid van het paneel in mijn laptop opgezocht en dat is toch een heel respectabele 250 cd/m². In die zin onderschat ik dus ook hoe veel licht mijn laptop kan geven. Maar... trek ik de stekker eruit, dan springt het scherm naar 50% helderheid en als ik even geheel niet-wetenschappelijk de aanname doe dat 50% helderheid rond de 125 cd/m² zal zitten, dan is de conclusie dat er op die manier normaal met het apparaat te werken valt. Niet buiten natuurlijk, maar overdag binnen, ben ik niet direct geneigd de helderheid weer omhoog te zetten als ik op batterijen werk.
Ik onderschat het niet, ik heb een calibratie tool waarmee ik de helderheid kan opmeten. Max 250nits is budget niveau scherm in jouw laptop. Een Macbook doet het dubbele. 250nits is niet respectabel, dat is het laagste wat je in een laptop terug kan vinden. 50% helderheid is niet met de brightness slider is niet 50% van jouw scherm. Aangezien 0% nogsteeds zo'n 50nits aan brightness doorlaat gemiddeld.

[quoteTerug naar het onderwerp: Dat op mobiele apparaten OLED de overhand heeft gekregen vanwege het lage verbruik is een feit: Er valt energie te besparen. WOLED zoals in televisies is een inherent inefficiënte techniek omdat 50% van het licht tegengehouden wordt. Er zijn ongetwijfeld meer redenen, de link die je gaf vergelijkt het totaalverbruik van een UN8000 met een C7, er zijn een hoop manieren om TV's met elkaar te vergelijken. Dat de C7 meer verbruikt geloof ik direct, omdat het apparaat helemaal geoptimaliseerd is op felle HDR en je lasogen te bezorgen.[/quote]
Dat is helemaal geen feit. Dat is jouw aanname. Ook de LCD tegenhangers zijn high brightness monsters (Vaak nog meer).
De laptopschermen van Samsung zijn geen TV-schermen, het zijn evoluties van de mobiele schermen, geoptimaliseerd voor laag verbruik en ze erven dan ook eigenschappen van die schermen. Ongetwijfeld zal het zo zijn dan als je zo'n paneel op zijn maximale 400 cd/m² laat knallen, dat het verbruik juist een stuk hoger ligt.
Ze liggen inderdaad dichter bij de mobiele telefoon schermen (Samsung Amoled), maar 400nits is niet zo speciaal voor een glossy scherm om de reflecties te voorkomen. Samsungs 2019 en 2020 panelen gaan overigens tot zo'n 600nits. Woled daarintegen is bij verre niet zo inefficient meer als dat jij projecteerd. Het is op dit moment nogsteeds de meest effectieve vorm van Oled.
Wat betreft jouw persoonlijke ervaring: Een batterijverschil van 4,5 versus 7 uur is onmogelijk door een verschil in scherm te verklaren, daar is iets anders aan de hand, ook al lijken de specs van de laptop wellicht identiek.
Zijn identiek, zelfde moederbord, SSD etc Geverifieerd door letterlijk serienummers van het moederbord te checken. 9750HQ, 16GB Samsung Ram, 2070RTX MQ, 2TB WD Digital SSD (aftermarket). Het is nou eenmaal een paneel wat stroom vreet (overigens ook vrij warm wordt, een uiting van veel stroomverbruikt.

IK heb je voorzien van bronnen en inzichten, doe ermee wat jij wilt.

[Reactie gewijzigd door Sn0wblind op 23 juli 2024 01:49]

Nu moet ik ducttape op het scherm plakken :) 5/7 privacy.
Alleen is de schermkwaliteit op dit moment nog zeer slecht waarbij een camera erachter gemonteerd is als we kijken naar de smartphone implementaties en die hebben dan nog een hogere pixel dichtheid per inch ook.

Op dit item kan niet meer gereageerd worden.