LG: Apple kondigt later dit jaar iMac met 8k-scherm aan

LG heeft in een artikel op zijn eigen site beweerd dat Apple later dit jaar met een iMac komt die een 8k-scherm heeft. De pagina is inmiddels offline. Apple heeft de iMac met 8k-scherm vooralsnog nog niet aangekondigd.

Apple heeft sinds vorig jaar wel een iMac met 5k-scherm, maar LG noemt de '8k iMac' in een post gewijd aan toepassingen van 8k. De post, waarin LG de hoge resolutie uitlegt , is offline gehaald, maar is terug te vinden via het Web Archive. Het was 9to5 Mac die het bericht opmerkte. De post vermeldt dat de iMac later dit jaar moet uitkomen.

De fabrikant uit Cupertino heeft nog niets gezegd over een eventuele iMac met een beeldscherm met 8k-resolutie. Er waren voordat de post online verscheen ook nog geen geruchten over opgedoken. Het is onbekend of LG het bericht offline heeft gehaald, omdat het daarin iets aankondigde wat nog niet naar buiten mocht komen of omdat het onjuist was. Daar heeft de fabrikant niets over gezegd.

LG is al jarenlang een van de leveranciers van schermen voor Apple-producten. Onder meer in iMacs, MacBooks, iPads en iPhones zitten panelen van de Zuid-Koreaanse fabrikant. De door LG genoemde 8k-resolutie van 7680x4320 pixels zou op een 27"-scherm leiden tot 326 pixels per inch, een pixeldichtheid die Apple eerder gebruikte vanaf zijn iPhone 4-serie in 2010.

Door Arnoud Wokke

Redacteur

07-04-2015 • 11:01

147 Linkedin

Reacties (147)

147
145
89
1
0
0
Wijzig sortering
Ik lees hier veel over de zin en de onzin van een 8K resolutie en het feit dat dit een LG publicatie is die is ingetrokken daargelaten wou ik toch even mijn 2-cents geven over iets wat op het eerste gezicht overkill lijkt.

1) In 2005 op het IBC (International Broadcast Conference) werd ik voor het eerst geconfronteerd met 4K schermen. Dikke industriële monitoren, kaal van features, puur om de resolutie te tonen. In dat jaar was er zelfs de UHD Cinema aanwezig met een 8K scherm en een 22.2CH surround installatie. Natuurlijk was dit destijds onvoorstelbaar want om de hoek werd een demo/enquete gehouden over het uitzenden van HD materiaal waar professionals werd gevraagd of ze 1080i50 met een relatief lage bitrate mooi vonden of liever 720p25 met dezelfde bitrate. Nu is het publiek al redelijk gewent aan het idee van hoge resolutie display's en op innovatie in de PC monitoren markt heeft lang genoeg op zich laten wachten. Het is nu duidelijk dat de UHD specificatie voor consumenten inmiddels 4K én 8K omvat afhankelijk van budget en schermgrootte.

2) Bij ieder artikel over hoge resolutie displays zie ik dezelfde reacties terug komen en dat is de vergelijking tussen kijkafstand en het kunnen waarnemen van pixels. Ik vind dat een slechte vergelijking en jammer dat zeer hoge resolutie schermen om die reden als overbodig worden bestempeld. Het is mijn inziens veel belangrijker om de bottleneck van de beeldpunt volledig te elimineren. Het fijnste detail dat je kunt waarnemen past niet in een pixel, ook een haar heeft een kromming en een dikte waar toch snel 4~9 pixels voor nodig zijn om weer te geven. Misschien lijkt het of ik erg ver ga maar op dit moment is de verplichte verdeling van een X aantal beeldpunten nog altijd een limiet t.o.v. het kijken door een helder raam.

3) 8K op 27", is dat echt zo gek? We zijn allemaal gewent aan: 1920x1080 @ 5" = 440,58 PPI op een smartphone of UHD (4K) @ 15,6" = 282,42 PPI op een ultrabook. Hoe verrassend is dan UHD (8K) @ 27" = 326,36 PPI? 27" is ook maar een aanname van Tweakers, Apple is ook niet onbekend met 30" = 293,72 PPI. En ik zit veel dichter op mijn 27" monitor dan op mijn 46" LCD TV.

4) De ene innovatie maakt de andere mogelijk. Soms moet de techniek bijpoten om aan een vraag te voldoen (bijv. betere CPU performance) maar soms is het ook andersom. De techniek maakt hier een enorm grote sprong zodat er ruimte is voor ontwikkelingen waar wij in het heden ons nog geen voorstelling van kunnen maken. Dus wees voorzichtig met het roepen dat iets zinloos is of slechts een pixelrace, misschien sta je in 2020 in een heel grappig artikel.

5) De beste techniek, en dit gaat zeer doen voor veel tweakers, is onzichtbare techniek ;). Als ik met een apparaat in de weer ben wil ik het liefst niet bewust zijn van zijn specs. Laat een fabrikant het beste scherm maken dat hij kan.
Op zich is zo'n 8K resolutie heel erg mooi en de scaling in OSX werkt ook prima (stuk beter dan bij Windows), maar het probleem zit zich nu meer in de overige hardware. Bij de huidige iMac blijkt al dat diens hardware het niet of nauwelijks kan bijbenen. De R9 M295X heeft nauwelijks genoeg power voor het aansturen van de pixels (gaming is op native resolutie zo goed als niet te doen) en de i7 4790K erin throttled omdat hij te warm wordt (zie bijvoorbeeld hier).

Als men enigszins bruikbare hardware wil hebben horende bij zo'n 8K scherm dan zou men die iMac moeten gaan voorzien van een s2011 CPU (5820K, 5930K of 5960X) en een desktop Titan X (dus geen mobile variant). De huidige iMac heeft met een 4790K en R9 M295X al de boel niet koel kan houden dan gaat dat met de hardware nodig voor een 8K scherm al helemaal niet lukken. En wil men het toch proberen, dan zullen ze eerst flink moeten sleutelen aan de koeling, alhoewel ik betwijfel of het haalbaar is.

Het zou beter zijn als Apple een 8K display uitbrengt in de vorm van een los Thunderbolt scherm. Zo kun je dat desnoods aan een Hackintosh hangen die wel voorzien is van adequate hardware en bijbehorende koeling.
Kan de hardware het qua 'gamen op native resolutie' niet bijhouden of kan de hardware het qua 'weergeven van een vloeiende user interface' het niet bijhouden? Dat zijn namelijk nogal verschillende zaken. Ik denk dat gamen-op-native-resolutie voor de meeste gebruikers niet echt een prioriteit is.

Overigens acht ik de kans zeer klein dat Apple daadwerkelijk van plan zou zijn een 8K iMac uit te brengen: de 5K iMac is pas net uit en ze zijn nog niet eens toegekomen aan de 4K (UHD) variant van de 21,5" iMac.
Een iMac met 8K lijkt me inderdaad wat vergezocht, mede doordat Apple erg nogal aan hecht om eventuele updates qua uiterlijk altijd platter te maken en dat zal niet meevallen als er een veel betere koeling in moet. Een kaart die 8K doet is ook redelijk prijzig.

Een los scherm is een heel ander verhaal. Een los 8K scherm voor bij de Mac Pro is een stuk realistischer. Bij Hackintoshes haak ik af. Dat is wel het laatste waar ze rekening mee houden. Hoewel hier op tweakers een bekend begrip, is dit een extreem kleine doelgroep en bovendien bouwen die vaak Hackintosh vanwege de hogere prijs/rendement verhouding of voor de hobby. Niet de mensen die een 8K scherm kopen met een Apple-prijskaartje.
Ik ben het volkomen met u eens, maar toch ter aanvulling op punt 3:

Een menselijk oog kan tot een bepaalde scherpte nog zien. Hiervoor zijn in het verleden diverse testen uitgevoerd. Eén van die testen was door twee parallelle lijnen op een vel papier te zetten. Proefpersonen werden gevraagd of zij deze lijnen konden waarnemen. De meeste konden ze niet zien, maar wisten wel dat er iets was. De maximale afstand tussen de lijnen bleek ongeveer 0,3 arc-min te zijn.

De hoek arc-minuut is eenvoudig om te rekenen naar een aantal pixels per graden kijkhoek:
Arc-min / 60. Dit geeft 200 pixels per graden. Bij een 27'' scherm op een afstand van 0,8 m, is de kijkhoek ongeveer 41 graden. Dit zou in de breedte dus een maximale resolutie van 8185 pixels geven. Hiermee benaderd 8k het fysiek mogelijke bijna. Ga je echter 10 centimeter achteruit zitten zit je al boven het fysiek mogelijke. Dit is ook de reden waarom ik voorstander ben om niet hoger dan 16k te gaan, er is gewoon geen enkele toepassing meer die dit nodig zou kunnen hebben. Laat ze dan eerst maar eens verder gaan op hogere fps en betere kleurdieptes.

Ter vergelijking met bovenstaand scherm, bij een 8k tv van 75 inch zou je op 2,3 m afstand moeten zitten om hetzelfde teweeg te brengen. PPI zegt in het geheel erg weinig, het is de afstand van oog tot scherm die het benodigde bepaald.
Pff 8k, dacht dat we met 5k wel ff vooruit konden, kan de hardware dit wel aansturen en wat moet je nou weer met z'n resolutie?
Zover ik het begrepen heb verwacht Japan 4K over te slaan en direct naar 8K te gaan qua uitzendingen. Dus die lcd panelen zullen ook wel snel betaalbaar worden.

Daarnaast kan een stapel van hoge resolutie schermen gebruikt worden om echte 3D beelden te tonen. Zgn 'multi-layer light field tensor displays'. Hoe kleiner de pixels hoe echter het wordt, en hoe dunner het gemaakt kan worden.

[Reactie gewijzigd door Henk Poley op 7 april 2015 11:11]

Inprincipe koop je gewoon een scherm, waar de hardware niet voor geschikt is, de tijd dat 8k er is is dit apparaat waardeloos zijn er veel betere technologien. En 5k lijkt me scherp genoeg.
27" is wel groot, dit is een desktop computer waar je niet ver vandaan zit. Als de pixeldichtheid gelijk wordt als bij de iPhone (326 ppi) dan heb je hier wel degelijk wat aan. Daarnaast kan zon resolutie verhoging voor meer ruimte zorgen, omdat de extra pixels nu standaard alleen worden gebruikt voor de scherpte (je kan ook kiezen om dat niet te doen).
Ik kijk nu naar een 27" WQHD (2560*1440) monitor op 60 cm van mijn neus en kan me echt niet voorstellen dat 4K-5K of 8K voordeel biedt bij een diagonaal van < 40".

Daarnaast vraag ik me af hoe je op zo'n scherm iets voor elkaar wilt krijgen zonder een Titan X of andere € 1000 videokaart (gelukkig hebben Apple fans diepe zaken met vette portemonnees)

edit- WQHD moest het wezen

[Reactie gewijzigd door Alxndr op 8 april 2015 05:07]

Dan heb je toch echt geen scherpe ogen. Ik gebruik al jaren diezelfde setup en er is toch echt wel nog ruimte voor verscherping en meer detail.
Ik werk nu ruim 2 jaar met een iMac 27" met een WQHD (2K, 2560*1440) scherm. Het werkt op zich heel prettig, maar echt scherp is het echt niet. Ik sluit me daarom aan bij Fledder2000.

Laatst heb ik de iMac 5K uitgeprobeerd. Een van de eerste dingen die me opviel was hoe onscherp mijn eigen scherm was.

Dat was vooral te merken bij tekst. Tekst op websites maar ook de tekstverwerker. Het ziet er allemaal veel natuurlijker uit. De tekst is op mijn scherm leesbaar, maar niet scherp. Helaas is veel scherper op 27" vooralsnog niet erg betaalbaar.

Edit: smiley verwijderd aan het eind.

[Reactie gewijzigd door wimkamerman op 7 april 2015 20:56]

Ik denk ook dat mensen zich blindstaren op het populaire dogma "kan ik een pixel zien"?

Op mijn scherm van 27" (2560 * 1440), kan ik niet zeer makkelijk of duidelijk een enkele pixel onderscheiden. Maar dat is dan ook niet hoe mensen naar een beeld kijken. Men kijkt naar vormen gemaakt uit pixels. En wanneer ik naar een letter kijk, bijvoorbeeld op deze website, dan zou die echt nog wel een heel stuk scherper kunnen.
Onder UHD wordt doorgaans 3840 x 2160 (4K) of zelfs 7680 × 4320 (8K) verstaan, niet 2560x1440.

Hier staat sinds 2008 een Dell 30" op 2560x1600 / WQXGA en sinds kort een 40' UHD 4K monitor en dat werkt prima maar ik kan me voorstellen dat het nog wel wat scherper kan. Uiteraard moet je OS meeschalen, maar dat gaat goed bij OS X.

Een MacBook Pro kan al een 4K monitor aansturen op 60 Hz, als tweede scherm, naast het 1920x1200 laptopscherm, wat prima gaat voor gewoon gebruik. Gamen is een ander verhaal.

Zoals hier al vaker wordt opgemerkt is ook mijn ervaring dat je pas merkt dat het beter, in dit geval scherper kan, nadat je het gezien hebt.
5k is scherp genoeg om te lezen, 8k voor video bewerken kan de hardware niet aan. Maar plaatjes kijken die de resolutie ondersteund word wel ongekend mooi en scherp. Hoeveel megapixel is 8k? 32 of zo toch?
De hardware bestaat nog niet. Als ze zo'n ding volgend jaar willen uitbrengen dan kan je er we van uitgaan dat die hardware nu wordt gemaakt, getest. Zoals ik ergens anders al aangaf, Apples 5K scherm (dat is zon 15 megapixel) wordt door een AMD Radeon R9 M290X aangestuurd. Dat gaat prima en die GPU is lang niet de snelste mobiele GPU (iMacs maken gebruik van laptop hardware). Voor een 8K iMac (dat is inderdaad 33 megapixel) kan er dus getest worden met desktop hardware dat een stuk sneller is dan die R9 M290X wat ze dan moeten verkleinen om het in een iMac te proppen. Als het nu niet lukt, dan lukt het later wel (en een aankondiging betekend niet dat het direct verkocht wordt, in dat opzicht kan het misschien wel tot 2017 duren). Het is niet de eerste keer dat Apple een slim idee bedenkt of jat om te innoveren. En bedrijven als Intel, Nvidea en AMD hebben er vast geen moeite mee om samen te werken om dit mogelijk te maken. Daarna hebben die partners (Intel, Nvidea, AMD) tenslotte ook die technologie in huis zodat ook andere bedrijven (Dell, HP, Lenovo etc.) dat kunnen afnemen.

Tevens kan dit gerucht ook (deels) fout zijn ik kan me voorstellen dat Apple een 8K scherm op de markt wil brengen met zijn eigen logo erop (een nieuw Cinema/Thunderbolt Display). Op dit moment heeft Apples beste (en enige) monitor namelijk resolutie van 2560 x 1440 (op een 27" scherm, dus de helft in beide richtingen van het 5K scherm in de iMac) en dat is wat achterhaald. Een nieuw los, retina beeldscherm (gekalibreerd en met hoge resolutie) zou niet raar zijn. Nu is de grafische professional beter af met een 5K iMac dan met een Thunderbolt scherm als die een Mac Pro koopt (of Eizo scherm of aan ander scherm van een ander merk. Met een los scherm hebben ze met een eventuele update van de Mac Pro prima hardware om zon scherm mee aan te sturen lijkt me.

Testen met desktop hardware is ook gedaan voordat de iPhone (1) uitkwam.
De 5k mac wordt inderdaad door een R9 M290X aangestuurd. Gezien die dit al haalt zal een high end (gtx 980/r390x of iets in die richting) een 8k scherm wel kunnen aansturen denk ik zelf. Of het moet een sli worden wat sommige al gebruiken voor hoge resoluties.
Het probleem bij de huidige generatie 5K iMacs is ook niet persé dat de hardware te traag is maar de koeling. De koeling kan het niet bijbenen en daardoor krijg je bijvoorbeeld dat de CPU wordt ge-throttled. Ik denk dat het koelings probleem met desktop hardware alleen maar groter zal worden.

Als Japan de 4K uitzendingen over zal slaan en direct een stap zal maken naar 8K uitzendingen vind ik het niet raar dat Apple aan het experimenteren is op die resolutie. Zij hebben toch aardige aandelen in de editing markt.

[Reactie gewijzigd door master.fean op 7 april 2015 13:43]

Je bedoelt dat de koelings problemen nog een aantal jaren zal aanhouden.

Maar als eenmaal de overstap komt van silicium naar grafeen of carbon nanotubes zullen er geen koelings problemen meer zijn.
Ik lees inderdaad, nu ik het opzoek, dat wat meldingen zijn van hoge temperaturen en ventilator lawaai. Echter meldt Tweakers dit zelf niet in de review en nergens schijnt het tot problemen te leiden, enkel, soms tot lawaai door de ventilator maar zelfs dat niet. Natuurlijk is het zo dat de levensduur door de temperatuur kan teruglopen. Echter kunnen deze processoren nu efficienter gemaakt worden en waarom zou Apple voor een 8K versie niet voor een wat grotere behuizing gaan of een tweede ventilator? Apple heeft in het verleden wel vaker behuizingen wat vergroot.
Toen wij nog naar beeldbuis SD tv's keken hadden wij ook alleen maar behoefte aan een groter scherm, niet grotere resolutie. Zelfs het fysieke formaat was beperkt. Tegenwoordig denken mensen (ik ook soms) die 55" had ook wel een 65" mogen zijn.

De behoefte naar meer pixels en groter formaat zal volgensmij altijd blijven stijgen. De mobiele telefoon is daar ook een mooi voorbeeld van. Eerder zat je te pielen met 50 pixels op een 3x2cm scherm en met de iPhone 6 heeft zelfs Apple een groter scherm genomen na jarenlang geroepen te hebben dat het formaat dat ze hanteerden voldoende was.

Iets wat je niet hebt of niet weet mis je niet, totdat je het hebt gehad.
Kan goed zijn dat men 4k overslaat, echter het zal nog vele jaren duren voordat men met uizendingen begint.

Het vervangen van pro camera's kost een vermogen dus zo maar naar 8k gaat niet snel.
Steeds meer tv via internet en 8k vreet bandbreedte en daar is er te weinig van.

Vraag me trouwens ook af of 8k op een 27 inch scherm niet overkill is. Ik zie liever een 4k scherm met een breder kleurspectrum dan nu mogelijk is.
Het idee was dat je dus niet eerst 4K hardware hoeft te kopen en dan weer 8K. En ze (NHK) verwacht dat 8K (120Hz) voor heel lang genoeg blijft.
Maarja, NHK was ook al in de jaren 70 bezig met fullhd.......
Toch stonden er (een paar jaar geleden al!) meer dan genoeg 4K schermen in de Japanse electronicawarenhuizen. Ook steroscopische. En ook 4K bluray spelers. En 4K dit, en 4K dat.

Misschien dat de broadcasters direct naar 8K gaan, maar de technologie maakt muizenstapjes, as usual.

[Reactie gewijzigd door _Thanatos_ op 7 april 2015 11:29]

De schermen en de camera's heeft de NHK (Japanse publieke omroep) al, de camera was samen met hitachi volgens mij en de kleine weet ik niet meer). Dat helpt ook denk ik dat het de regering is die er in investeert. En meteen maar 120Hz.

Video: http://youtu.be/3l0lvwGZFR4

Even iets anders zie jij de NPO al technisch onderzoek doen? Het kan zijn dat ik de R&D afdeling van de NPO gemist heb, maar dat zou ook wel geinig zijn.
Zeer waarschijnlijk zal het 8k scherm effectief een 4k scherm zijn met een hogere PPI. Wanneer je normaal 1 pixel zou hebben, heb je er dan 4. Het zal er allemaal veel scherper uit zien, en je hebt dan ook bijvoorbeeld geen trucjes als anti-aliassing meer nodig. In Apple marketing schermen zat het dus een "Retina" scherm worden. Het zelfde als wat de MacBooks, iPhones en iPads hebben maar dan met een 4k resolutie.

Aangezien 8k 4 keer meer pixels zijn dan bij een 4k scherm, is inderdaad het maar de vraag welke GPU het gaan aansturen, aangezien dat zeker bij een redelijke frame rate niet eenvoudig zal zijn.

[Reactie gewijzigd door ThomasG op 7 april 2015 11:08]

Staan die GPU's dan al zo lang stil qua ontwikkeling? Het was immers 18 jaar geleden al geen probleem om 1600x1200 te halen, en de TNT2 had al ondersteuning voor 2000x1500 als resolutie.

In de tussentijd zijn de gpu's stukken sneller geworden. Ik mag aannemen dat ze onderhand wel met gemak 8k resoluties aankunnen.
In de tussentijd zijn de gpu's stukken sneller geworden. Ik mag aannemen dat ze onderhand wel met gemak 8k resoluties aankunnen.
Denk dat dat nog vies tegen valt, videokaarten zijn superveel sneller geworden tussen toen en nu, maar dat is in het opmaken van het beeld, niet zozeer in het versturen van 11x zo veel data naar een scherm. Dit zal over de 5Gbit aan data per seconden gaan...

Uiteraard is gamen op een 8k resolutie helemaal niet aan de orde, 4k is al lastig genoeg voor de GPU's van nu :P

[Reactie gewijzigd door watercoolertje op 7 april 2015 11:38]

Spellen als Diablo, World of Warcraft, Cities Skylines etc draaien anders prima op mijn 4k scherm in een 4k resolutie met mijn nvidia 7xx series videokaart. Niet slecht voor een videokaart van bijna 2 jaar oud en zeker niet een high-end kaart.

Maar moderne actiespellen zullen inderdaad wat lastiger worden ;)
Ja zal ook wel per spel en genre verschillen ;)
Vooral racegames, die gaan zo snel dan moet er wel veel door n kabeltje :D
Dat terwijl de datarate toch echt constant is als je geen freesync of whatever gebruikt.
voor zover ik weet wordt de data die een videokaart naar een beeldscherm stuurt niet gecomprimeerd. Dus of je nu een wit scherm laat zien of een heel snelle actie game. De data is en blijft het zelfde namelijk de kleur en helderheid voor elke pixel @ 60Hz
@Erayan, menn:

Ik maakte een grapje. ;)
Tja je geeft zelf al aan moderne actiespellen zullen moeilijker worden.
Waarbij ik dus ook meteen aangeef dat niet iedereen dat soort spellen speelt. De mensen die dat wel spelen zullen mischien niet veel aan een 8k resolutie hebben, maar veel andere mensen wel.
Ja maar zware game hardware past niet in zo'n iMac, daar zitten mobiele kaarten in. Vergeet daarnaast niet dat 8K 4 keer zo veel pixels zijn: 2 keer zo veel in de breedte en 2 keer zo veel in de hoogte.

Daarnaast moet je natuurlijk ook de hardware hebben om zo'n scherm aan te sturen. Voor het huidige 5K scherm moest Apple al speciale hardware maken om al die pixels aan te sturen (het omzetten van het digitale signaal naar stroompjes die de pixels aan zetten).
Anoniem: 342278
@mathijs7277 april 2015 15:55
HA ik zie het al voor me een g force dock van apple a 2000 euri's (wel een design prijsje dr bij)
Tel je niet de verkeerde zaken bij elkaar op?
8k schermen met huis en tuin CPU`s/GPU`s.?
De toekomst met het (beperkte) heden?

Net zoals er nog niet heel veel 8k schermen zijn (maar er wel al zijn) zijn er ook CPU`s en GPU`s die dit nu al aankunnen (maar die zitten nog niet in elke consumenten-pc/elektronica)
En zo zijn er ook systemen die immense hoeveelheden data per seconde kunnen versturen/verwerken (maar dat is momenteel niet met de pc van Jan Modaal).

Daarnaast hebben we het hier over een gerucht, Apple hult zich in stilzwijgen, LG heeft er blijkbaar wel een die het doet. (Als het geen late 1 april grap is)

[Reactie gewijzigd door Teijgetje op 7 april 2015 15:04]

Ik denk dat de GPU's van nu inderdaad weinig moeite zullen hebben met Doom 2 in 8k resolutie te berekenen.
Ja, ga jij maar lekker met je TNT2 op 200x1500 (of zelfs maar 1600x1200) een potje Quake opengl spelen. Haal je een paar fps, meer niet.

Alles is tegenwoordig GPU accelerated. De gehele interface van je OS wordt niet meer door je CPU Gerenderd maar door je GPU. En op zulke resoluties ga je dat echt merken, zelfs als je geen spelletje speelt.

Is gewoon niet vergelijkbaar.
Voor OS en dergelijke denk ik niet dat je daar veel van gaat merken. Met een standaard Videokaartje kan je ook zo 6 schermen aansturen. voor 2D toepassingen is dit geen enkel probleem. Ga je echter naar 3D zoals Gaming dan wel, maar nog steeds is het voor veel kaarten nog steeds niet lastig om meerdere schermen aan te sturen op hoge resoluties. Kijk maar eens naar de Powercolor HD5970 eyefinity 12. Daar kan je prima COD of BF op spelen op 4k resolutie verdeelt over meerdere schermen. Echter heb je dan wel veel meer bandbreedte tot je beschikking, omdat je ook gelijk 12 losse poorten gebruikt die individueel slechts een redelijk lage resolutie hebben.

Voor desktop werk is een 8K scherm dus geen enkel probleem. Met photoshop werk en het wat professionelere DTP gemeuk is 33 Mpixel echt fantastisch.
18 jaar geleden probleemloos om 1600x1200 te halen? ja voor simpele 'windows' applicaties wel ja, maar voor gaming dus verre van.. de huidige midrange kaarten hebben al moeite om zoiets als BF4 op ultra op fullhd op meer dan 60fps te krijgen..
Het probleem is dat een 5K scherm gelijk is aan 2x 2560x1440: Een gebruikelijke resolutie voor 27" schermen.

8K is 4x HD of 2x 4K: Beide resoluties zijn niet prettig op 27"
Het probleem is dat een 5K scherm gelijk is aan 2x 2560x1440: Een gebruikelijke resolutie voor 27" schermen.
Bedoel je niet 4x? 2x in de breedte en 2x in de hoogte?
8K is 4x HD of 2x 4K: Beide resoluties zijn niet prettig op 27"
Hier reken je denk ik op dezelfde foute manier, want 8k is maar liefst 16x (Full!)HD, of 4x 4K.

HD = 720p, FullHD = 1080p

Anyway 8k is waanzinig hoog op dit moment, en waarschijnlijk onbetaalbaar als ik zie wat een 4k/5k monitor al moet kosten bij Apple...

[Reactie gewijzigd door watercoolertje op 7 april 2015 11:25]

Ik denk dat hij alleen naar de resolutie kijkt en dan heeft hij inderdaad een goed punt. 4k op een 27" scherm is te weinig, want als je dan een 2x hogere DPI aanzet dan lijkt het op een (heel scherp ;)) full-hd scherm. Maar een 27" full hd scherm heeft wel hele grote elementen.

Als je het perse via Apple wil kopen dan is een 4/5k scherm belachelijk duur. Als je er gewoon los een koopt dan valt de prijs mij heel erg mee.
Bij Apple kom je dus juist goedkoper uit.

Je krijgt een Mac PC bij de scherm en bij een losse monitor heb je alleen de monitor en kwa prijs zijn de schermen juist vergelijkbaar.

Het hele punt was juist dat Apple een 5K scherm had ingebouwd in de Mac voor dezelfde prijs als een 5K scherm bij de concurrent.

Je gaat er gewoon voor het gemak ervanuit dat Apple altijd duurder is wat in dit geval dus niet zo is.
Dat argument is ook een beetje onzinnig hoor. Het zegt helemaal niks dat je bij de concurrent "een 5k scherm" koopt voor meer geld. Wie zegt dat die schermen van dezelfde klasse zijn? Dat Dell scherm waar het toen om ging was volgens mij zeker niet voor consumenten bedoeld en heeft naast de resolutie nog aardig wat features die het Apple scherm niet heeft. Appels en peren.
Een mogelijkheid is (althans, dat werkt zo bij de 5K versie) dat het handig is bij video editing. Je hebt een volledige 4K beeld van de film waaraan je aan het werken bent terwijl al je tools in de ruimte er omheen kunnen staan.
Dus 8k is leuk als je in 1/4 van je scherm 4k wilt bewerken.. Mijn pad blijft apple nog een jaartje bij 5k.
Ja, 8K lijkt me daar ook overkill voor, daar niet van. Het is ook maar een vaag gerucht wat mij betreft.
Overkill nu, normaal over een paar jaar. Het lijkt me niet meer dan normaal overigens wanneer de PPI van telefoonschermpjes terug komen naar monitoren en tv's op den duur.
Terugkomen...ik hoop het niet, gezien de grootte van monitoren en tv`s is ondanks een hoge resolutie het aantal ppi een stuk lager dan op smartphones.
Al denk ik dat je bedoelt dat tv`s en schermen op den duur ook giga-resoluties gaan krijgen, met gelijkwaardig aantal ppi als op smartphones.
Of dat nut heeft is de vraag.

Quote;
De pixeldichtheid van een 28inch-beeldscherm met UHD-resolutie ligt op ongeveer 157 pixels per inch (ppi). Ter vergelijking: een 27inch-scherm met 2560 x 1440 pixels heeft 108,8 ppi en een 24inch-scherm met een Full HD-resolutie 91,8 ppi.

Als je dan bv een Samsung Galaxy S6 neemt met 577 ppi, of een iPhone 6 met "maar" 326 ppi dan wil je niet terug naar een lagere resolutie op smartphones. ;)

Met hetzelfde aantal ppi als bv de Galaxy S6 zouden de schermen uit het voorbeeld respectievelijk een resolutie krijgen van ca. 13570 x 7650 pixels (27" XXXUHD) en 12100 x 6800 pixels (24" XXXXFHD).
Zoals LG het opgeeft hebben schermen dan nog wat in te halen, zelfs met 8k ;
"De door LG genoemde 8k-resolutie van 7680x4320 pixels zou op een 27"-scherm leiden tot 326 pixels per inch" (waarmee ze nu al het iPhone 6 scherm evenaren)

[Reactie gewijzigd door Teijgetje op 7 april 2015 14:35]

Het nut is altijd 'achteraf'. Ook kan ik mij voorstellen dat het niet meer uit maakt of je straks 40" of 5" scherm moet produceren, de panelen rollen er toch in de strekkende meter vanaf.

Of, het concept 'pixels' is er niet meer. Who knows :)
Nee, de hardware kan 4K amper aan...
Amper betekend dat het nog net kan en dat klopt niet. De 5K iMac werkt ook probleemloos (en 5K>4K). Deze iMac maakt gebruik van een mobiele GPU: de AMD Radeon R9 M290X en dat is een rete snelle GPU maar er zijn snellere mobiele GPUs.
totdat je er een beetje spel native op wilt spelen (en dat dan al helemaal met een mobile GPU)...
ja, het werkt misschien 'probleem'loos voor simpele 'windows' applicaties....
totdat je er een beetje spel native op wilt spelen (en dat dan al helemaal met een mobile GPU)...
ja, het werkt misschien 'probleem'loos voor simpele 'windows' applicaties....
Waarom komen mensen toch elke keer met deze vergelijkingen, mensen gebruiken computers voor meer dan alleen spelletjes spelen...
Daarnaast zal iemand die spelletjes wil spelen minder voor een Mac systeem gaan als hoofd game machine.
De hardware in de huidige 5K Apple iMac kan maar ternauwernood de hoge resolutie aan. Ik vraag me dus inderdaad sterk af of de nieuwe iMac (als die überhaupt al uitkomt) dit wel aan kan.
Terwijl volgens recente geruchten (hier) de Apple TV geen 4K zal bieden, gaat hun meest recente iMac volgens dit artikel een stap hoger. Ik had verwacht dat de resoluties van TV en monitor op een gegeven moment wel gelijk getrokken zouden worden.
Tja, wat ik me afvraag is waarom je dit ueberhaupt nog zou doen. Ik zit echt vrij dicht op mijn scherm en ik kan bij UHD (28") eigenlijk al geen pixels meer waarnemen. Wat het nut dan is op een 27" 8K te gebruiken ontgaat mij. Wie gaat er nou op 15cm van een 27" scherm zitten. Dan moet je toch constant je hoofd draaien om het hele beeld te zien. Lijkt me sterk overbodig dit (overigens net zo overbodig als >FHD schermen op telefoons. Hoewel daar nog iets gezegd kan worden over toepassing als VR zoals bij de Note4. Maar niemand die een 27" scherm aan zn hoofd gaat tapen)

Om maar niet te beginnen over het feit dat er geen enkele GPU is, die games op 60fps met een UHD scherm weet te doen. Laat staan als we het aantal pixels nog eens verviervoudigen.

[Reactie gewijzigd door Darkstriker op 7 april 2015 11:32]

Pak eens een 4k scherm, ik zie bij 1080p op 24" op normale kijkafstand de pixels niet. Maar hetzelfde formaat maar met 4 keer de pixels is op dezelfde kijkafstand een wereld van verschil.
Tja, ik zie pixels wel gewoon op mijn 21" FHD. Wij zijn fysiek niet in staat om het verschil waar te nemen omdat onze lensen de klein zijn om tussen twee objecten te onderscheiden die zo dicht bij elkaar zijn op een afstand van 40cm. De PPI van FHD schermen was gewoon nog laag, maar UHD schermen zijn al voorbij de PPI grens waar wij nog verschil kunnen waarnemen op een normale kijkafstand bij 27".
Ik kan prima individuele pixels onderscheiden op een 24" 1080p monitor op normale werkafstand. D.w.z., als er 2 lijnen op mijn scherm zouden staan; 1 van bijv. 2 pixels en 1 van 1 pixel, kan ik aanwijzen welke welke is.
Ook nog het feit dat het meer grafische kracht nodig heeft, waardoor kosten onnodig omhoog gaan.

8k zou mooi zijn in 50"+ TV's

[Reactie gewijzigd door MrFax op 7 april 2015 11:32]

Daar heeft dat misschien zin. Maar bij 50" TVs zit je ook direct weer veel verder weg dan een 27" PC-monitor. Denk dat je die grens misschien nog wel wat hoger mag leggen. Het heeft in een normale woonkamer met +/- 5 meter kijkafstand waarschijnlijk pas zin vanaf 80"+ (in vergelijking met UHD).
Maar deze aankondiging gaat over een 27" monitor voor een PC en daarbij ontgaat mij het nut van een dergelijke resolutie.
Met een afstand van 5 meter, zul je ruwweg een televisie van 250" moeten neerzetten wil je echt profijt hebben van de 8K UHD-resolutie tegenover een 4K UHD-resolutie. Ons visuele perceptie is niet in staat kleinere details op zo'n afstand te zien. De pixelstrijd gaat nu dan ook meer richting marketing toe dan vooruitgang.
uhh maak daar maar 100"+ TV's van, 4K is echt al perfect voor 50"+, jij zult het verschil niet gaan zien..
Ik denk dat 8K dan meer bedoeld is voor grotere schermen: telefoon FHD, PC/Laptop UHD en TV 8K. Al is het nut daarvan mij met de grotere kijkafstand ook niet echt duidelijk. Misschien wil Apple wel gewoon mee gaan doen met de specs race. :)
Waarom altijd games als voorbeeld?
Omdat het een mooie indicatie geeft van hoeveel meer rekenkracht je pc nodig heeft om de zelfde dingen op hogere resolutie uit te voeren. 8K ga je ook merken in je browser bij opbouwen van websites of scrollen eveneens als videos (hoewel het nog wel even zal duren voordat er 8K content is). Hoewel ik al 10 jaar geleden altijd probeerde schermen met hogere PPI te krijgen, is het nut er nu een beetje vanaf. Op 50cm ga ik het verschil tussen UHD en 8K niet meer waarnemen. Het moet nu in de kwaliteit van de displays komen (oled) en niet meer in de resolutie. 8K is daarom mijn inziens niet wenselijk op 27". Het verbruikt meer stroom (zowel scherm als systeem) en het levert geen waarneembaar voordeel op.
Voorlopig vind ik die conclusie te voorbarig, daarvoor moet ik eerst nog meer schermen zien met een dergelijk hoge resolutie.
Anoniem: 118226
@Opi7 april 2015 11:31
De hoeveelheid 4k content valt nog bijzonder tegen (het zelfde kip ei probleem als destijds bij breedbeeld)

Foto's zijn er daarentegen al wel in steeds hogere resoluties beschikbaar. Ik denk dat photoshoppers zitten te juichen.
maar wat is het nut van een zoveel hogere resolutie als je dan toch de hele tijd ver moet inzoomen?
Anoniem: 118226
@SuperDre7 april 2015 22:07
Bij dezelfde zoom factor zie je op 8k meer van je foto dan bij 5k.
Je houd meer ruimte over naast je werkgebied voor venstertjes met tools.
Alsof dat op een 5k scherm al een probleem is 8)7

[Reactie gewijzigd door SuperDre op 8 april 2015 09:00]

Dat zal wel een erg :9~ scherm worden. We zullen het zien, ik denk eigenlijk niet dat ze dit jaar nog met een 8k scherm uitkomen wanneer de 5k nog zo recent is.
Heb je volgens mij vrij weinig aan.
Ik heb een MBPr 13 met 2560*1600 scherm. Wat ik ook doe, ik krijg geen desktop weergave gefixt op 2560*1600 (gaat niet hoger als 1680*1050). Enkel in games kan ik native resolutie, maar daarvoor is de grafische kracht van een mac niet toereikend voor.

In die 8K Imac gaat geen dual GTX 980 passen, dus ook daar lukt gaming op native niet en zal de desktop omgeving ongetwijfeld gecapped zijn op 2560*1600, UHD oid, waardoor ikzelf weinig toegevoegde waarde zie aan dit scherm. (buiten de E-peen en meer omzet/marge voor Apple)
Volgens mij heb je het totaal verkeerd begrepen, je desktop draait _altijd_ op native resolutie. Wat je instelt is hoe groot je tekst, icoontjes, etc. zijn. Dus als je 1280x800 instelt dan is de tekst even groot als dat het normaal zou zijn op die resolutie, maar dan is het dus wel veel scherper. Als je 1680x1050 instelt dan is alles heel klein; soms is dat nuttig maar meestal is de "grootte vergelijkbaar met" 1280x800 gewoon wat je wilt gebruiken.

8k is zeker niet voorbij de grens waarbij je het verschil niet meer ziet; iemand met normale ogen zal het verschil tussen 5k en 8k prima zien, en hogere resoluties ook nog, want het is wel 27" waar we het hier over hebben en je zit geen meters er vandaan zoals met een tv.

[Reactie gewijzigd door Jefrey Lijffijt op 7 april 2015 13:02]

Dank voor de verheldering m.b.t. desktop resolutie. (Draai overigens de desktop 100% op 1680*1050, gaming op 1280*800 vanwege de mooie delingsfactor en performance van de iris)

[Reactie gewijzigd door eL_Jay op 7 april 2015 13:15]

Met behulp van een diverse tooltjes kan je je Macbook laten draaien op de Retina resolutie. Op een 13 & 15 inch scherm is dat alleen niet aan te raden, omdat alles heel erg klein wordt. Het kan wel, maar op zulke kleine schermen niet aan te raden :)
en zelfs een dual GTX980 zou veel moeite hebben om een game op hoogste stand op een fatsoenlijke framerate te draaien, als een enkele al moeite heeft om dat te doen op 4K...
Heeft 8k wel meer waarde tegen over de bestaande 5k? Op een moment ga je het verschil niet meer zien denk ik. Daarnaast zit je er wel mee dat je een krachtige pc nodig hebt (of het word meer belast) om het allemaal goed aan te sturen en de stroom kosten zullen ook wel een stukje omhoog gaan.

Volgens mij heb je geen meerwaarde in 8K op dit moment.
Puur voor fotobewerking zou dit het perfecte scherm zijn.
Imac 5K is slechts 15Megapixel met de huidige camera's is 8K (33MegaPixel) dus ideaal.
Helemaal mee eens, de fotos uit mijn camera zijn > 7000 pixels breed. Zou fijn zijn als deze op 100% past.
Ja, leuk.. krijgen we straks eenvoudige webpagina's die vele MB's groot zijn, alleen om de afbeeldingen 8K te maken zodat het een beetje mooi oogt op zo'n scherm. We beginnen nu net een beetje te wennen aan 2x Retina en zijn er workarounds (denk aan javascript libs) om het enigszins mogelijk te maken. En zo is er voor een webpagina pakweg 3 of 4 varianten van 1 afbeelding nodig.
Die eerste stap is juist de grootse, dus ik vind het wel mee vallen eigenlijk...

Wel irritant maar dat vind ik het hele retina verhaal ook al, ik upload nu gewoon veel grotere plaatjes dan nodig zijn, beetje lui maargoed, alleen IE kan niet netjes schalen (gaan AA), maar die mensen bezoeken de site toch het minste :P
lekker voor je mobiele databundeltje dan.. |:(
Tja het is ook een webwinkel, geen tweakers waar je elke dag terug komt om te lezen...

Anyway knappe jongen als je voor elk mogelijk formaat de juiste afbeelding klaar hebt liggen en kan tonen. Er zijn 100den schermformaten en DPI instellingen waar je mee te maken kan hebben en alle tonen dus een ander formaat plaatje bij een responsieve website :)
Niet overdrijven. Ik had het niet over elk mogelijk formaat, enkel over pakweg 3 varianten. Dus zeg, een 800px (72dpi, ook voor mobiel), 1600px (2x retina) en bij een 8K nog eens een 3200px. Het is niet aan te bevelen om een 2x Retina afbeelding te gebruiken (of erger nog: een 4x Retina) voor een mobiele versie, ook al kán dat natuurlijk wel..
Nee. Nee, nee, nee. Teveel pixels (voor 27"). Niet doen.

Houd aub die x2 resolutie aan. Die bevalt me prima.

[Reactie gewijzigd door Gamebuster op 7 april 2015 11:17]

"x2 resolutie"? Wat is dat precies?
Ik gok twee de resolutie in de breedte en twee keer in de hoogte.
De normale iMac 27" draait op 2560x1440, de nieuwe 5k op x2 dus 5120 x 2880. Nogmaals, gokje.
Je gokje is correct :)
Jouw gokje (3840x2160) is beter bekend als UHD, incorrect bekend als 4K en is tevens gelijk aan 4x HD qua oppervlakte of 2x HD qua hoogte/breedte.

2x (breedte/hoogte) resolutie van HD naar 4K is prima voor 17"~24" monitoren. Tussen 21" en 27" zie ik liever 5K.
Maar twee keer wat? Wat is er dan normaal? Mijn laptop van 13 inch is 1920x1080. Als ik dat extrapoleer naar 27 inch, zit ik op ~4K. Dus 8K is dan "x2"?
Wie zegt dat het een 27" scherm wordt ? Een 32" iMac lijkt me wel wat..
Lijkt me onaannemelijk, groter dan 27" is te groot voor een all-in-one. Een 32" Cinema Display zie ik wel gebeuren.

[Reactie gewijzigd door Gamebuster op 7 april 2015 16:16]

Mwah, ik denk dat dat erg meevalt. Een 27" iMac lijkt het eerste half uur ook heel groot totdat je er aan went en dan wil je eigenlijk meer oppervlakte.
Dit is met schermen over het algemeen. Heb nu een paar weken 55 inch tv. Zelfs die is nu alweer 'normaal' / ik weet niet beter.
Ik zie de meerwaarde er nog niet van in. Leuk dat je beeld stukken scherper wordt, maar de extra kracht en energiekosten die je ervoor nodig hebt zou ik liever in andere zaken steken.
Anoniem: 382732
7 april 2015 11:11
Ik denk dat iemand bij LG nu een probleem heeft. Als het niet waar is, publiceert hij/zij onzin op op de LG site. Als het wel waar is overtreed hij/zij de NDA.
Het scherm met 8k resolutie voorzien is 1 ding , maar wat voor GPU heeft men wel niet nodig om dat scherm iet wat bruikbaar te maken :s

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee