Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties
Bron: Sony, submitter: Luukieeee

Met CeBIT in het vooruitzicht heeft Sony enkele nieuwe lcd-tv-modellen aan zijn Bravia S-, V- en X-reeksen toegevoegd. De verschillende tv's hebben een beelddiagonaal variŽrend van 26" tot 46". De instapmodellen dragen het S-label en beschikken over hdtv-ondersteuning met de mogelijkheid resoluties van 1080i en 720p weer te geven. Bovendien zijn deze schermen uitgerust met een digitale tuner en een hdmi-aansluiting om beeldsignalen te ontvangen. Een marktsegmentje hoger vindt men de V-reeks die volgens Sony een breder kleurspectrum dan elke andere lcd-tv biedt en in staat is een contrastverhouding van 1300:1 neer te zetten. Het vlaggenschip van de nieuwe lcd-tv's draagt een naamplaatje met een X, ondersteunt de 1080p-resolutie en beschikt over twee hdmi-verbindingen. Prijsgegevens van al dit moois werden nog niet bekendgemaakt.

Sony Bravia
Moderatie-faq Wijzig weergave

Reacties (58)

Waarom is het kennelijk zo gigantisch moeilijk voor tv's om 1080p te ondersteunen? Een LCD kan beelden alleen maar progressive weergeven, dus een 1080i signaal zal intern toch omgebouw moeten worden tot 1080p. Dan zou je toch verwachten dat een signaal dat als 1080p binnenkomt ook niet al te moeilijk weer te geven moet zijn.

Ik snap dat een 1080p signaal tweemaal zoveel bandbreedte heeft als een 1080i signaal, maar kost het dan echt zoveel extra hardwarecapaciteit dat dit ook echt heel veel extra moet kosten?

Sony biedt het nu dan wel aan in het vlaggenschip, maar als het prijsverschil niet zo groot hoeft te zijn dan zou je zeggen dat andere fabrikanten met 1080p ondersteuning in de meer betaalbare modellen zullen komen.

Overigens wel hulde dat er nu eindelijk steeds meer panelen beschikbaar komen met een 1920x1080 resolutie. In mijn ogen is dat toch de echte HDTV resolutie en je hebt ook niet het dwarse probleem dat de 720p resolutie heeft, namelijk dat het afwijkt van de paneelresolutie die vaak 1376x768 is. Verder zou deze ontwikkeling wel eens de genadeklap voor plasma kunnen gaan betekenen bij de niet megagrote schermen. Ik ben namelijk nog geen enkel plasmascherm tegengekomen van <50" dat al in staat is om een 720p resolutie weer te geven. De hoogste resoluties die je bij die schermen tegenkomt is namelijk 1024x768 en dat is net te weinig voor 720p, aangezien die meer verticale lijnen heeft. LCD daarentegen maakt nu al de stap naar 1920x1080 en dat ook nog eens op schermen in de range van 30-40".
Ik snap dat een 1080p signaal tweemaal zoveel bandbreedte heeft als een 1080i signaal, maar kost het dan echt zoveel extra hardwarecapaciteit dat dit ook echt heel veel extra moet kosten?
Kort samengevat: JA

Kijk maar naar een computer:

720p kan door een gewone P4/XP met redelijke videokaart gedaan worden.

1080i heb je al een wat zwaardere P4/AMD64 voor nodig om alle pixels aan te sturen en vooral de decodering calculaties op de MPEG gecomprimeerde data.

1080p zit je toch al aan een snelle PentiumD of X2 wil het nog een beetje werken. De MPEG calculaties nemen namelijk met een grote factor toe, zeker als er 60Hz gebruikt wordt. Je zit namelijk al gauw aan 22Mbps aan data, die goed gecomprimeerd is.

Nu zitten in dit soort TV's natuurlijk chips die speciaal zijn ontworpen voor de taak van MPEG decoderen, die het vele malen sneller kunnen doen dan een computer CPU, maar het blijven prijzige dingen. Ik denk dat Sony ook snel de PS3-Cell Processor gaat gebruiken, omdat deze vanwege de 8-cores uitermate geschikt is voor MPEG decodering. Dus zodra de PS3 op de markt is, dan zullen de TVs met volledige 720+1080i/p ondersteuning snel volgen.
Tv's decoderen geen mpeg, dat doet het apparaat wat je er op aan sluit.

De rest klopt wel ongeveer :)
In dit geval wel omdat de ontvanger in de TV zit. Daarnaast is HDMI een serieel protocol en dus moet de TV nog wel degelijk wat processing doen op het inkomende signaal. Geen MPEG2 decodering meer, maar de data moet wel verwerkt worden tot de aansturing van de losse pixels. Bij 1080p bevat het inkomende signaal nagenoeg twee keer zoveel data als bij 1080i en dus de processor in de TV moet dat allemaal wel kunnen verwerken.
Zoals gezegd (hierboven): Het decoderen van de MPEG wordt niet door de TV gedaan.

Overigens is een snelle CPU handig voor dit werk, maar het grootste verschil is toch wel hardware-acceleration op de GPU van je grafische kaart. Dit geldt voor moderne grafische kaarten vaak zowel voor MPEG2 (DVD, TS rips, etc.) als Windows Media (WMV).
Ik geloof het niet zo. 1080i is meestal 60 Hz, twee fields per frame. 1080p kan echter prima 30 Hz zijn (volledig frame per keer). Dit is precies evenveel data totaal, en zou dus voor decoding niet veel moeten uitmaken.

De reden dat men een 60Hz (of in Europa 50Hz) signaal wil hebben heeft met de beeldbuistechniek te maken. Een ouderwetse TV met beeldbuis wordt namelijk door een electronenbundel beschenen. Nadat de bundel langs iedere pixel gekomen is, dooft het beeld langzaam uit. Dit veroorzaakt het bekende knipper effect van CRT's.

In een ver verleden is besloten dat er daarom twee fields gedaan moesten worden. Steeds om en om de even, en oneven lijnen laten zien. Dus twee keer zo vaak langs het beeld, maar steeds maar de helft laten zien. Je hebt dan evenveel beeldlijnen totaal (en evenveel data) maar het knipper effect wordt erg verminderd.

Meer recent heeft men nog 100 Hz televisies geintroduceerd, die dus nog eens dubbel zo vaak het beeld laten zien (zonder meer data te gebruiken - gewoon ieder plaatje een keer herhalen) zodat het knipperen nauwelijks nog te zien is.

Echter, met de introductie van LCD TV is het knippereffect er niet meer, en is het dus niet nodig om te 'interlacen'. De progressive formaten kunnen daar dus prima voor gebruikt worden op 25 of 30 Hz.

De reden om progressive alsnog op 50/60 Hz uit te zenden zal te maken hebben met ouderwetse (beeldbuis) TVs die nog knippereffect hebben, en waarvoor een 30Hz progressive signaal dus niet om aan te zien is.
Het is zo moeilijk omdat we hier praten over een resolutie van 1920x1080 (1080p), meeste LCD-TV's gaan niet zo hoog omdat de productie kosten van een high-rez lcd scherm hoger liggen. Laten we maar niet spreken over meeste plasma schermen welke net iets hoger zijn als PAL resolutie.

Ik snap niet helemaal waarom 720p zo bijzonder is omdat meeste LCD-TV's dit al lang aankunnen (meeste hebben een native resolution van 1280x768, en 720p is 1280x720). En 1080i is in princiepe gewoon 540p op een hogere frames-per-second. Het lijkt mij dat alle 'oude' LCD-TV's het op die manier op lossen, gewoon 540p (1080i) op dubbele snelheid zeg maar.
1080i is geen 540p. 540p bestaat niet
1080i heeft namelijk wel een breedte van 1920 ittt de 1280 van 720p.

Mooie tvtjes, maar de digitale tuner (helaas) overbodig voor NL. (DVB-T alleen via digitenne)
We kijken al jaren interlaced tv/films. Sinds wanneer ziet dit er lelijk uit? In mijn ogen is een hogere resolutie altijd beter.
Meeste films worden trouwens in 24fps opgenomen. 24fps naar progressive levert (ongeveer) 2x hetzelfde beeld op. Bij interlacen wordt twee keer de helft opgebouwd.

Alleen moet een LCD het beeld weer de-interlacen omdat die hier niet om kan gaan. Omdat de de-interlacers meestal niet de allerbesten zijn kan het hier inderdaad problemen veroorzaken.
@Da_Teach:
24fps progressive is wel degelijk anders dan 24'fps' interlaced, en 2 fields bij elkaar voegen om 1 beeld te maken 'gaat' niet zomaar en is zeker niet hetzelfde.
Bij film toch wel, dat is precies wat in het telecine proces gebeurd. Eerst wordt de film versneld naar 25 fps, daarna geÔnterlinereerd naar 50 Hz. Een DVD bevat dan ook telecine flags zodat de betere DVD speler het kan terugpuzzelen.

Bij video heb je gelijk, dat laten de filmpjes in je link dan ook zien.
Zie je dit op je tv? nee, omdat de normale tv dit ook niet doet. Meeste normale tv's kunnen echt geen 576 beeld lijnen (pal resolutie) tegelijk laten zien. Probeer maar eens 800x600 van je PC met tv out op je tv te bekijken, kleine lettertjes lezen lukt opeens niet, wonder why...
Geen verwondering nodig. Het volledige PAL signaal heeft een bandbreedte van 5 MHz. Echter de meeste videokaarten op PC's leveren maar een 2 tot 3 MHz breed PAL signaal. Puur vanwege de prijs. En ja, dan wordt het beeld wel wazig. De betere CRT televies kunnen met gemak 600 beeldlijnen neerzetten
Met dat ingedachte, zullen (denk ik) meeste lcd-tv's die geen 1920x1080 hebben, een 1080i beeld weergeven als 960x540 en dan op 50fps.
De goedkopere LCD televisies "bij de Aldi" zullen dat waarschijnlijk wel doen. Net als de eerste generatie LCD's van Philips dat deden. Maar de nieuwe generaties van Philips en Sony proberen gelukkig echt wel goed te de-interlacen, met redelijk goed resultaat. (Nee, geen perfect resultaat...)
Hoezo is de digitale tuner overbodig? Dat vervangt toch juist dat irritante decodertje centraal in je huis, zoadat je weer per TV kan zappen? Nu UPC dat al opdringt, lijkt het met hoog tijd voor die optie.
Hoezo is de digitale tuner overbodig?
Een digitale tuner zou erg handig zijn, maarrrr.....

1) Deze TV's hebben een FTA tuner (geen slot voor een smartcard).

2) Voor UPC (kabel) heb je een DVB-C tuner nodig, deze ontvangers hebben een DVB-T tuner.
Dat vervangt toch juist dat irritante decodertje centraal in je huis, zoadat je weer per TV kan zappen?
Zolang UPC vasthoudt aan een smartcard blijft alles bij het oude.
Als Sony deze LCD's serieus op de Nederlandse markt wil aanbieden zullen ze best DVB-C ontvangers met CONAX slot aan gaan bieden. Als ze slim zijn maken ze de ontvangermodule modulair en kun je zelf kiezen of je DVB-T wilt of DVB-C.
Nee idd 540p bestaat niet, maar 1080i is niks anders dan 540 beeld lijnen per field met 2 fields per 'frame'. Met interlaced hoort (in theorie) men nooit de totale 1080 beeld lijnen tegelijk op het scherm te hebben (door de snelheid heb je wel het idee dat het zo is). Dus is het (breedte niet mee genomen) 540p op dubbele snelheid (2 fields wordt dan 2 frames).

Je kan niet zomaar 2 fields combineren en dan verwachten dat het er goed uit ziet. Dit kan je makkelijk testen door een interlaced video te nemen en deze dan af te spelen op je pc met alle hardware/software filters/acceleratie uit. Dan zie je vaak dat de even / oneven lijnen 'net niet' passen.

Al hoewel de breedte nooit veranderd hoor je nooit hier wat over. De 'HD-Ready' plasma schermen hebben dan ook rare resoluties (heel wat van deze schermen hebben maar 1024x768 en noemen dit dan 'HD-Ready' terwijl dat niet eens een 16:9 resolutie is).

Anyways whatever, de illusie dat 1080i hetzelfde is als 1920x1080 is gewoon fout.
Daarom is PAL 50Hz?

24fps progressive is wel degelijk anders dan 24'fps' interlaced, en 2 fields bij elkaar voegen om 1 beeld te maken 'gaat' niet zomaar en is zeker niet hetzelfde.

Zie je dit op je tv? nee, omdat de normale tv dit ook niet doet. Meeste normale tv's kunnen echt geen 576 beeld lijnen (pal resolutie) tegelijk laten zien. Probeer maar eens 800x600 van je PC met tv out op je tv te bekijken, kleine lettertjes lezen lukt opeens niet, wonder why...

Een LCD tv heeft hiervoor speciale de-interlace filters die 2 fields bij elkaar probeert te voegen.

Kijk hier maar eens:
http://www.leadtools.com/...irectShow-DeInterlace.htm

Als jij de bovenste film 'er goed vind uit zien' dan zeg ik niks meer... Dat is het beeld zonder filter maar wel 2 fields bij elkaar gevoegd...

Met dat ingedachte, zullen (denk ik) meeste lcd-tv's die geen 1920x1080 hebben, een 1080i beeld weergeven als 960x540 en dan op 50fps. Persoonlijk verwacht ik dat dat een beter beeld geeft dan er 'echt' 1920x1080 van te maken en dat dan te downscalen naar 1280x768...
Niet echt representatief voorbeeld, want die camera is dus echt niet wat bij tv/film-opnames gebruikt wordt. En dan nog eens een compressie er overheen

Je hoort mij niet zeggen dat interlaced beter is dan progressive, omdat progressive altijd een strak plaatje laat zien.

Maar nu nog een voorbeeld van een verschil tussen 720p en 1080i. Progressive is strakker, maar het verschil in resolutie heft dat wel weer op.

Bij CRT-tv's gloeit de fosforlaag nog na, dus geeft interlaced signaal een prima beeld. Bij TFT niet en moet het uiteraard progresive gemaakt worden.
Gewoon even wachten tot 1080p betaalbaar is en dat halen :)

En dat je tv-out op je tv er niet leesbaar uitziet ligt grotendeels aan de bron. Stuur je tv maar eens aan op de exacte resolutie en het beeld is gewoon strak.(vb met powerstrip)
@Da_Teach hmm.. niet helemaal.

1080i = 1920x1080. De 2 field worden gecombineerd tot 1 frame van 1920x1080. Aangezien het snel gaat, 50 of 60 Hz, zie je de 1080 beeldlijnen. Er moeten dus ook 1080 beeldlijnen aanwezig zijn, niet 540, anders zouden de even of oneven lijnen te hoog of te laag worden weergegeven en krijg je een heel raar beeld. Alsof ze dus op elkaar gezet worden.

Wanneer de bron interlaced is gefilmt, 1080i dus, dan krijg je op een progressief display, zoals lcd, kammen omdat de even en oneven beeldlijnen niet samen tot een frame behoren. Maar wanneer je progressief filmt, 1080p dus, dan zie je op je 1080i scherm gewoon 1080p omdat de 2 fields samen een compleet frame zijn.

Qua bandbreedte is het ook gelijk. 1080i interlaced @ 50Hz heeft dezelfde bandbreedte als 1080p progressive @ 25 Hz.
@nicetas:
Telecine is het process om van 23,976 fps naar 29,97 fps te gaan. Op alle dvd's van tegenwoordig staan de beelden progressive, 23,976 (NTSC dvd's) of 25 fps (PAL dvd's). Bij decodering word bij NTSC hier via telecine 3:2 29,97 fps van gemaakt. Dit word gedaan om eerst 3 field te tonen en dan 2 enz.

@Da_Teach:
1080i kan je niet weergeven als 540p. Bij 1080i word geschoten met 1080 beeldlijnen. Het ene field de even het andere field de oneven. Zou je dit als 540p weergeven dan dansen je beeldlijnen op en neer.
Opdringen?
wij hebben het vandaag gratis gekregen!
beter gezegd, het is een geforceerde wissel.
maar de analoge kabel blijft gewoon, anders kan ik niet meer tv kijken op mijn lieve graas-pctje
meeste hebben een native resolution van 1280x768, en 720p is 1280x720
Sommige televisies hebben inderdaad 1280x768, maar dat is geen 16:9, doch 15:9. In de praktijk rekken de fabrikanten het beeld op!
Ik heb de indruk dat de nieuwste generatie LCD televisies 1366x768 is. Gelukkig wel 16:9, maar 720p past er niet in zonder te scalen.

Verder ben ik het helemaal eens met IlluZiaN. Er zijn helaas misverstanden over 1080i.
Da's inderdaad een probleem: veel breedbeeldschermen zijn 1360x768

Je hebt natuurlijk wel de mogelijkheid om de film op 1280x768 te kijken, met een zwart randje om je film. Da's wel jammer van je schermgrootte, maar het ziet er wel iets beter uit => Probleem van het _kleine_ resolutieverschil 1360/1280 en 768/720, is dat het digitaal opschalen ervan het gevaar van Moirť met zich meebrengt (laag-frequente ghosts).
@ BassieZ
quote: BassieZ
Ik weet de prijs wel: niet te betalen.
In eerste instantie zal de prijs erg hoog zijn, maar naarmate er meer concurrerende producten op de markt komen, zal de prijs vanzelf dalen.

Als je kiest voor een nieuwe LCD-TV, dan weet je dat je daar op dit moment nog de hoofdprijs voor betaald, terwijl je, als je nog even wacht en het afromings-principe een beetje zijn werk laat doen, deze soort televisies voor veel minder kan kopen.
Kan iemand mij misschien een klein beetje uitleggen wat precies het verhaaltje omtrent 720 / 1080 p/i etc inhoudt en wat het verschil ten opzichte van elkaar is?

Ik vind dit toch erg moeilijk te begrijpen en te vinden..

Alvast bedankt :)

Schitterende TV"s trouwens!
Darker, het verhaal van 720p en 1080i is erg lang om hier even te vertellen, maar ik zal proberen een samenvatting te maken.

Om te beginnen: de beeldkwaliteit van 1080i en 720p is ongeveer gelijkwaardig, dit in tegenstelling wat er de laatse tijd in sommige fora te lezen is. Het hangt van de bron af (video of film, veel beweging of rustige beelden) wat beter oogt.

Bij 720p zijn 720 beeldlijnen achter elkaar weergegeven, net als computermonitoren doen. De p staat voor Progressive

Bij 1080i worden eerst de oneven 540 beeldlijnen weergegeven, daarna worden 540 andere beeldijnen, de even lijnen, weergegeven. Deze lijnen worden door elkaar heen geweven. Tussen deze twee beelden zit ongeveer 1/25 tot 1/30 seconden (50 of 60 Hz). De i staant voor Interlaced. In totaal zijn het 1080 verschillende lijnen, en niet 540 wat wel eens beweerd wordt.

Bij een stilstaand beeld geeft 1080i een beeld dat gelijk is aan 1080p.
Bij een heftig bewegend beeld zakt de effectieve scherpte onder dat van 540p, vooral bij verticale beweging.

Bij sport kun je beter 720p hebben (of 1080p natuurlijk), bij "Tussen kunst en Kitsch" (AVRO) zal 1080i beter uitzien dan 720p want daar beweegt weing

Veel oudere LCD schermen hadden slechte de-interlacers waardoor 1080i er altijd slecht uitzag in combinatie met het scalen naar het native formaat. Misschien dat 1080i daarom een wat slechte naam gekregen heeft.

Film op 50 Hz (Europa) op 1080i is gelijkwaardig aan 1080p.
Film op 60 Hz (VS en Japan) op 1080i ziet er heel beroerd uit vanwege de telecine: er worden 2 filmbeelden in 3+2 frames gezet, wat sterke verticale vervorming geeft. Dit wordt de 3:2 pulldown genoemd om de 24fps van film in 60 Hz te krijgen.
Ik denk dat je hier wel het een en ander wijs uit kan worden:

forum: [HDTV] High-Definition TV. Wat is het precies topic deel 2

Daar heb ik ook een hoop van opgestoken.
Je kan niet verwachten dat iedereen zo slim is als jij, waren we dat wel dan hadden we als consument allang commentaar geleverd aan de fabrikanten en hadden we allemaal al een 1080p schermpje in de huiskamer staan :)
Alleen jammer dat je aan die ingebouwde digitale DVB-T (FreeView) tuner niets hebt in Nederland.
Ooit zou men toch overstag moeten zou je denken :(. Hoe het nu geregeld is is het sowieso onmogelijk om Tuners in te bouwen in TVs, voor iedere aanbieder heb je weer een andere decoder nodig. Die boel moet snel vereenvoudigd worden.

Het is iig toe te juichen dat DVB-T nu gewoongoed begint te worden. Veel laptops ondersteunen het bijvoorbeeld ook al.
Het feit dat je hier niets hebt aan DVB-T heeft te maken met kijk-en-luistergeld. In bijvoorbeeld Duitsland betaalt iedereen zich scheel aan kijk en luistergeld terwijl dat hier bij mijn weten is afgeschaft. In de plaats daarvan is er een 'de gebruiker betaalt' systeem gekomen waarbij het kijk en luistergeld via de aanbieder van televisie richting naar de *kuch* rechtmatige instanties verdwijnt. Daarom moeten er dus wel smartcards gebruikt worden om de nederlandse zenders te kunnen decoderen.
Zoals ik hierboven ook al aan geef....

smartcards zijn niet erg. Maar geef de gebruiker dan de vrijheid om deze in elke hardware te steken die hij wil en maak gebruik van de mogelijkheden die technisch voor handen zijn.

Het lijkt mij dat als alle aanbieders CAM's gaan aanbieden/ondersteunen, dat de industrie dan ook sneller geneigd zal zijn om DVB ondersteuning in apparaten te gaan standaardiseren met tuners die alledrie de varianten ondersteunen, en een common interface.
Duitsland betaalt iedereen zich scheel aan kijk en luistergeld terwijl dat hier bij mijn weten is afgeschaft
Het klopt dat je geen aparte aanslag meer krijgt voor kijk- en luistergeld, tegenwoordig worden de publieke omroepen betaald uit de inkomstenbelasting, maw je betaald nog steeds kijk- en luistergeld!

http://nl.wikipedia.org/wiki/Kijk-_en_luistergeld
smartcards zijn niet erg.
Probleem met smartcards is dat je er voor iedere TV/Tuner ťťn nodig hebt.
Het lijkt mij dat als alle aanbieders CAM's gaan aanbieden/ondersteunen
Dat dat niet werkt blijkt wel bij DVB-C, daar is het al zo erg dat de smartcard alleen maar werkt met bepaalde CAM's.
Alle kabelaars in Nederland (CaiWay,Essent,Casema,UPC) gebruiken Irdeto2, maar een officiŽle Irdeto2 CAM werkt niet!

Gelukkig zijn er ook uitzonderingen, b.v. de CAI in Harderwijk, die zet het digitale basispakket (>50 zenders) gewoon FTA op de kabel.
En dat bedoel ik dus precies :).

Maar dat is dus geen technische beperking, maar komt door ohet 'geklooi' van met name de kabelaars.

Overigens heb ik wel van CaiWay en Essent gebruikers gehoord die hun smartcards ook in pc werkend hebben gekregen. UPC is echter een no-go heb ik ook gehoord.

CAI Harderwijk rules idd :D
\[off-topic]

Het is toe te juichen, met dien verstande dat DVB-T sowieso nog niet echt geweldig werkt.

Ik heb noodgedwongen DVB-T (Digitenne) omdat ik geen kabel kan krijgen omdat ik in een tijdelijk woningcomplex woon. Echter, het is super storingsgevoelig en omdat ze nog bezuinigen op frequenties en daar zo veel mogelijk zenders in willen proppen is de compressie soms nog erger dan wanneer je de extended edition van Lord of the Rings met dvd-shrink op een dvd-5'je zou proppen.

Wat betreft systemen: DVB is super eenvoudig hoor!. Het zijn alleen de aanbieders (zowel digitenne, canaal digitaal voor sateliet, of UPC) die lopen te klooien met coderingssystemen, of beperkingen opleggen zoals koppeling van je smart-card aan specifiek de receiver die bij het abbo is geleverd, etc.. Voor DVB-receivers bestaat de "common interface" standaard. Bouw zo'n slot in elke tv en laat de DVB-aanbieders, naast tuners, ook gewoon CAM's gaan leveren met abbo's, dan ben je er... zou je zeggen.

\[/off-topic]
Ondersteuenen deze dan de HDCP standaard nodig om echte, niet gereduceerde beelden te tonen? Of ondersteund elke HDTV dit reeds en was dit enkel een probleem bij PC's?
Nee hoor. Die van mij ondersteunt het niet. Voor een TV die het wel ondersteunt betaal je een stuk meer, en ik weiger beschermingsgeld aan de entertainment mafia te betalen.

Trouwens: TS rips van usenet doen het prima op 720p of 1080i/p (als je TV die resolutie heeft) hoor.
Volgens Sony worden deze nieuwe modellen in april leverbaar.
Volgens jou, zolang je geen bronvermelding geeft ;-)
ter informatie

P staat voor NONInterlaced

Progressive bestaat technisch niet.
Progressive is niet in FPS uittedrukken
Hoe kom je daar nu weer bij? Progressive en Interlaced zijn allebei termen die aangeven hoe een frame wordt opgebouwd. Bij interlaced wordt een frame in field A en field B verdeeld en bij progressive heb je gewoon een full frame die van links naar rechts, van boven naar onder wordt weggeschreven.

De P staat wel degelijk voor progressive. Dat dit de methode aanduidt hoe het beeld wordt opgebouwd en niet het frame zelf doet daar geen afbreuk aan. En aangezien 1 progressive frame bijv. 50 keer per seconde op een scherm getoverd kan worden heeft het wel een sterke relatie met de term FPS.
Heb laatst nog een test gelezen van breedbeeld lcd tv's, en deze waren ongeschikt om dvd goed weer te geven... En toch stapt de consument massaal over op lcd. In mijn ogen heeft lcd maar 2 voordelen: Plat, en zuiniger dan crt.
Zuiniger?? grote lcd schermen zijn helemaal niet zuiniger dan crt's vanwege de backlight. dit gaat alleen op voor relatief kleine computer lcd's. je bent nog een "voordeel" vergeten trouwens, tevens de belangrijkste: Statussymbool.
Sony stelt hdtv-ondersteunende lcd-tv's voor
Beetje vage titel van het nieuwsbericht want de vorige Bravia series ondersteunen ook HDTV...
Ik ben benieuwd hoe ze dat voor elkaar boksen: interlacing op een TFT TV. Zullen ze een net deinterlacing algoritme (blend, motion blur, hybrid, motion compensation, edge-directed interpolation, enz) gebruiken, of de framerate halveren? Of gewoon ouderwets interlaced weergeven, met alle gevolgen van dien?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True