Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

IBM heeft in samenwerking met het softwarebedrijf Broadcast International een hd-videocodec ontwikkeld die slechts 3Mbps aan bandbreedte gebruikt. Dat is zeker 80 procent minder dan de bestaande hd-codecs.

Codecsys logoHet nieuwe systeem, genaamd Codecsys, draait op een IBM Bladecenter-server met een Cellbe-processor. Het maakt gebruik van een combinatie van hard- en softwarematige compressie, waardoor het de voordelen van beide combineert. Hardwarematige compressie is snel, maar niet flexibel. Softwarematige is wel flexibel, maar zeer cpu-intensief. Volgens Broadcast International is Codecsys zowel snel als flexibel.

De truc die bij Codecsys wordt toegepast, is dat de videostream met verschillende codecs wordt gecomprimeerd en dat de software daaruit steeds de codec kiest die op dat moment het beste resultaat geeft. De huidige systemen gebruiken maar n codec voor de gehele stream. In een demo maakt Broadcast International aanschouwelijk hoe het systeem werkt.

Volgens de beide bedrijven is de software aan te passen aan toekomstige standaarden, zodat de apparatuur niet hoeft te worden afgedankt als er een nieuwe compressiestandaard komt. Naast de bandbreedtebesparing beschouwen de ontwikkelaars dit als het tweede sterke punt van het systeem. Codecsys zal komende week worden gedemonstreerd op de conferentie van de National Association of Broadcasters in Las Vegas.

Moderatie-faq Wijzig weergave

Reacties (70)

_/-\o_ techniek techniek _/-\o_

Wat een geneuzel over hd het blijft maar door gaan bij elke post.
De een vindt dit mooi en de andere dat mooi.
Het licht er maar aan hoe goed je ogen zijn :9~
Ik kijk naar mijn geld wat voor een verschil ik zie met analoog en digitaal op 2 meter afstand op mijn bravia hd ready.
Ja verschil is er maar om nu alles om te zetten naar digitaal nee dank je ik w8t nog wel een paar jaartjes voor een echte fullhd tv.
Als alle zenders ook daadwerkelijk in full-hd uitzenden.
Tot dan maak ik wel gebruik van de 720p of de 1080i O-)
Ja dat 1080i/p is echt alleen goed zichtbaar als je of ontzettend dichtbij zit (wat funest is voor de ogen) of als je een heel groot beeldscherm hebt, en dan denk ik aan tenminste 2 meter diagonaal.

Mensen mogen zich blind gaan storten op volledige 1080i/p schermen (dus wat het scherm native kan weergeven), maar ik trap er niet in.
technisch gezien is p 2 keer zo goed als i. dat is gewoon een feit.
dat het menselijk ook daar anders over denkt, omdat ie het beide gewoon als een vloeiende beweging ervaart doet niet terzake.

feit vblijft ook dat je met interlaced beelden ook de fouten in het beeld kunt zien, die door interlacing ontstaan. die fouten treden natuurlijk niet altijd ( en zeker niet altijd ) in een even grote, merkbare vorm op.
met een progressive signaal heb je die fouten dus niet.

verder staat hier los van dat je een beelddiagonaal en resolutie moet nemen die bij de kijk afstand hoort, of juits ver genoeg van je scher af moet gaan zitten om het juist te ervaren.

ik denk dat ibm de hd content gewoon zelf door dat systeem haalt, wat dus een combinatie van codecs oplevert die het kleinste bestand opleveren, of de kleinste stream opleveren.

daarvoor hoef de decoderende processor niet 3 keer zo veel werk te doen. die hoeft slechts over te schakelen op de codec die door ibm wordt aangedragen.
dat een beeld dat sterker gecomprimeerd is, meer processorkracht vergt mag duidelijk zijn, maar dat is ook zonder het systeem van IBM van toepassing.
Als je even heel cru rekent:

Een beeld van 640x480 maakt 307200 beeldpunten.
Ieder beeldpunt kan 32bit kleurinformatie bevatten. Dat maakt het totaal aantal mogelijke beeldcombinaties 98956046499840000.

Technische gezien hoef je dan alleen maar een getal door te geven welke aangeeft welk beeld je nodig hebt. Nadeel is dat je een giga database nodig hebt. Of een zeer krachtige processor die dmv een alchoritme kan uitrekenen hoe het beeld er uit ziet.

Je kan zelfs het aantal mogelijke beeldcombinaties vermenigvuldigen met het aantal fps en tijdsduur (laten we zeggen 3 uur) (32400^32400) en dan weet je het maximum aantal films die theoretisch met deze resolutie en tijdsduur te maken zijn. mijn wetenschappelijke rekenmachine geeft overflow maar je komt uit op:
98956046499840000*2,6^8.130.000 !!!

Dan kan je een super (extreem super) computer nemen en alle mogelijke filmcombinaties uitrekenen en copyright op nemen 8)7 (erg evil)

[Reactie gewijzigd door Dekaasboer op 14 april 2008 13:33]

80% minder, dus huidige HD codes zouden 15 mbit/s nodig hebben? Dat is beetje onzin, kijk naar mpeg4/x264.
'MPEG4' op zichzelf kan evengoed xvid (de implementatie) zijn. x264, oftewel H.264, de 10de versie van MPEG 4, die is 'HD'. En enkele blu-ray schijfjes hebben wel bitrates van 15mbit/sec, die in de vorm van 1400MB x264 gencodeert materiaal terugvalt naar ~1500kbps. Wat best wel netjes is, maar het origineel kent een veel hogere bitrate nonetheless.

De profielen die daarvoor gestandaardiseerd (spelling?) zijn, zijn wat jij zegt, maximaal 20mbit. Dit is dan bij 1280*720 progressive en met 30fps. Echter, de maximale bandbreedte voor 1080p kan oplopen tot 135Mbit/sec!
Dan krijg je, 1920 * 1080 progressief beeld, aan 60fps. En de x264-implementatie is nog niet 100% zuiver geschikt voor dit 'Advanced Profile'. Er zijn nog wat probleempjes hier en daar. Microsoft's (W)VC1 is daarentegen volledig klaar om hiermee overweg te kunnen.

[Reactie gewijzigd door Mizitras op 13 april 2008 15:32]

Eeh, wel even opgemerkt dat VC-1 geen MPEG4 gebaseerde codec is. Het is wel net zo'n soort codec als MPEG4/AVC (wat ook wel H.264 heet), maar het komt van een ander project.

En als tweede opmerking dat 9 van de 10 keer dat je MPEG4 meld je meestal MPEG4/AVC bedoeld. En dat is niet hetzelfde, maar een verdere ontwikkeling.
Dit doet me een beetje denken aan dat systeem van die Nederlandse man (elektromonteur dacht ik), die een kastje had en met 64kb aan informatie een complete film tevoorschijn kon toveren.
Een dag voor hij met zijn uitvinding een deal met Philips (geloof ik) ging maken, overleed hij aan een hartstilstand. Erg treurig verhaal.

Is dit hetzelfde principe? Lijkt er in zekere zin wel op... :)
Jan sloot bedoel je. Maar volgens mij lijkt dit er voor geen meter op.Sloot 'beweerde' dat hij een soort codec of andere manier om video te comprimeren had bedacht. Dit systeem van IBM gaat over het gebruiken van verschillende codes; het is dus niet een codec zelf.
Maar IBM en Broadcast International maken net zo goed hele vreemde claims. De bandbreedte reductie zou door wissellen van codecs komen. Volgens mij is daar heel weinig winst te halen. Als een codec al slecht op een bepaald soort materiaal presteert, is het vaak zeer goed mogelijk om de algorithmes aan te passen zodat de prestaties dichter bij die van de concurrenten komt te liggen. Beweren dat sommige codecs 10 keer zo slecht presteren op sommige types materiaal is volstrekte onzin. Zonder die 10x verschillen haal je nooit een 80% reductie, aangezien er ook stukken content zijn waar de verchillen minder prominent sijn.
Ja, die bedoel ik.
Door velen verketterd, als ongeloofwaardig beschouwd.
Helaas is zijn uitvinding nooit uitgewerkt, ik heb namelijk wel het idee dat er een kern van waarheid in zit.

Maar wat is logica? Normaal gesproken wordt een film opgenomen, in full formaat (gebeurt al sinds 19xx ofzo), vervolgens wordt het ge-downsized naar bijv. DVD-formaat m.b.t. PAL en dan bijv. geript en gecomprimeerd naar DivX, voor p2p-uitwisseling.
Allemaal mooie technieken en de kwaliteit van DivX is tegenwoordig echt om over naar huis te schrijven, maar het is exact het omgekeerde van Sloot's idee.

Hij creeert een film, die nooit is opgenomen met een soort versleuteling die door een 'key' wordt verteld wat er gepresenteerd moet worden.
Zou je zo nauwkeurig kunnen versleutelen, dat je levensechte, realistische beelden produceert vanuit het niets?
Als je iedere seconde evenveel beeldjes produceert als een normaal beeld bevat in een seconde, heb je idd geen 'opname' nodig.
Maar in weze zou dan de informatie in de 64kb-key toch moeten vertellen waar- en hoe iedere pixel gevuld moet worden, voor de gehele resolutie, en dat voor alle frames?

Hmmm..blijft vaag dit. :o

Edit: Misschien las hij eerst alle beelden/frames in, bepaalde de versleuteling hoe elke pixel 'gevuld' moest worden, werd dat vervolgens opgeslagen op een chipcard.
Zo zou je idd waarschijnlijk een soort 'database' van aanwijzingen creeeren, die voor een volledig beeld kunnen zorgen. Maar lukt dat op 64kb???
Je hoeft de beelden niet meer 'fysiek' op te slaan, maar ze kunnen berekend worden.
Misschien past een HD1080p-LOTR-trilogie dan wel op een 'ordinaire' 1,44mb floppy? ;)

[Reactie gewijzigd door johncheese002 op 14 april 2008 15:13]

Sloot gebruikte ook verschillende codecs. Maar hij maakte een verdeling tussen video, audio en data. Verder was het systeem gebaseerd op een sleutel van enkele KB en enkele grote databases waaruit dan de film dan gereconstrueerd kon worden.
Wat hierboven dus staat van 16 films op 64 KB betreft dus alleen de sleutels.

Het blijft wel zo dat als je alles rationeel/wiskundig berekent het simpelweg niet mogelijk lijkt. Maar ik vind dat je absoluut niet kunt spreken van een hoax.
Alhoewel de uitvinding wel nooit meer boven water zal komen geloof ik zelf wel degelijk in de uitvinding.
Het blijft wel zo dat als je alles rationeel/wiskundig berekent het simpelweg niet mogelijk lijkt. Maar ik vind dat je absoluut niet kunt spreken van een hoax.

Vreemde stelling... Denk je dat het op een irrationele niet-wiskundige manier te bewijzen is?
Ja, met het verschil dat dit geen gebakken lucht is.
Omdat het IBM is? Wissellen van codecs zou wellicht een verbetering van bandbreedte kunnen opleveren, maar 80% winst halen door dynamisch video codecs te wissellen is volstrekt onlogisch. Dat lukt alleen door flink op de kwaliteit van het materiaal in te leveren. Misschien dat dat niet zichtbaar is op de huidige generatie HDTV's
Ga "Het Koekoeksei" maar eens even lezen. elektromonteur was trouwens Jan Sloot. Roel Pieper zag dr wel goeie dingen in. Jammer dat het nooit uit is gekomen.
Je bedoelt dat verhaal van Jan Sloot? Dat zou net zo goed een hoax kunnen zijn, aangezien er nooit echt iets van getoond is, behalve aan een handvol mensen.
Jan Sloot IS een hoax.

16 films op 64KB. Dat is simpelweg niet mogelijk!

Het apparaat is nooit geinspecteerd (uit elkaar gehaald) en het was allemaal 1 grote publiciteitsstunt van de kerel die boven hem stond. Zeer waarschijnlijk bestond de kaart simpelweg uit verwijzingen naar de films die in het kastje zelf op een vorm van opslagmedium stonden.

[Reactie gewijzigd door jkommeren op 13 april 2008 11:45]

Jan Sloot IS geen hoax, zolang het niet bewezen is dat het werkelijk een hoax is.

10 jaar geleden waren codecs als x264 ook ondenkbaar.. Naast het feit dat natuurlijk indertijd zo'n film een andere resolutie had als de huidige dvd...

Ondenkbaar? ja zekerweten? nee.
Ah, dus tegenwoordig is elke bewering die je doet waar tot iemand bewijst dat het niet zo is ? :O

10 jaar geleden was x264 helemaal niet ondenkbaar.
Dat de consumenten-hardware er nog niet aan toe was, tja, da's een ander verhaal.

Jij vergelijkt zaken die logischerwijs nog niet op consumentenhardware van nu kunnen met zaken die logischerwijs op geen enkele hardware kunnen.
Dan zal die 3 Mbps wel een gemiddelde zijn. Ik kan me voorstellen dat er scenes zijn die zich in geen enkele codec lekker later comprimeren. Voor het kanaal heb je voor de pieken dan dus wel meer bandbreedte nodig. Wat weer een beetje op te vangen is door te cachen, maar dat is minder real-time.
Hm ik ben heel benieuwd hoe je dat gaat doen op een PC. Als je drie codecs vergelijkt betekent dit volgens mij ook dat je infeite het materiaal ook drie keer moet comprimeren. Dit zou inhouden dat het comprimeren van je video dus ook drie keer zo lang duurt. En het duurt al zo vreselijk lang allemaal :-)

Bovendien vraag ik me af of je dit in realtime kunt coderen. Dus live TV opnamen en zo.. Mogelijk dat quadcore processors nu dan eindelijk in het voordeel zijn.

[Reactie gewijzigd door benbi op 13 april 2008 10:40]

Dat ga je niet doen met een PC, dat ga je doen met een IBM Bladeserver :) Het product is voor zover ik het begrijp bedoelt voor kabelexploitanten, niet thuisgebruikers. Het comprimeerd de stream en stuurt dan de best gecomprimeerde naar de klant.

Als je je PC eraan zou hangen hoef je dus ook alleen maar bit-voor-bit hetzelfde op te slaan, komt geen verdere compressie aan te pas (er van uitgaande dat je het met een PC kan afspelen zonder speciale extra chips).
Aah dit is een goede uitleg! Hier kan ik me wel in vinden.

Op deze manier promoot IBM niet alleen z'n (de)codeer oplossingen maar ook de Bladeservers zelf.
Het heeft een vier tot zes keer zo goede compressie als MPEG-2. Dat is nou niet echt revolutionair als je dat met x264 vergelijkt.
Om echt goed aan te geven hoe deze codec presteert moet je vergelijkingsmateriaal hebben met een bron en encoderingen met verschillende andere codecs.

/edit:
Het ondersteund ook alleen maar 1080i en 720p, dus niet eens FullHD.

[Reactie gewijzigd door Coocoocachoo op 13 april 2008 10:32]

1080i s "full HD". 1080p is niet echt een standaard, het is oorspronkelijk alleen ontwikkeld voor opname en postproductie (omdat het lossless is om te zetten naar 720p en 1080i). 1080p zal echter nooit worden uitgezonden en deze codec is alleen bedoeld voor uitzending... De ondersteuning voor 1080p zou dus niet veel nut hebben.
huh? 1080i is GEEN full HD, 1080p is full HD, en 1080p is wel degelijk een standaard. En naarmate de bandbreedte verhoogt zal ook 1080p worden uitgezonden..
En naarmate de bandbreedte verhoogt zal ook 1080p worden uitgezonden..En naarmate de bandbreedte verhoogt zal ook 1080p worden uitgezonden..
Zo rond 2030 zal dat dan zijn... Volgens mij heeft Valaraukar wel degelijk gelijk.

Ik snap trouwens die 1080p neurose niet, wel hebben decenia 768x576 hardstikke interlaced zitten kijken en nu HD een beetje begint op te komen en moet het in 1 klap door naar een alle bandbreedte opslurpende 1080p? Kom op, als ik het huidige zenderpakket in 1080p zou krijgen moeten ze eerst meerdere glasvezels naar mijn huis gaan aanleggen. Ergo: je kunt ook te veel en te snel willen.

[Reactie gewijzigd door mashell op 13 april 2008 20:07]

De term "Full HD" is een marketingterm, waarmee de officiele standaard "HD Ready 1080p" wordt bedoeld.
Valaraukar heeft wel een punt: om technisch 1080i te tonen moet het toestel wel degelijk het volledig aantal van 1080 rijen pixels hebben. De elektronica erachter bepaalt of er interlaced of progressive frames getoond worden (uitgaande van interlaced bronmateriaal).
Zie jij het verschil tussen 1080i en 1080p ?

ik niet
Ik wel.

Het zal van de deinterlacer van je toestel afhangen, maar bij snelle bewegingen vond ik 1080i heel storend.
Het zal dan aan mij liggen... Ik zal wel slechte ogen hebben ofzo, ik begrijp ook niet hoe sommige huisgenoten het verschil zien tussen 60fps en 80fps en 100fps in bv. CS.

Ik moet ook zeggen dat mijn monitors maar 1680x1050 ondersteunen en dus het niet eens kunnen weergeven.


Wel kijk ik regelmatig series, en dan afwisselend gewone releases, .hr releases en 720p releases zonder dat het me veel uitmaakt naar welke ik kijk. Hoewel ik tussen die dingen zeker het verschil zie, wil ik maar zeggen dat het toch weinig uitmaakt hoeveel pixels een leuke serie of een goeie film heeft. Als je dan vervolgens nog onderscheid gaat maken tussen hoe die pixels weergegeven worden (interlaced of niet) dan overdrijf je toch een beetje lijkt me.
Ligt niet aan jou, het menselijk oog en brein kunnen 'slechts' 50fps maximaal zien ;)

Wat die codec betreft: volgens de specs gebruiken ze h.264, de open HD codec die je ook steeds tegenkomt bij HD/BR rips. Die rips hebben meestal een bitrate van rond de 5000Kbps, sommige zijn 4,4GB, andere 6,5GB, 8,5GB of groter afhankelijk van de gekozen resolutie.

De meeste van die 4,4GB grote 720p rips zien er erg goed uit, de bitrate kan hoogstwaarschijnlijk lager (Shrek in 720p was slechts 2,2GB en zag er top uit) maar zij houden nog steeds vast aan de dvdr grootte.

De '720p' die in die titels staan kloppen meestal niet aangezien in mijn optiek 1280x544 echt geen 720 progressieve vertikale lijnen bevat ;) en dat geld dan ook voor retail HD-DVD / BluRay, maar dat terzijde... Toch heeft het een voordeel, want je 'bespaard' bandbreedte, zwarte balken kosten niks ;)

Al met al denk ik dat er voldoende bandbreedte te besparen valt met dit systeem, en voor de 1080i/p puristen: heb je HD-DVDs van DFW? Flyboys en 1408 zagen er top uit en dat waren 1080i50 HDTV masters (kl*te DFW!!). Daarmee zeg ik dat 1080i er ook prima uitziet.
correctie: het menselijk oog neemt tussen de 25 en 30 beelden per seconde waar. vanaf dan wordt een beeld als vloeiend gezien.

een hogere frequentie zorgt wel voor een scherpere waarneming: je monitor is namelijk niet perfect gesynct met de "framerate" van je oog. daardoor zien we bij een gelijk, niet gesyncte framerate eigenlijke een samengietsel van 2 beelden (Het oog nam ze allebei waar) en wordt dit als iets waziger, doch vloeiend gezien.
vandaar dat men vanaf een framerate van zo'n 50-60 fps bijna geen kwaliteitstoename meer ziet bij verhoging (nog waarneembaar, maar echt verwaarloosbaar vanaf 70fps)

Mensen die beweren dat ze het verschil zien tussen 80 en 120 fps zijn dus een bende leugenaars of superhelden met een bovenmenselijk zichtsvemogen ;)

kleine voetnoot: We herinneren ons allemaal natuurlijk wel de oude 100Hz TVs. Die bestonden wel, maar dat had enkel een nut bij CRT schermen: hierbij stuurde het scherm 100 lichtflitsjes per seconden uit dit was neit om eht beeld vloeiender te maken, maar om hoofdpijn te voorkomen. tragere frequenties waren namelijk storend om naar te kijken na langere tijd omdat we de flikkering nog opmerken, bewust of onbewust.
Bij LCD monitoren zie je tegenwoordig zelden een hogere frequentie dan 75Hz. Dit omdat LCD een constante verlichting hebben: er is dus geen flikkering.
Tv-serie releases ben ik helemaal met je eens dat de kwaliteit weinig uitmaakt. Maar qua gamen en ander gebruik van de PC moet ik toch echt wel een scherm hebben die wat meer dan 60hz aankan.

Ik weet niet of het tegenwoordig met TFT's nog zo opvalt, maar pak voor de gein eens een moderne CRT monitor die op 100 of 120Hz kan. Ga er een poosje achterzitten op 100 Hz, en dan een poosje op 60Hz en merk het verschil. Vooral als ik dan een witte achtergrond heb en zwarte letters probeer te lezen, daar krijg ik echt koppijn van.

[Reactie gewijzigd door ravenamp op 14 april 2008 21:30]

Als je dan vervolgens nog onderscheid gaat maken tussen hoe die pixels weergegeven worden (interlaced of niet) dan overdrijf je toch een beetje lijkt me.
Dit zou je niet zeggen als je ooit interlacing effecten hebt gezien. Als ik bijvoorbeeld op mijn 1400x1050 beeldscherm een normale tv uitzending bekijk zijn de interlacing effecten duidelijk en storend, als het filter uit staat. In tegenstelling tot de 60fps, waar jij het over hebt, zijn mensen wel in staat de 25fps te zien die je krijgt als je 50Hz interlaced.
Het zal van de deinterlacer van je toestel afhangen, maar bij snelle bewegingen vond ik 1080i heel storend.
Dat is alleen zo als de beide halve beeldje verschoven zijn in tijd. Als ze beiden van het zelfde plaatje afkomen zie je met 1080i echt geen kam effecten.

Vergelijk het met DVDs. Die zijn altijd (per definitie) interlaced. Maar bij al het film material zie je geen kam effecten. Alleen bij materiaal wat oorspronkelijk voor TV is gemaakt zie je dat.

Nevertheless is 1080i eigenlijk een evil standaard die NOOIT in het leven had mogen worden geroepen. Je zou denken dat men na alle ellende die we met PAL/NTSC hebben gehad iets had geleerd.
"Nevertheless is 1080i eigenlijk een evil standaard die NOOIT in het leven had mogen worden geroepen. Je zou denken dat men na alle ellende die we met PAL/NTSC hebben gehad iets had geleerd."

Een hoge resolutie waar je zonder interlacing twee keer de bandbreedte voor nodig hebt is evil? Waarom?
Een hoge resolutie waar je zonder interlacing twee keer de bandbreedte voor nodig hebt is evil? Waarom?
Nou, het gaat om de interlacing techniek, niet om de bandbreedte. 1080p@30fps is gelijk aan 1080i@60fps. De 2de geeft echter mogelijkheden tot misbruik, 2 beeldjes waarvan het even en oneven frame verschoven zijn in tijd, zijn bijna onmogelijk om nog goed samen te voegen later. Dat is een heel naar effect waar iedereen altijd last van heeft.

Interlace had wel zin bij impulse-type schermen (CRT's). Die doven namelijk (snel) uit. Een knippering van 30hz is dan niet te doen, daar wordt je gek van. Met 60hz interlaced knippert opzich elke beeldlijn nog steeds met 30Hz, maar omdat dat om en om gebeurd is dat optisch veel minder erg.

Met de moderne schermen, waarvoor HD is bedoeld, is dat echter absoluut geen punt meer. Interlace is niet primair een techniek om bandbreedte te besparen (het totale aantal lijntjes of pixels per seconde gaat er niet mee omlaag), maar is een methode om het knipperen te beperken bij oude schermen. Omdat oude schermen toch geen HD kunnen weergeven, is het dus een volstrekt onzinnige standaard.
De HDTV standaard is ouder dan je denkt. Toen die opgesteld werd, waren er nog geen grote flatscreens, en dat waren dus CRT's (er zijn in de VS ook nog een groot deel DLP-HDTV's).
Interlace had wel zin bij impulse-type schermen (CRT's). Die doven namelijk (snel) uit
Buiten Europa zijn er zat HD CRTs te koop die dus alleen maar 1080i slikken en geen 720p of 1080p. Dat is dan ook de oorsprong van die standaard.
Buiten Europa zijn er zat HD CRTs te koop die dus alleen maar 1080i slikken en geen 720p of 1080p.
Nee hoor, zelfs buiten Europa zijn die ook bijna niet meer te krijgen. Een kort tijdje, zo iets voor 2000 zijn deze inderdaad te koop geweest, maar nu ook niet meer.
als het beeldje niet verschoven is dan is het gewoon 1080p25(pal) or 1080p30(ntsc)

een dvd is niet per definitie interlaced. je kan heel goed een progressive dvd hebben, en zelfs de meeste films die je koopt zijn progressive (gelukkig maar, anders zag het er helemaal brak uit op je lcd-tv).

Dit omdat van film (24fps, progressive) het erg makkelijk naar pal (25fps) te gaan is door de film iets trager af te spelen. Om hem correct te interlacen zou je een bron van 50fps progressive nodig hebben, of een interlaced source.

[Reactie gewijzigd door bl0m5t3r op 13 april 2008 14:41]

een dvd is niet per definitie interlaced. je kan heel goed een progressive dvd hebben, en zelfs de meeste films die je koopt zijn progressive
Nee, een DVD is ALTIJD interlaced. ALTIJD.

Alleen de bron kan progressive zijn. Het even en het oneven frame zijn dan niet in tijd verschoven en je progressive TV kan ze door een simpele weave weer samenvoegen tot het oorspronkelijke enkele beeldje. Helaas gooien refresh conversies (3:2 pull up) dan nog wel weer af en toe roet in het eten, maar in onze PAL landen hebben wij daar nooit last van gehad.
Maar bij al het film material zie je geen kam effecten.
Yeah right... ik heb genoeg 'films' waarbij ook interlace te zien is terwijl het dus geen tv materiaal is...
zal dat komen omdat jouw toestel geen goede deintelacer heeft?
Zelfs DiVX heeft al een betere compressie dan 4 tot 6 x MPEG-2.
"Cellbe"?
Cell Broadband Engine, Cell BE dus ;-)
De truc die bij Codecsys wordt toegepast, is dat de videostream met verschillende codecs wordt gecomprimeerd en dat de software daaruit steeds de codec kiest die op dat moment het beste resultaat geeft. De huidige systemen gebruiken maar n codec voor de gehele stream. In een demo maakt Broadcast International aanschouwelijk hoe het systeem werkt.

een aantal dingen:
- zie je geen verschil tussen codec A en codec B en als dat telkens wisselt?
- sommige codecs liggen best zwaar op de cpu (.mkv bijv), als je hiervoor een quadcore nodig hebt is het misschien aantrekkelijker om gewoon ouderwets wat meer ruimte gebruiken. Ik zie soms het voordeel niet in al deze compressie.
.mkv is geen codec maar een container en in principe nauwelijks belastend voor de CPU. Het is de ingevoegde H.264 videostream die meestal erg zwaar is.

En ik denk dat dit systeem voornamelijk bedoeld is voor TV-uitzendingen, vandaar ook "National Association of Broadcasters".

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True