Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties
Bron: Fujitsu

Op AV Impress Watch is het nieuwsbericht verschenen dat Fujitsu een hd-chip zal introduceren waarmee H.264-videobeelden realtime geŽncodeerd en gedecodeerd kunnen worden.

Fuji MB86H51-chipDe 15x15 millimeter grote MB86H51-chip is de opvolger van de eerder dit jaar geÔntroduceerde MB86H50. Deze laatste kon al 1440x1080i-beelden (4:3-formaat) met een frequentie tussen 50Hz en 60Hz encoderen en decoderen, maar de MB86H51 voegt hier 1920x1080i-ondersteuning voor een volledig 16:9-formaat aan toe. Hoewel Fujitsu in het persbericht de chip Full-HD capaciteiten toedicht blijkt dat bij nadere bestudering van de specsheet (PDF) niet het geval te zijn. Op de hoogste resolutie kan de chip alleen een interlaced videostream verwerken, terwijl formeel alleen progressief materiaal op 50 of 60 Hz voor het Full HD-stempel in aanmerking komt.

De nieuwe chip beschikt over 32MB fcram en zal bij zijn introductie ongeveer 250 dollar kosten. De beeldchip verbruikt ondanks de rekenkracht slechts 750mW tijdens het encoden van videomateriaal en kan maximaal 20Mb/s-videostreams decoderen. Fujitsu zal de beeldprocessor vanaf 1 juli leveren aan oem's voor gebruik in digitale hd-videorecorders, maar het bedrijf verwacht dat de energiezuinige chip ook gebruikt gaat worden in digitale videocamera's.

Moderatie-faq Wijzig weergave

Reacties (30)

is dus geeeeen full-HD, dat is 1920x1080PPPPP
Simpel: 1080P is geen HDTV-broadcasting-standaard.
Alleen 720p en 1080i zijn dat wel.
Dat wat CE-fabrikanten er op los gaan met 1080p verandert daar niet zoveel aan. 1080p wordt vast nog wel een standaard, maar de standaardisatieprocedure duurt nog wel een paar jaar, vooral door afstemming van de broadcasting industrie.
1080p wordt nu vaak gewoon geleverd door 1080i (source) op het scherm progressive (je "p" in 1080p) te tonen. En klaar is kees. Er is commercieel bijna geen 1080p materiaal te verkrijgen, simpelweg omdat apparaten die zich strikt aan de HDTV-standaard zouden houden, dat niet slikken. En als contentleverancier wil je dat risico niet nemen.
Geen broadcasting .. maar toch wel op Blue laserdiskjes bijvoorbeeld?
Blu Ray kan gelukig wel echt 1080p leveren, en dat wordt ook gedaan.
Alleen dan is het weer 24 Hz (film).
AFAIK is HDTV DVB-S2 (satelliet) 1080p
En daar zijn al flink wat uitzendingen van.
Kom op nou ... de H50 kon 1080i beelden en- en decoderen, de H51 voegt daar 1080p (typo in het artikel) aan toe. Hoe kan de H51 er nu 1080i aan toevoegen als de H50 dit al deed? Als ik voor elke typefout hier een euro zou krijgen, kon ik Bill Gates uitkopen ...
Er staat dat de H50 chip het in 4:3 kon, dat is dus 1440x1080. De H51 kan dit in 16:9, wat neerkomt op 1920x1080. Dat is het grootste verschil.

Misschien wel handig om er bij te zetten in het artikel. ;)
en wat betreft die typfouten... met al die verschillende afkortingen overal voor kan ik me dat ook best indenken
Dat vind ik nogal sterk, volgens mijn berekeningen komt dat erop neer dat Tweakers.net in al die jaren nog geen zinnig woord in een nieuwspost heeft gebruikt. :+
Klopt, echter zie ik het verschil nauwelijks tot niet tussen p en i...dus wat mij betreft...mooie chip. :)
I stond voor Interlaced volgens mij (opgeschaald met zwarte lijntjes)
P stond voor pixels
i = interlaced, om en om een frame met de even danwel de oneven beeldlijnen.
p = progressive, elk frame alle beeldlijnen.
p is dus 2 maal zo veel werk als i.
Maar 1080p heeft maar de helft van de frames/s dan 1080i waardoor het op hetzelfde neerkomt.
Als ik het goed begrepen heb is 1080i bedoelt om ook op bestaande tv's te kunnen afspelen omdat deze ook met interlaced werken.
hoe kom je erbij dat i een dubbele fps betekent? :s
Hmm, blijkbaar kun je zelfs de fabrikant in z'n persbericht niet meer geloven 8)7 Ik heb het aangepast :)
en ik maar denken dat het 1920x1080p was..

overigens in de bron zelf staat dat het 1920x1080i60 is wat het zelfde is als 1920x1080p24 en laat dat nu net full HD zijn ;)
dit is voor de Amerikaanse markt ;)
Slechts 0,75 W voor het decoderen van HD video, wat toch behoorlijk wat heftig rekenwerk is.

Ik weet dat dit iets heel anders is dan een general-purpose CPU, maar toch lijkt het superzuinig als ik het vergelijk met een Core 2 Duo die voor het decoderen van HD video ook behoorlijk belast wordt en die daarvoor 86x (65 W) zoveel power nodig heeft...
Dat is het verschil tussen een cpu die voor algemeen gebruik geschikt is of het ontwerpen van een chip voor specifiek 1 taak.

Kijk naar een gpu die hebben ook beperkte mogenlijkheden maar kunnen nu voor specifike taken ook gigantische rekenvermogens per watt leveren.
En als je dan kijkt naar het verschil in prijs wordt alles opeens weer duidelijk.
Met de sterke Euro tov de Yen kost ie nog maar 200 euro maar eer hij op een kaartje in een mooi doosje zit dan zijn we al weer een paar honderd euro verder.
Dus niet echt intressant geprijsd. :?
Inderdaad, vreemde prijs voor een 'kale' chip. Voor dat geld moet je er dan ook nog eens een heel circuit voor solderen/ontwerpen. :+

Volgens mij is het voor fabrikanten dan toch aantrekkelijker om er gewoon een krachtigere cpu + accu in te zetten ;)

edit: Wat is dat ding trouwens ongelofelijk klein, ik vraag me af of we binnenkort echt compacte HD filmcamera's in de winkel gaan vinden :Y)
ken tie MKV afspelen?
Cell heeft genoeg kracht maar MKV/AVI, vergeet het maar :+
Dat is een software issue heeft niks met de hardware van doen. Sony heeft de software wat gekreupeld uitgebracht helaas, want het doosje heeft de potentie een mooie media machientje te worden/zijn.
software encoder voor h.264 hebben allemaal verschillende features, x264 wordt ook gezien als een van de beste codecs gezien deze veel features bevat.

linkje naar verschillen tussen bestaande h.264 codecs:

welke features heeft deze hardware oplossing en hoe verhoud dit zich in vergelijking met software oplossingen?
Dus als ik het goed lees is deze chip zo'n 33.3% sneller dan zijn voorganger, aangezien 1920x1080 33.3% meer pixels heeft dan 1440x1080. Zal nog wel even duren voordat er een chip is die Full-HD aankan, aangezien die nog eens 100% sneller moet zijn..
Kan ie ook:

x264.exe --pass 1 --bitrate 4096 --threads auto --thread-input --deblock -3:-3 --bframes 3 --me dia --ref 1 --subme 1 --no-dct-decimate --partitions none --progress --no-psnr --no-ssim --output NUL hd.avs
x264.exe --pass 2 --bitrate 4096 --threads auto --deblock -3:-3 --bframes 3 --b-pyramid --bime --weightb --b-rdo --me umh --ref 5 --mixed-refs --subme 7 --trellis 1 --analyse --8x8dct --no-fast-pskip --progress --no-psnr --no-ssim --output fprofiled.mp4 hd.avs

Realtime decoderen? :D
2 pass kun je vergeten, is geen realtime.
Komen die chips ook op insteekkaarten voor de pc/mac.
Dan gaat het renderen van mijn films ook een stuk sneller :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True