Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 60 reacties
Submitter: -The_Mask-

Uit een demonstratie van Intel op de Computex-beurs blijkt dat de ge´ntegreerde grafische processor van de G45-chipset prima in staat is om video in hd-kwaliteit af te spelen.

Intel logoDe nieuwe igp van Intel zou volgens Fudzilla zonder noemenswaardige problemen een met H.264-techniek gecomprimeerde hd-video kunnen vertonen met een full-hd resolutie van 1920x1080 pixels en een bitrate van ongeveer 24Mbps. Het geluidsspoor was in Dolby Truehd gecodeerd.

Intel gebruikte bij de demonstratie een Core 2 Duo E8400-cpu die op 3Ghz is geklokt. De processorbelasting zou tijdens het afspelen van de hd-video rond de 25 procent schommelen. Eerder kondigde Intel al aan dat de igp van zijn G45-chipset zeker drie keer zo snel zou zijn als zijn voorganger G33. Naast compatibiliteit met Directx 10 biedt de ge´ntegreerde grafische processor ook hardwarematige versnelling voor video met mpeg2-, vc1- en avc-compressie.

Moderatie-faq Wijzig weergave

Reacties (60)

ik vind 25% van een 3ghz core2 voor h264 erg veel als je hardware acceleratie claimed.

http://www.silentpcreview.com/article811-page6.html
een hd3xxx doet h264 full-hd met 3%-8% cpu gebruik van een 3ghz penium-D CPU.
als je met een g45 als 25% nodig hebt van een ghz core2 voor h264 wat zou je dan nodig hebben voor VC-1(55-80%) of WMV-HD(28-38%) die nog moeilijker te decoderen zijn.

zelfs een x1950 doet het beter
http://www.xbitlabs.com/a...rint/video-playback2.html

edit @ dasiro : de AMD chipsets met IGP hebben de zelfde UVD als de gfx kaarten, en kosten nog minder als de intel chipsets.

[Reactie gewijzigd door Countess op 8 juni 2008 13:40]

Inderdaad, Ben nu even aan het testen met 1080p content en mijn processorgebruik is 20-25% (Q9300 4Gb DDR2 RAM G33@1650x1080)

Gebruikte HD content voor testen:
- Doom 1080p x264 DTS 5.1 AVC1 codec
- Victoria Secrets 1080i :9

Dus zoveel verschil is er eigenlijk niet met de G45 uit de test :?
Dat is dus een gigantisch verschil met de 8400 uit de test.

Jij hebt 4 cores en in de test heeft de cpu maar 2 cores. Bij jou is dus 1 core op vrijwel constant 100% en bij de test is 1 core rond de 50%.

Dat zie ik toch wel als een heel groot verschil.
Waarschijnlijk gaat het hem er om dat hij ook een totaal andere chipset heeft welke dit dus officieel nog niet ondersteund.

Maar idd, Quad@25% > Dual@50% dus hij heeft naar verhouding de dubbele belasting t.o.v. de test. Nu weet ik niet op welke snelheid zijn quadcore loopt dus helemaal opgaan zal het niet zo.
Om even volledig te zijn: :Y)
MB: Gigabyte GA-G33M-DS2R
G33 IGP @1680*1050
Proc: Q9300 @ 3.0 Ghz :9
4Gb Kingston DDR2 800

Geen losse videokaart
MediaPlayerClassic
Codec: CoreAVC

Cores worden gespreid gebruikt, eerder vermelde percentage is cumm. % van alle cores. Ik doelde met name op het feit dat ik een andere IGP dan de geteste. De test van Intel met een Celeron zou inderdaad een beter beeld geven.
Je gebruikt x264 materiaal. In het artikel wordt gerefereerd naar h264 materiaal. Dit is iets heel anders. De meeste hiervan kunnen niet eens door een GPU hardwarematig afgespeeld worden. CoreAVC is bijvoorbeeld enkel maar een software-matige decoder (wel een goede).
In jouw situatie doet je CPU dus al het werk om die media af te spelen en dan vind ik 25% netjes.

Ga je echter echt h264 materiaal kijken en je hebt de juiste codecs (PowerDVD bijvoorbeeld) geinstalleerd, als je dan een vergelijking gaat maken tussen de G33 en G45 dan zal je gaan zien dat de G33 flink veel meer CPU resources zal gebruiken.
x264 is een encoder voor h264 en geen andere codec.
http://en.wikipedia.org/wiki/X264

[Reactie gewijzigd door Countess op 8 juni 2008 17:27]

50% cpu op 1 core valt bij mij nog steeds onder de noemer software-decoding (met hw assistentie). Als het helemaal in hardware ging, zou je met een celeron nog een procent of 10 belasting zien namelijk.
je vergeet wel dat het hier om een IGP gaat, die traditioneel enorm zwak staan tov aparte grafische kaarten met een hoop snel geheugen en veel geavanceerdere GPU's. Nog maar te zwijgen over het verschil in kostprijs, ingenomen ruimte en stroomverbruik
De 780G doet het ook beter dan deze G45, en dat is ook een IGP
hij vermeldde enkel de hd3xxx en de x1950 en daar reageerde ik op
Dus zo pakt Intel direct de markt voor mediacenters als ze dit uitbrengen op een klein mobo. Een extra kaartje voor het afspelen van HD-video is niet meer nodig.

Is er ook al wat bekend over de 3D-prestaties van deze IGP?

Edit:
Intel is apparently getting better with its chipsets and it will even have a DirectX 10 driver that will support some basic gaming.

Intel also doesn’t promise that you can play Crysis on the high resolutions, but it does say that you should be able to play some basic games.


The good news is that intel got itself really interested in graphics.
Nog niet veel dus, ik kijk uit naar de eerste benchmarks!

[Reactie gewijzigd door JapyDooge op 8 juni 2008 11:30]

Zover ik weet en zie is AMD nog steeds de koning op dat gebied. Ze gebruikten een E8400 geklokt op 3Ghz. Terwijl je op een 780G chipset met een X2 4850e geklokt op 2.5Ghz een cpu usage rond de 2% (peak 8%) hebt met H.264 content.

http://www.silentpcreview.com/article807-page7.html
Alleen "H264" zegt niet veel, zonder te weten wat voor stream het is kan je geen vergelijking maken. De specs (24mbit/s, FullHD, Dolby TruHD) die hier genoemd worden klinken meer als een BluRay film, waar de chipset van jou link vergelijkbaar in presteerd als intels chipset: Blu Ray mean:23% max:31%

En zelfs dan nog is het appels met peren vergelijken zolang je niet exact hetzelfde materiaal gebruikt.

[Reactie gewijzigd door knirfie244 op 9 juni 2008 10:33]

Afaik heeft AMD geen eigen IGP's? Die van ATi ja, maar dat kun je niet echt vergelijken aangezien ATi totaal gefocust is op 3D-kaarten.

Edit: Ik weet dat ATi van AMD is, maar _eigen_ IGP's uit de 'oude' AMD stal afaik niet. Dit is dus een beetje hetzelfde als Intel IGP's vergelijken met bijv. een GeForce IGP op een mobo met nForce chipset ;)

[Reactie gewijzigd door JapyDooge op 8 juni 2008 11:41]

AMD heeft ATi gekocht en zit nu met alles wat ze hebben technisch gezien op hetzelfde niveau als Intel (of daarboven).
Deze overname heeft waarschijnlijk ook Intels vernieuwde interesse in graphics veroorzaakt.
AMD zit op grafisch gebied inderdaad boven Intel. Maar daarmee heeft AMD nog vrijwel geen marktaandeel van Intel kunnen veroveren op het gebied van geintegreerde graphics. Daarnaast kiest vrijwel iedereen toch voor een C2D in een notebook of HTPC en kan AMD dus zijn IGPs niet kwijt.

De Intel IGPs zijn "goed genoeg" voor veel mensen terwijl een losse videokaart goedkoop genoeg is om de mensen die een Intel IGP te traag vinden een redelijke oplossing te bieden. Je betaald meer maar je krijgt ook meer dan bij een AMD CPU + AMD IGP.

Daarnaast had intel al intresse in GPUs voor de ATI overname
Nu de strategie en marketing nog. je kunt wel constant vooraan lopen kwa technologische hoogstandjes maar als je deze niet op het juiste moment en op de juiste manier op de markt weet te brengen is je investering zo goed als voor niets.

Als AMD dit laatste onder de knie weet te krijgen kunnen ze de positie die ze jaren geleden hadden weer terugclaimen. Als je in de underdog positie zit zoals AMD is het van wezenlijk belang dat je een troefkaart hebt en die lijkt momenteel te ontbreken.
ATi is al een poosje geen een op zichzelf staand bedrijf meer, maar een afdeling van AMD, zoals Intel ook zijn afdelingen heeft. Overigens maakte AMD voor de overname van ATi ookal zelf chipsets.

[Reactie gewijzigd door _Dune_ op 8 juni 2008 11:40]

Dit was reeds al een paar maanden mogelijk (zonder extra VGA kaart HD contect Audio en Video afspelen) AMD/ATi heeft al een paar maand een chipset op de markt die dit kan, zoals doonotwant reeds opmerkt.

P.S. Het is mij overigens een raadsel waarom donotwant een score ongewenst krijgt, wat hij aangeeft klopt gewoon.

[Reactie gewijzigd door _Dune_ op 8 juni 2008 13:19]

Daar heb je een 3GHz Dual core voor nodig?

In mijn Popcorn hour zit een printplaatje ter grootte van een pci videokaartje waar alles op zit inclusief de ide aansluiting en die kan dat allemaal ook ;) (evenals mijn Dvico Tvix maar die printplaat is een stukje groter).
Dat is want anders. De chip die in de Popcornhour zit is puur ontwikkeld voor het afspelen van HD materiaal. Laat die chip maar eens iets willekeurigs anders doen, dit zal zeer slecht gaan.

Chipsets in computers moeten echter veel diverser zijn in wat ze kunnen, waardoor ze nu pas HD materiaal zonder hulp van andere componenten af kunnen spelen.

[Reactie gewijzigd door magiel op 8 juni 2008 12:59]

ja, maar die popcorn van je trekt niet eens 720p@L5.1 als k de klachten op hdb vrij mag interpreteren.. heb je opeens allemaal mensen die vragen om L4.1, want L5.1 is 'onredelijk' oid.
mpeg2 kent iedereen wel, de codec die gebruikt word op DVD.
vc1 is de codec die gebruikt word door Windows Media Video en Audio
AVC, staat voor Advance Video Codec en word ook gebruikt op de Blu-Ray schijfjes

Deze chipset kan dus alle gangbare videobestanden hardware matig decoderen.
Eentje ontbreekt, de nieuwe dirac codec. Zou leuk zijn moest hem die ook kunnen afspelen, specs zijn vrij, dus dat is voor hen simpel en gratis te implementeren in hun drivers me dunkt.
Dus jij wilt hardware decodering in drivers laten inbouwen? Dat is technisch onmogelijk. Als de hardware het niet ondersteund kun je het via software niet toevoegen. Je kunt het natuurlijk wel softwarematig toevoegen.

Zoals jij het zegt kun je gewoon een oude videokaart pakken, je maakt er nieuwe drivers voor en hoppa je hebt ineens volledige hardwarematige HD videodecodering op een oude videokaart.

Ik heb hier nog wel een oude ASUS V3800 AGP liggen. Daar had ik ook graag HD decodering op via een driverupdate.

Dat gratis is dus waarschijnlijk behoorlijk prijzig aangezien ze daarvoor dus de hele chip opnieuw moeten ontwerpen.
Nooit gehoord van het GPGPU principe, bij NVidea Cuda geheten? Door goeie drivers te schrijven kan de videokaart, ook zonder expliciete ondersteuning, helpen met het decoderen. Je gebruikt dan de pixel shaders voor het decoderen i.p.v. je CPU.

Sterker nog, volgens mij is dat precies wat er gebeurt bij de hardware-decodering door NVidea, Intel en ATi. Je gebruikt dedicated hardware voor decoderen, namelijk je GPU. Wel is het veel lastiger om die software te schrijven, dus vandaar dat ze niet zomaar een codec die nog bijna niet gebruikt wordt, gaan omschrijven naar die manier.
Maar ik denk niet dat ze het erg vinden dat Terracotta het doet, schrijf een mooi stukje GPL software die het decodeert m.b.v. OpenGL pixel-shaders en het werkt op elke videokaart, onder elk OS ;)
Dit soort dingen zijn (bijna?) altijd in firmware geimplementeerd. De chip bevat een aantal primitieven met behulp waarmee de firmware de datastream snel kan decoden. Als dirac geen heel andere primitieven nodig heeft dan de al ondersteunde codecs, dan zou je dat weldegelijk in de vorm van firmware kunnen toevoegen.
VC-1 wordt ook gebruikt op blu-ray schijfjes
mpeg2 wordt ook gebruikt op blu-ray schijfjes
En MPEG2 is helaast de meest populaire keuze...

[Reactie gewijzigd door knirfie244 op 9 juni 2008 10:39]

Ik vraag me steeds sterk af bij die hardwareversnellingen of ik er ooit wel wat aan heb. Ik heb momenteel allemaal MKV (Matroska) Films en een enkele WMV film in VC-1.
respectievelijk worden die gedecodeerd met "Libavcodec H264" en "Libavcodec VC1"

CPU verbruik ligt echter rond de 30% voor de H.264 en rond de 15% voor VC1. (3,4GHz Core2 Duo en allemal 1080P). Na mijn weten draagt een 8800GT niet bij en een nVidia 680i chipset ook niet in het verwerken ervan dus dit is puur CPU power en dit valt me reuze mee.
Nou ben ik ook niet zo zeer uit op hardware accelleratie want zoals je ziet is dat ook niet zo nodig, maar ben ik wel geinteresseerd naar de videokwaliteiten van een hardwareoplossing. Goeie hardwareoplossingen zoals in stand alone spelers doen wat extra geavanceerde dingen met het beeld, om het bijvoorbeeld nog vloeiender te laten lopen. Alsof er extra 'tussenframes' gecalculeerd' worden. Dit kan met FFDshow ook wel, maar ik acht de techniek ietwat inferieur ten opzichte van een professionele oplossingen. Daarnaast vreet deze techniek CPU power want hij schiet gelijk naar de 70% verbruik. Extra sharpning en debanding heb je nagenoeg niets aan omdat de kwaliteit al erg goed is. Deze laatstgenoemde effecten heb je met een goeie compressie dan ook niet nodig en is meer bedoelt voor lage bitrate DivX films oid. Niet elk processing effect is even gewenst, zeker niet nu de HD content ansich al erg goeie kwaliteit levert, maar toch ben ik benieuwd naar WAT er schuilgaat in een hardware accelleratie chip, of dit nog iets extra's toevoegt of dat het enkel en alleen CPU ontlasting is. In het laatste geval ben ik totaal niet geinteresseerd meer in een hardwareoplossing en knoei ik liever zelf aan met FFDshow om zo de CPU juist lekker hard aan het werk te zetten. Echter als er een alternatieve oplossing is die sneller (zuiniger) is en tegelijk meer te bieden heeft vind ik het weldegelijk interessant.
de 8800GT heeft wel degelijk hardware decoderers. purevideo heet het bij nvidia.
en het doet ook een aantal dingen met de video's onderander noise reduction en nog wat effecten.

[Reactie gewijzigd door Countess op 8 juni 2008 14:53]

Op zich waar, maar hier heeft hij het over FFDshow die geen DXVA ondersteund. Hij heeft dus gelijk als ie denkt dat z'n 8800GT in dit geval niet bijdraagt.
Wel apart dit verhaal

Ik heb hier nu twee Gigabyte GA-G33M-DS2R moederborden met Q9300 en beide 4Gb aan geheugen draaien en beide draaien al continue 1080p Full HD @1650x1080 content af zonder aanvullende videokaarten :Y) .

Mijn G33 werkt hier dus perfect voor! Wat verschilt er dan met een G45. Of zou dit kunnen liggen aan het feit dat er snelle processoren en RAM geheugen aanwezig is?

[Reactie gewijzigd door Black Piet op 8 juni 2008 11:26]

Dat ligt aan de processor ja ;)

Het idee van een dergelijke igp is om de processor hiervoor te ontlasten.

Overigens vind ik dit totaal niet interessant voor het Intel platform om diezelfde reden, al hun core2 cpus zijn meer dan krachtig genoeg om hem probleemloos af te kunnen spelen, de quadcores al helemaal. De lagere AMD X2s hebben hier echter wel moeite mee.

Hoe zit het echter met 5.1PCM via HDMI? Dat is namelijk WEL interessant als het ondersteund wordt met een fatsoenlijke bitrate.

Voor degenen die het nog niet wisten: Het is tot op heden vrijwel onmogelijk om "HD" geluid vanaf een computer via HDMI naar een receiver te krijgen. Alleen analoog. Geen enkele geluidskaart ondersteunt het, sommige videokaarten ondersteunen het meesturen van DTS / DD signaal (wat dus ook niet spannend is) en er was een intel chipset die het half ondersteunde, maar dan tot een bepaalde bitrate aan toe (3mbps ofzo, ook niet boeiend dus aangezien het al gauw oploopt tot 10+)

Overigens kom ik met een 30+mbps bitrate en AVC (mpeg4) en een q6600 @ 3.6Ghz (zonder Purevideo) aan de 30% belasting (piek) en 20% gemiddeld per core.

[Reactie gewijzigd door jkommeren op 8 juni 2008 11:48]

Pff je kan toch prima 5.1PCM via een optisch kabeltje naar je receiver krijgen? Waarom zou je sowieso een HDMI kabel gebruiken om je pc op je receiver aan te sluiten? Leuk dat HDMI ook geluid ondersteund maar in dit geval toch niet zo nuttig. Tenzij je weer met een HDMI kabel je receiver aan je tv koppelt..

Ik heb gewoon optisch kabeltje naar de receiver en (voorlopig) DVI kabel naar de tv.
Voor degenen die het nog niet wisten: Het is tot op heden vrijwel onmogelijk om "HD" geluid vanaf een computer via HDMI naar een receiver te krijgen. Alleen analoog. Geen enkele geluidskaart ondersteunt het, sommige videokaarten ondersteunen het meesturen van DTS / DD signaal (wat dus ook niet spannend is) en er was een intel chipset die het half ondersteunde, maar dan tot een bepaalde bitrate aan toe (3mbps ofzo, ook niet boeiend dus aangezien het al gauw oploopt tot 10+)
Volgens mij doet de Auzentech Prelude met de uitbreidingskaart dit nou net wel. Maar ja, dan ben je wel 160 euro voor een geluidskaart armer exclusief de uitbreidingskaart
Lang niet alle core2's / omgevingen zijn snel genoeg. Nadeel is dat veel codecs nog op 1 core werken, en dan kom ik met mijn G35/E8400 (3GHz) toch regelmatig 1080p AVC1 videomateriaal tegen waarbij de belasting van die ene gebruikte core hier en daar maximaal wordt en het afspelen net niet vloeiend blijft lopen. Met materiaal van hogere bitrate zal dat alleen moeilijker worden. Dit is op een Windows platform, onder Linux zijn de drivers vaak nog minder optimaal, zodat het merkbaar storend is. Bovendien hebben verreweg de meeste mensen niet dit soort snelle processoren (Tweakers wel natuurlijk :) )

Je moet maar eens een goede encode van The Golden Compass zien, die heeft in de introductie waar het over 'stof' gaat een heel moeilijk stuk zitten (mooi referentie/testmateriaal)...

Overigens onlangs CoreAVC getest die wel multicore is, en dan daalt de belasting met dat materiaal naar ~ 25% op beide cores. Het hangt dus ook veel af van een efficiente codec (factor 2 verschil tussen ffmpeg en coreavc in dit geval).

En natuurlijk is een lagere CPU belasting ook leuk als je nog iets op de achtergrond hebt draaien, of gewoon om het stroomverbruik te verlagen.
Overigens vind ik dit totaal niet interessant voor het Intel platform om diezelfde reden, al hun core2 cpus zijn meer dan krachtig genoeg om hem probleemloos af te kunnen spelen, de quadcores al helemaal.
Energieverbruik, dus de portemonee. Tegen het idlen aan vs een redelijke belasting scheelt al snel wat, 30-50 watt? Een geaccelereerde IGP doet het voor een stuk minder.

Niet noodzakelijk, maar wel mooi meegenomen.
Normaal ligt dat idd aan de snelle CPU en ram. Ik snap Intel ook helemaal niet dat ze dit laten zien met een E8400, als ze hun woorden echt kracht bij wilden zetten hadden ze beter een Celeron 420 oid in dat bordje geprikt en daarmee de CPU belasting getoont...
1080p Full HD @1650x1080

Gokje: dat zijn low-bitrate .mkv rips, niet zoals hier 24 mbit hd content? Maakt nl nogal wat uit.
Nee, helaas ;) Alle movies die ik heb op 1080p MKV zijn allemaal high rate rips

Voor de twee films is volgens FFD-Show OSD het bitrate ongeveer 20Mbit-24Mbit. CoreAVC is hierin de goede codec die het juist over de cores verspreid.... :Y)
in navolging van de amd G780?
Volgens mij kon de 690G dat ook al. Die had ook UDV aan boord. Dus Intel is vrij laat.
De 690G had volgens mij geen volledige ondersteuning van alle HD codecs..de 780G laat nog lagere cpu belasting zien, dat neemt niet weg dat de 690G er ook behoorlijk goed in was.
Die 690G kan het idd. Maar soepel loopt je beeld niet..
die was misschien wat te licht voor 1080P ja maar goed de 780G kan het in ieder geval wel.
Dit is toch niks nieuws voor intel? Mijn MacBook met een GMA950 speelt het ook zonder moeite af. De T2500 die erin zit loopt dan op ongeveer 40% belasting.
Hoe lees jouw MacBook full-hd Blu-Ray's, want we hebben het hier over streams van ~30Mb/s en niet die 5Mb/s meuk die op het internet staat. Dat kan een Celeron-M nog met een beetje moeite.
(tenzij je natuurlijk een USB Blu-ray ding gebruik, of een 1op1 copie op je netwerk heb staan)
Voor HTPC's waarschijnlijk zeker interessant: je hebt dan immers niet meer een dure graka nodig. Maar voor een desktop PC boeit het niet echt, me dunkt. CPU belasting op mijn Q6700 is voor H.264 toch al minimaal (zeker niet de 25% per core die ik hier hoor; eerder 5-10%).
Ik ben eigenlijk veel meer geinteresseerd in chips die H.264 en VC-1 hardwarematig kunnen coderen.
Die zijn er zat, de professionele videomarkt werkt daar al jaren mee.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True