AVerMedia introduceert USB-capturecard met HDMI 2.1 voor 300 dollar

AVerMedia introduceert zijn eerste USB-capturecard met HDMI 2.1-ondersteuning. Het betreft een Live Gamer Ultra 2.1, die maximaal 4k60-beelden kan opnemen. De capturecard komt beschikbaar tegen een adviesprijs van 300 dollar.

De AVerMedia Live Gamer Ultra 2.1 heeft een USB 3.2 Gen2-interface met doorvoersnelheden van 10Gbit/s, zo meldt de fabrikant. De capturecard kan daarmee 4k-beelden opnemen op 60Hz. De capturecard biedt ook maximaal 4k-passthrough op 144Hz, inclusief hdr-ondersteuning en een variabele refreshrate.

Het is daarmee mogelijk om games te spelen op 4k en 144Hz, bijvoorbeeld met een pc of current-gen console, en deze beelden op 4k en 60Hz op te nemen. Ook 1080p240- en 1440p144-passthrough wordt ondersteund. Volgende week verschijnt volgens AVerMedia een firmware-update die 1440p-passthrough op 240Hz mogelijk maakt.

De Live Gamer Ultra 2.1 is hiermee een van de eerste HDMI 2.1-capturecards die werken via USB. De meeste capturecards die dergelijke features ondersteunen, zijn enkel beschikbaar als PCIe-insteekkaarten. Het apparaat komt volgens AVerMedia per direct beschikbaar en krijgt een adviesprijs van 300 dollar.

AVerMedia Live Gamer Ultra 2.1

Door Daan van Monsjou

Nieuwsredacteur

12-10-2023 • 14:09

29

Submitter: Balance

Reacties (29)

29
29
12
1
0
16
Wijzig sortering
met HDMI 2.1-ondersteuning. Het betreft een Live Gamer Ultra 2.1, die maximaal 4k60-beelden kan opnemen. ...
En dit vat mijn probleem met de huidige "standaarden" goed samen.
Een standaard lees ik als een ijkmerk, een maat van kwaliteit, zoals een gouden standaard impliceert.
En de huidige "standaarden" zoals USB/HDMI/HDR/Dolby Atmos zijn weinig meer dan protocollen.

Het geeft namelijk de schijn van een bepaalde kwaliteit, maar dat is het eigenlijk niet.

Als ik HDMI 2.1 hoor, dan denk ik aan 8K 50Hz/4K 100Hz max. En dat biedt dit product deels. Bij het opnemen (wat de kernfunctie van dit apparaat is), is het beperkt tot 4K 60Hz en bij de passthrough 144Hz (incl HDR/var. refreshrate).
Hoe bedoel je "standaard", welke standaard vind jij "standaard" of ben je in de war met maximale throughput dat een protocol "aan kan" / "op afgespect is"?

In dit geval kan het beestje van 300 dollar maximaal 4k60 aan opname mogelijkheid aan. Wat mooi is, is dat volgens het HDMI 2.1 protocol een signaal van 4k en 144Hz (grens HDMI 2.1) door te geven is. En dat daar maakt dit apparaatje zo te zien dankbaar gebruik van. Echter de opname mogelijkheid gaat tot 4k60 (beperking capturechip of convertor of wat dan ook), vrij duidelijk.

Of wil je dat voor iedere mogelijkheid een nieuw (communicatie-)protocol wordt geschreven op basis van achterliggende hardware? 4K 148 Hz? 150Hz? 400Hz?? Had HDMI 2.0.1.6.77 dan 1080P @ 171 Hz kunnen communiceren wanneer fabrikant X dit maakt?

Een protocol is juist om de communicatie-wereld een beetje "standaard" te houden :) En om ontwikkelaars de ruimte te bieden om binnen die grenzen te ontwikkelen.
Een standaard/interface moet ruimte bieden om alles wat twee compatibele producten nodig hebben te kunnen bieden. Genoeg stroom, gegevensoverdracht, control, etc.

We hebben wel eens wat standaarden gehad die echt in de weg zaten van/tussen de producten: HDMI 2.0, PCIe 3.0, USB 2.0, SATA-600, UHS-I zijn op een gegeven moment allemaal bottlenecks geweest waar niet echt een goed alternatief voor was. En dus werden voor veel applicaties die tot de rand gevuld.

Vind jij dat dan een meer gewenste situatie? Dat de standaarden dusdanig achterlopen dat producten eigenlijk meer willen, maar dat niet kan? En dus maar noodgedwongen tot op het randje van de standaard gaan zitten?

Ik denk dat AVerMedia hier een hele goeie afweging heeft gemaakt met dit product. Als je zelf een game speelt wil je niet gelimiteerd worden door je capture card. Het is zonde als je GPU richting de 120 of 144 fps kan, en je vervolgens dankzij je capture card op 60 blijft hangen. Dus daar is HDMI 2.1 ideaal voor.

Maar streamen? Volgens mij kan geen enkel platform momenteel meer dan 4k 60fps streamen. Bij Youtube is dat de max, en Twitch doet überhaupt geen 1080p. De enige use case die ik kan bedenken is 8K 60fps opnemen, editen, en dan later op Youtube zetten.

Dan is de vraag: Hoe groot is de doelgroep voor die use case, en hoe groot is dan de meerwaarde voor die doelgroep? En wat kost het extra om die feature in het product te stoppen.

Ik denk dat de 8K capture markt nog erg klein is, er ook weinig gebruikers op 8K gameplay streams zitten te wachten, en de kosten voor een 8K-encoder ten opzichte van een 4K-encoder significant zijn (ook qua energie/koeling). Dan kost het een hoop extra, met maar zeer beperkte meerwaarde.

TL;DR: De meerwaarde van 4K144 pass-through is groot, en dat staat HDMI 2.1 toe. Opname boven 4k60p vereist een krachtigere encoder, en de meerwaarde daarvan is twijfelachtig.
Een standaard lees ik als een ijkmerk, een maat van kwaliteit, zoals een gouden standaard impliceert.
Kwaliteit heeft op zich niks met standaarden te maken, tenzij het om een kwaliteitsstandaard gaat (wat hier niet het geval is). En niemand heeft het over een 'gouden standaard'. Dat is een ouderwets begrip uit de economie.
En dit vat mijn probleem met de huidige "standaarden" goed samen.
Je hebt volgens mij geen probleem met standaarden. Je hebt een probleem met jouw interpretatie van wat een standaard is.
Het geeft namelijk de schijn van een bepaalde kwaliteit,
https://nl.wikipedia.org/wiki/Norm_(standaard)
Als ik HDMI 2.1 hoor, dan denk ik aan 48Gbps bandbreedte en wat je er mee zou kunnen. Niet aan maximum resoluties of refresh rates want die worden bepaald door source en sink + de kabel daar tussen.

Deze capture card is gewoon een HDMI2.0 capture card, maar ze "mogen" het HDMI2.1 noemen omdat het die bandbreedte dus doorvoert(passtrough.
Uh, er staat in het artikel dat de kaart het nog steeds op kan nemen. Dat de opgenomen video dan geen 48Gbps doet lijkt me van een andere orde. Sowieso zal het ding natuurlijk compressie gebruiken, dus exact hetzelfde beeld krijg je niet.

144Hz is leuk als je aan het spelen bent, maar redelijk nutteloos als je naar een video van de actie aan het kijken bent lijkt me.
Maar dan heb je wel een verkeerd beeld bij deze zaken als standaarden. Een standaard is in deze (zoals je zelf al aangeeft) een standaardmanier van werken/opereren. Het feit dat HDMI2.1 een (theoretische) maximale doorvoer heeft wil niet zeggen dat alle apparaten die dat protocol praten dat ook maar doen.

Je kunt Bassie en Adriaan op blu-ray kopen. Blu-ray is slechts een drager met bepaalde maximale specificaties. Het zegt niet over er op staat. 4k van Netflix is veelal minder scherp dan een goed gemasterde DVD (in Full HD).
Ik ga dan niet in op wat voor bitrate Netflix gebruikt enzovoorts. Dat is niet relevant. Dat is hooguit een oorzaak. Het geeft gewoon aan de betreffende term geen garantie geeft voor een betreffende hoge kwaliteit.

Een ander voorbeeld is 4g: Als ik denk aan 4g (mobiele telefonie) denk ik aan 450 Megabyte per seconde. Mijn telefoon haalt het niet hoor.
Volgens mij staat het kunnen opnemen op een bepaalde troughput los van die standaard.
Wat ik interessant vind, is dat 2160p50 (10 bits) ongecomprimeerde video over SDI een bandbreedte van 12Gbit/s trekt. Oftewel, vind hier toch een soort van compressie plaats voordat het beeld over USB naar je computer gaat?
Op 8 bits kleurdiepte met 4:2:0 subsampling kom je net onder 10Gbps uit ;).
Met SDI heb je waarschijnlijk ook 'echte' 4k (4096 pixels breedte ipv 3840).
Niet dat het uitmaakt, bij opnemen wordt het signaal alsnog gecomprimeerd.
Ja, dat moet dan wel toch? Er kan prima een lossless compressie op losgelaten worden toch?
Als je ongecomprimeerde video wil dan ga je veel meer betalen. Dit is voor consumenten thuis, niet voor prof video bewerking.
True, maar er wordt nergens vermeld hoe hoog de compressie is.
tuurlijk niet. informatie over compressie staat slecht in de marketing.
Jazeker, er zit gewoon een encoder in die een UVC stream aanbiedt op een bepaalde bandbreedte. En dat is veel minder dan ongecomprimeerd SMPTE.
Worden deze kaarten ook niet mis/gebruikt voor het opnemen van TV vanaf setopboxen?
Dat is een grijs gebied. Afhankelijk van de overeenkomst(en) die gekoppeld zijn aan het afnemen van de betreffende media mag er wel of niet iets worden opgenomen. Het 20:00 uur journaal (publieke omroep) is bijvoorbeeld iets anders dan iets van Netflix (commerciële streamingdienst) of een voetbalwedstrijd.

Als je enkel wilt opnemen zonder het programma live op een (ander) scherm te hoeven volgen zijn er ook screen capture oplossingen - zowel software- als hardwarematig. En natuurlijk is ouderwets een camera richten op een scherm ook een optie. Het is dus niet zo zeer het middel dat bepaalt of iets misbruik is, maar de Terms of Service van de zender, programma, hard/software etc.
Ik snap het legal stuk en heb zelf helemaal niet de intentie om dit te doen, maar ik moest bij het zien van dit bericht er aan denken.

Adverteren voor 'Gamers', maar uiteindelijk wordt het massaal gebruikt om TV series op te nemen en daarna te verspreiden.

Als bedrijf blijf je zeggen: Dit is voor gamers!! Maar je weet heel goed dat het ergens anders voor gebruikt wordt.
een interessant grijs gebied.

ik heb me altijd afgevraagd hoe het kan dat er rips zijn van bv. van netflix waarbij ze de ondertitels van alle mogelijke talen erbij hebben. Da's toch niet zomaar afgetapt van hdmi (met een bepaalde splitter) of een screenrecording? Daar moet toch een fout in de beveiliging zitten ofzo?
Ligt eraan wat voor release type.
Wat jij beschrijft noemt men WEBRip's.
Wanneer je het bestandje opslaat wat je binnenhaalt wanneer je streamt heet dit een WEB release.

Om er nog een paar te noemen:
Rips van Blu-rays en DVD's. (BRRip, DVDRip zijn bekende namen)
HDTV waarbij de TV encoder wordt gebruikt.
Telesync en Cam's worden in de bioscoop opgenomen (waarbij eerstgenoemde vaak betere audio heeft).
Google maar eens op AnyStream. Zelf denk ik dat daarmee de Netflix rips worden gemaakt.
Daarvoor moet je eerst van de HDCP beveiliging af geraken wat enkel kan via bepaalde HDMI splitters.
Is dit ook interessant voor niet streamers? Ik zoek namelijk al vrij lang naar een mooie oplossing om beneden op 4k 60+ fps te kunnen gamen op TV, terwijl de PC boven staat.
Dacht aan een adapter met HDMI 2.1, USB's voor invoerapparaten etc, maar daar lijkt dit wel een beetje op?
Dit apparaatje doets niet meer dan je HDMI in tweeën hakken, en een extra USB lijntje toevoegen voor naar je computer. Je zit dus nog steeds vast aan de maximale lengte van je HDMI + USB (deze USB spec heeft een maximale lengte van net geen 3 meter en HDMI 2.1 koper werkt ook niet super ver).

Als ik jou was zou ik een optische HDMI kabel gebruiken in combinatie met en USB naar Ethernet adapter voor je randapparatuur.
Er zijn ook vele malen duurdere oplossingen, maar deze is relatief goedkoop.

[Reactie gewijzigd door lodu op 25 juli 2024 22:18]

Ligt misschien aan mij, maar ik was een beetje in de war door het gebruik van hdmi en usb door elkaar. Maar ik vond dit plaatje.https://avermedia.s3.us-w...53G2/GC553G2_chart_en.svg
Kennelijk sluit je een console met hdmi (2.1) aan en vervolgens de pc/laptop via usb (3.2).

[Reactie gewijzigd door MallePietje op 25 juli 2024 22:18]

Nu de vraag, omdat dit met USB werkt, kan ik dit bijvoorbeeld gebruiken om XSX/PS5 sessies mee te streamen naar YouTube bijvoorbeeld? En dan via een Mac? PCI kaart zal wel weer een windows desktop moeten zijn.

Edit:

System Requirements
Windows® 10 x64 / 11 x64 or later
*macOS support coming by the end of 2023. If any changes, check our website.


Einde dit jaar dus, handig. :)

[Reactie gewijzigd door slijkie op 25 juli 2024 22:18]

het is een UVC apparaat en werkt nu al op alles dat UVC ondersteund. dus ook Macs.

wel is het zo dat via UVC 4k60 niet werkt. dat zal wel onder het laten dit jaar verhaal vallen.

[Reactie gewijzigd door Jeffrey2107 op 25 juli 2024 22:18]

Ik heb hier nog de oude Avermedia Ultra wat tot 4K 30 fps kan opnemen. Maar doet gewoon 1440p met 60 fps en 1080p tot 120 fps.

Ik ga dus geen 300 euro neerleggen omdat het 4K 60 fps kan. Ik vind 1440p al scherp zat. Ik kijk eerder uit naar 4K 120 fps.
Het valt mij op dat zowel capturekaarten als ook b.v. webcams met 4K nog steeds best wel prijzig zijn ondanks dat 4K ondertussen toch al wat jaren bestaat. Kijk je b.v. dan naar 4K tv's en monitoren dan zijn die juist qua prijzen flink gezakt en eigenljik al een tijdje zo goed als standaard. Enigste verandering is dan niet de resolutie maar de refreshrate wat dan nog de prijzen kan bepalen. Maar blijkbaar heeft zich dit nog niet echt door gezet naar webcams en capturekaarten, ergens wel jammer.

Laatst nog gekeken voor een 4K webcam maar ik blijf het verschil met een 'gewone' FullHD camera toch nog te groot vinden. Als alternatief ook eens naar capture kaarten gekeken maar ook die zijn gewoon duur of ze ondersteunen dan geen 4K, of alleen 4K 30 fps.

Op dit item kan niet meer gereageerd worden.