Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 34 reacties
Submitter: airell

Het WirelessHD-consortium heeft de specificatie afgerond van zijn draadloze hd-standaard. De communicatietechnologie moet gaan concurreren met uwb-alternatieven die al een draadloos hd-signaal mogelijk maken.

WirelessHD logoDe WirelessHD-specificatie beschrijft hoe de 60GHz-frequentieband gebruikt kan worden voor een digitaal high definition-signaal. De technologie kan onder andere geÔntegreerd worden in televisies, hd-spelers, settopboxen en gameconsoles, aldus het WirelessHD-consortium. De groep bestaat uit veertig bedrijven, waaronder Intel, LG, Panasonic, NEC, Samsung, SiBeam, Sony en Toshiba. Hierdoor lijkt de kans groot dat de standaard uiteindelijk zijn weg zal weten te vinden naar een groot aantal producten. Daar komt bij dat de Motion Picture Association of America zijn zegen heeft gegeven aan de standaard, omdat deze ondersteuning biedt voor drm-systemen als dtcp.

De eerste generatie van de WirelessHD-technologie biedt een snelheid van 4Gbps, maar het consortium verwacht deze op te kunnen rekken tot 25 Gbps. De specificatie bevat ook bepalingen voor universele afstandsbedieningen voor apparaten die WirelessHD gaan ondersteunen. Er zijn al producten die draadloos een hd-signaal kunnen versturen en ontvangen, maar deze zijn gebaseerd op uwb en moeten zich bedienen van compressie. Het WirelessHD-consortium belooft transmissie van ongecomprimeerde hd-content.

Moderatie-faq Wijzig weergave

Reacties (34)

Gebaseerd op de overview is het een beetje een WiMAX achtig geheel, inclusief twee volledig incompatibele OFDM PHY layers met bandbreedtes van 1GHz en 0.1GHz en wat beamforming er overheen. Niet erg innovatief.
Verder is de MAC gebaseerd op een TDMA combinatie van random access en centrale allocatie. Zou wel eens willen weten hoe deze spec met interference om dient te gaan, want 60GHz is tenslotte license-exempt en dat werkt over het algemeen niet zo best met centrale TDMA systemen met zware QoS vereisten.
Say what?

Iemand die dit in lekentaal kan uitleggen? Het lijkt me namelijk een onderbouwde comment dat deze standaard niet erg veelbelovend is, maar meer dan dat kan ik er nog niet van maken ;)
Eerst maar even wat afkortingen verklaren:
OFDM: orthogonal frequency division multiplexing. Oftewel stuur meerdere seriŽle signalen tegelijk over hetzelfde seriŽle kanaal door ze op verschillende frequenties te moduleren. In leken-taal kun je denken aan een antenne-kabel waarover op verschillende frequenties verschillende zenders verzonden worden. Voordelen zijn: Beter gebruik van de beschikbare bandbreedte en minder storing door reflecties. Wanneer de gebruikte modulatie-frequenties (de "kanaalnummers van de tv-zenders" in lekentaal) van de verschillende sub-kanalen (de "tv-zenders" in lekentaal) maar ver genoeg boven de baudrate zitten van wat je wilt versturen per subkanaal, is de kans op onderlinge storing erg klein en kun je dus de bandbreedte efficienter vullen. Oftewel veel subkanalen en minder data per subkanaal is hier de gebruikte methode. Doordat de data per subkanaal op een lage baudrate verstuurd wordt, heb je veel minder last van vertragingen doordat het signaal bijvoorbeeld ineens ergens anders tegen weerkaatst. (google-woord: multipath distortion)


PHY: Physical layer, oftewel waar het signaal langs gaat; koperdraadje of lucht, etc.

bandbreedtes van 1 GHz en 0,1 GHz wil zeggen dat de verschillende "zenders" resp. 1 GHz en 0,1 GHz uit elkaar moeten liggen.
Ter vergelijking, 2 radio zenders op de FM moeten in de praktijk zo'n 100 kHz uit elkaar zitten (99,1 en 99,2 MHz bijv) om elkaar niet te storen. In dit geval zal dat dus resp. 1 GHz en 0,1 GHz zijn.

beamforming: Dit wordt gebruikt om de zender specifiek in 1 richting te laten zenden, of om de ontvanger heel gevoelig te maken voor 1 richting. In lekentaal: plaats 2 ontvangers op precies 1 golflengte van elkaar en als ze exact hetzelfde ontvangen, dan weet je uit welke richting het signaal komt. Als je iets uit een andere richting wilt ontvangen kun je dat ook "softwarematig" doen, door het signaal van een van beide ontvangers een klein beetje te vertragen.


WiMAX: Worldwide Interoperability for Microwave Access, oftewel een draadloze communicatie techniek om data over grotere afstanden te versturen. Een tijdje was dat "de oplossing" om mensen snel internet te kunnen leveren in dunbevolkte gebieden.

MAC: media access control, oftewel de manier van datapakketjes samenstellen die over het medium verzonden gaan worden.

TDMA: Time division multiple access, oftewel het 'ritsen' van verschillende stromen van data tot 1 stroom. Zo kun je dus bijv alle even pakketjes na ontvangst weer naar datastroom 2 sturen en alle oneven pakketjes naar datastroom 1. (of veel meer dan 2)
Zo wordt eigenlijk alle communicatie tegenwoordig tegelijk over 1 medium verzonden. (denk aan 2 PC's die over dezelfde netwerkkabel met de server aan het babbelen zijn).

license-exempt: uitgezonderd van licenties. Net zoals bijvoorbeeld de "WiFi-band" (2,4GHz) en waar het draadloze weerstation op zit (433MHz).

QoS: Quality of Service. Dat wil zeggen dat je bepaalde pakketten voorrang wilt geven. Vergelijk maar een HTTP-request om een webpagina binnen te halen. Of dat de ene keer 10 ms kost en de volgende keer 200ms, maakt voor de gebruiker helemaal niet uit. Maar voor je skype-gesprek of tijdens het online-schietspel is dat natuurlijk heel irritant. Een vuistregel: Naarmate er meer gebufferd kan worden, wordt QoS minder noodzakelijk. Voor een TV-uitzending is 1 sec vertraging helemaal niet erg, mits er maar wel ruimte is om 1 sec te bufferen. Voor een telefoongesprek is 100 ms vertraging al eigenlijk heel irritant.


Dan nu de vertaling van de post van Lagging:
De manier waarop de data verzonden wordt, lijkt wat op de WiMax-standaard, waarmee 2 "zenders" met elk een aantal sub-kanalen, verzonden wordt. Beide zullen door hun verschillende bandbreedte apart verwerkt moeten worden, waardoor de ontvanger en zender wat complexer worden.
Al met al gewoon een combinatie van al bestaande technieken.
Kennelijk is het mogelijk om vanaf meerdere punten op hetzelfde kanaal data te versturen, vergelijkbaar met 2 WiFi laptops die met 1 accesspoint babbelen.
De afhandeling van onderlinge storing tussen verschillende apparaten op die 60GHz band kan nog wel eens complex worden, dus Lagging vraagt zich terecht af hoe ze dat gaan oplossen. Je buurman kan namelijk jouw verbinding storen. De problemen kunnen zijn dat je data opnieuw moet versturen, maar dat is bij een live-stream niet echt een optie. Je zou dus error-correcting-code kunnen toevoegen aan de data, of simpelweg bij de data van pakketje 2 de helft van pakketje 3 al mee kunnen sturen en alsnog de 2e helft van pakketje 1 enz. en zo dus de boel wat meer redundant versturen, zodat het beter tegen storingen kan.
Ik haal er nog wel enigszins uit wat je wil zeggen, maar dit is gewoon "kijk mij afkortingen weten"...
Praat gewoon normaal zodat iedereen het begrijpt en probeer niet zo "stoer" te doen...

/edit:
Wat hij probeert te zeggen is dat het een paar oude technieken zijn die gecombineerd zijn om een hogere bandbreedte te halen.
Daarnaast zegt hij dat 60Ghz aan licenties hangt (net zoals de telecom provider hier in Nederland die GSM en UMTS frequentie licenties hebben).
En wat ie als laatste zegt is dat een product dat een dergelijke hoge kwaliteit van signaal nodig heeft, wat vanaf een punt moet komen (dus geen steunzender e.d.) erg lastig is om betrouwbaar te implementeren.

[Reactie gewijzigd door OverSoft op 3 januari 2008 21:58]

Ik lees het juist als: "license-exempt" = geen licentie nodig om op die frequentie uit te zenden, dus ook de buren mogen dat en het gaat dus een ongetroleerd zooitje in de ether worden. En dat terwijl je juist doorvoer garanties nodig hebt, om op tijd het beeld vloeiend weer te kunnen geven.

Mijn samenvatting van lagging's post: Dit is een standaard die is ontwikkeld, zonder dat er verder lijkt te zijn gekeken dan de neus(of lab omgeving?) lang is.
Gaat het hier nou om de draadloze verzending van afspeelapparaat naar tv, of van internet naar het afspeelapparaat? Ik denk het eerste maar toch weet ik het niet.
Zit Microsoft trouwens ook in dat consortium? (Er ging toch een gerucht dat zij geen van beide HD formaten wilden laten winnen?)
Zit Microsoft trouwens ook in dat consortium? (Er ging toch een gerucht dat zij geen van beide HD formaten wilden laten winnen?)
MS wil geen keuze maken tussen HD-DVD en Blu-ray. HD beelden opzich heeft MS geen probleem mee en ze gaan ook diensten aanbieden met HD content. Dit zou voornamelijk via internet (live)moeten gaan en daardoor wil MS geen keuze tussen de opvolgers van DVD maken
Wat ik uit het artikel kan opmaken zitten zowel Sony als Toshiba in dit consortium, en dat zijn toch de bedrijven die verantwoordelijk zijn voor Blu-Ray respectievelijk HD-DVDD standaards ;)
had je voor uncompressed full hd niet meer dan 4gbit nodig?

ik zou persoonlijk wachten tot je 2560x2048 tegen 120fps uncompressed kan doorsturen

dan is het tenminste een beetje toekomstproof...
2560x2048 x 120fps x10bits/pixel/1024 Kbit/1024 Kbit/1024 Gbit = 5.9 Gbit/sec

zitten ze met 4Gbps dus niet zover vanaf. Uiteraard zal er nog wel wat overhead e.d. op t signaal zitten. Maar met 4Gbps kun je dus best een behoorlijk "futureproof" signaal verzenden, laat staan met de 25 Gbps

Maar dit lijkt mij prima op te lossen met een versie 2.0 zoals er bijvoorbeeld gedaan word met pci-e. hoewel ze omwille van de vervangingssnelheid wel eens iets minder moeite kunnen doen om dit soort technieken backwarsdcompatible te maken :/

[Reactie gewijzigd door -Niels- op 3 januari 2008 18:08]

Je vergeet dat er ook evt. uncomressed (LPCM) 7.1 audio overheen moet. En dan wordt het al snel een stuk krapper die 4 gbps
uit ergernis voor het ontbreken van een fatsounlijke standaard om geluid digitaal van pc naar versterker over te brengen (met behoud van eax, a3d, etc zonder omzetting naar iets dolby achtig met de bijkomende lag), had ik laatst voor de grap eens uitgerekenend hoe weinig geluid wel niet in neemt van bandbreedte

het is gewoon belachelijk weinig naar de huidige maatstaven:

10MB / minuut --> ongecomprimeerde cd kwaliteit (stereo)
x3 --> 5.1 = 6 kanalen ipv 2
/ 60 --> aantal MB / sec
= 0,5MB / sec

om het future proof te houden doen we dan nog

x 5 --> hogere bitrate enzo
x2 --> voor 12 kanalen

dat is dus nog maar 5MB/sec
WAV in CD-kwaliteit is toch echt ruwweg 10 MiB per minuut hoor. Als jij daar MP3'tjes van maakt van dezelfde groottte doe je toch echt iets verkeerd, of op zijn minst iets overbodigs.
10 bits per pixel is erg weinig. Ongeveer drie keer zoveel lijkt me een betere inschatting, dan kom je dus ook flink hoger uit. Nou is 120FPS ook wel absurd hoog :P
Ach, 3D -> 120/2 = 60 fps. :)
hmm vreemd

ik dacht dat hdmi en dvi-d al rond de 10Gbit deden?
en die kunnen zelfs nog ni meer aan als
2560x2048 x 60fps x 8bits/pixel

vreemd dus dat jij aan die 6gbit komt voor iets veel beter

maar ik denk dat je vergist in bits / pixel

je bedoeld denk ik 10bit per basiskleur
zoals 24bits per pixel over1komt met 8 bits per basiskleur

als dat het geval is kom je dus al uit op 18gbit :p

dus das al een ander paar mouwen
Pcies, en wat dacht je dan nog van xvYCC en/of High color tot 48 bits (RGB 16:16:16)? Dan ga je al helemaal onderuit met je 4 Gbps. Mgoed, de volgende iteratie heeft wellicht meer succes, want het is best een goed idee om eea draadloos te versturen ... zeker met een flinke Home Theatre setup met meerdere componenten en TV / beamer.

En om eventjes terug te komen op de audio: HDMI is in principe voorbereid om meerdere audio-sporen tegelijkertijd te versturen.

[Reactie gewijzigd door G_M_C op 3 januari 2008 21:20]

10 bits per pixel is wel erg weinig dat is een RGB van 343 dat zijn 8 rood en blauw waardes en 16 groen waardes. Een pixel bestaat nog altijd uit 3 kleur waardes en om die hd te houden heb je minmaal 8 bits per kleur nodig. Ik denk dat je 10 bits per kleur bedoelt en dan kom je meer in de richting van <15gbps.
[edit]
Oops post 2 hierboven niet goed gelzen
[\edit]

[Reactie gewijzigd door NC83 op 4 januari 2008 07:44]

Meteen die resolutie ondersteunen zou niet verkeerd zijn, maar waar heb je in hemelsnaam 120 FPS voor nodig? Er is een reden dat films 24 FPS zijn, meer is namelijk niet nodig voor een vloeiend beeld.

Daarbij, wat schiet je ermee op? Een standaard TFT paneel heeft een maximale refresh rate van 60 Hz. Dus kan het beeld toch nooit meer dan 60 keer per seconde worden ververst. Wat ga je dan doen met die 60 frames die je elke seconde over blijven?

En de kans dat monitoren ooit (veel) hogere refresh rates gaan ondersteunen is klein lijkt me. Volkomen zinloos en alleen maar duurder.
1) om van het gezeik van alle mensen af te zijn die beweren wel verschil te zien ;)
2) ik weet niet of ik verschil zie, maar voor de zekerheid dan maar?
3) er zijn nu al tv's die extra frames tussen de 60fps proppen om zo tot een fake 120fps te komen... Ook computer monitors beginnen al truuken uit te halen in diezelfde stijl (BFI achtigen)... Mij lijkt het beter om dan maar ineens een echte 120fps te gaan ondersteunen, zit je ook met minder input lag die erbij komt door al dat frames verzinnen
En de kans dat monitoren ooit (veel) hogere refresh rates gaan ondersteunen is klein lijkt me. Volkomen zinloos en alleen maar duurder.
Zoals al eerder geopperd hierboven.... 3D weergave. Dan heb je dus al 60 fps per oog.
24 of 25 fps kun je zien knipperen, daarom is het oorspronkelijke TV-signaal ook interlaced geworden. Ivm bandbreedte beperkingen konden ze niet 50 a 60 hele beelden per sec doorsturen, maar ze wilde wel meer beeldjes hebben dan 25 a 30.
Oftewel 60 fps is helemaal geen gek idee.

Maar goed, even kijken naar de huidige beste standaarden voor thuisgebruik:
1920x1080x50(i) en 1280x720x50(p).
Beide hebben vrijwel dezelfde bandbreedte nodig.
1080i heeft 51840000 pixels/sec.
Oftewel als je 4 Gbit/s bandbreedte wilt vullen met alleen beeld, heb je ongeveer 77 bit per pixel nodig. Dat moet lukken, lijkt me. (24 a 32 bit/pixel is normaal)
Oftewel je zou zelfs 1080p over 4 gbit kunnen sturen en nog ruimte over hebben voor geluid en allerlei andere zaken.
Waarom uncompressed? Zelfs met een lichte compressie (al levert het maar 10% op) lijkt me al handig. Wireless en super hoge bandbreedtes gaan niet echt top samen. Het kan wel maar het komt uit de lengte of de breedte. Of minder bereik, of meer vermogen of meer bandbreedte (in Mhz) nodig.
Met of zonder compressie.... Als er met een compressed signaal wat mis gaat tijdens de transmissie, heb je veel meer last van de storing dan wanneer er iets mis gaat met een uncompressed signaal.
Kortom daar zijn ook de voors en tegens.
Maar ik ben het wel met je eens dat uncompressed een beetje zonde is van de bandbreedte.

* TD-er bedenkt ineens wat "audiofiele producten" ter verbetering van dit soort transmissie... ;)
- ionisatie-kastje wat de lucht optimaal maakt voor overdracht. Hierdoor krijg je een veel voller geluid, diepere kleuren en ervaar je de film nog beter.
- vergulde antenne's
- anti-reflectors zodat je zo weinig mogelijk ghosting in het geluid krijgt.
- muurverf om een "diepere" en tegelijk meer "open" geluid te krijgen.
voor de genen die het een beetje begint te dazen met al die frequenties, hier een leuk staatje:http://home.hetnet.nl/~vanadovv/Spect.html

Ik was namelijk bang in een magnetron te moeten leven, maar het lijkt er op dat dat allang het geval is.

typo
dus stax heb ik een Dect telefoon, een wifi verbinding en een draadloze HD standaard en een draadloze transmissie naar mijn TV boven op zolder.

volgends mij is dat vragen om problemen.
Ik heb hier een radio, een gsm, een draadloos netwerk en een magnetron.

Als de standaarden worden aangehouden onstaan er geen problemen.
Dect: ~1900MHz
WiFi: 2,4 of 5 GHz
Draadloze HD-standaard: 60 GHz.
draadlose transmissie naar je TV boven: (op dit moment vaak 2,4GHz)
Dus in hoeverre is dat vragen om problemen?
En dan vraag ik me nog af wat voor computer er in die lcd ingebouwd moet worden om de wireless HD-DVD stream te decrypten, gaan we dan in de richting van een Pentium Extreme? ;)
Het zijn vrij simpele rekenstapjes, alleen wel heel veel rekenstapjes.
Je kunt hiervoor gewoon een chip ontwikkelen die alleen maar dit werk doet. Zoiets hoeft amper meer dan een paar-100 mWatt te kosten aan energie.
60GHz is voor single room applicaties, het komt echt niet door een muur.
Wellicht een domme vraag, maar is er al een standaard voor Wired HD.

Hoe kan ik bijvoorbeeld DVD-A (5.1) en FULL HD content van de PC naar mijn TV en receiver sturen? Volgens mij is er geen eens een standaard voor wired namelijk :)
HDMI Extenders inderdaad zijn een oplossing. Zijn er dan extenders met een logo v.w.b. HD standaard ???

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True