Samsung werkt aan wifi op 60GHz met snelheid van maximaal 4,6Gbit/s

Samsung heeft bekendgemaakt te werken aan wifi-technologie waarmee het theoretisch mogelijk is om snelheden van 4,6Gbit/s te halen. De techniek werkt op een frequentie van 60GHz; aanzienlijk hoger dan conventionele verbindingen.

De door Samsung ontwikkelde technologie is met de opgegeven maximale snelheid van 4,6Gbit/s ongeveer vijf keer sneller dan wat nu mogelijk is met het 802.11ac-protocol. Om de hogere snelheid mogelijk te maken werkt de Koreaanse fabrikant met de 60GHz-band, terwijl wifi-verbindingen normaalgesproken gelegd worden op 2,4GHz of 5GHz.

Samsung claimt dat het met de 60GHz-wifi-technologie mogelijk is om de opgegeven maximale snelheid vast te houden, onafhankelijk van het aantal aangesloten apparaten of de aanwezigheid van andere wifi-netwerken in de buurt. Interferentie afkomstig van andere apparaten die op dezelfde frequentie werken zou geen spelbreker moeten zijn: volgens Samsung is er van zogenaamde co-channel interference niet langer sprake. Daardoor is er eveneens geen verschil meer tussen theoretische snelheden en de praktijk, zo betoogt het bedrijf.

Normaalgesproken wordt er geen gebruikgemaakt van dergelijk hoge frequenties om draadloze verbindingen op te zetten vanwege de beperkte penetratie en reikwijdte van de verbinding. Samsung stelt ook dit probleem opgelost te hebben door de gebruikte modemtechnologie en antennes te verbeteren.

Samsung verwacht dat er gretig gebruik zal worden gemaakt van zijn technologie, onder meer omdat voor de 60GHz-band geen licentie nodig is. Zelf wil het bedrijf de nieuwe wifi-technologie ook gaan gebruiken voor een groot aantal producten. Er zijn echter nog geen testresultaten getoond, waardoor niet kan worden geverifieerd of de opgegeven snelheid ook wordt gehaald.

Door RoD

Forum Admin Mobile & FP PowerMod

12-10-2014 • 11:28

131

Reacties (131)

131
126
77
9
0
35
Wijzig sortering
Hoe snel is een glasvezel lijn eigenlijk? Glasvezel ligt er net in, als we alweer bijna de volgende techniek nodig hebben? Wel een mooie zet van Samsung, hopelijk kan dit doorgezet worden, en ook daadwerkelijk over een aantal jaren de standaard worden.
http://www.extremetech.co...movie-in-0-2-milliseconds

43Tbps is het record voor een enkele fiber schijnbaar.


Over koper kun je ook al jaren makkelijk 10Gbit gooien, de hardware zakt alleen niet snel genoeg in prijs. Als je draadloos voorbij de Gbit kan mag ons betrouwbare kabeltje ook wel een keertje mee gaan als je 't mij vraagt. Maarja, dit soort nieuwsberichten zijn er een paar keer per jaar, ik zie nog niets in de winkel liggen.
Draadloos ligt erg gevoelig. Aangezien je een straling in het lucht gooit, en dat kan het omgeving beïnvloeden. Daarvoor heb je weer certificatie voor en nog een aantal dingen voordat het pas opgenomen mag worden.

Nu is het probleem, het is duur om mbit/s naar klanten te geven, plus het apparatuur moet gekocht worden. Het kost 45 euro voor een snelheid van 120 mbit bij UPC, als je dit gaat omrekenen naar echte prijzen dan is het op z'n minst 0,50 cent per mbit/s als je het in bundels koopt, dat is al snel meer dan 60 euro p/m en dat zijn de kosten van de provider zelf, dus word connecties gedeeld en hebben ze een fair-use-policy om ervoor te zorgen dat niet iemand alles opslokt. Als we naar 1gbit gaan bijvoorbeeld dan wordt het totaal prijs per mbit met 9 keer vergroot (60 * 9=540 euro p/m). En dat is niet haalbaar voor de klant en provider.

Dus is het vraag daarna gelimiteerd en wordt het niet aan consumenten gegeven.
Ik denk dat je je eerst af moet vragen welke maximum snelheid glasvezel kan hebben. Bij de traditionele coax-kabel zijn dat volgens mij al 3 a 4 Gbps (of nog meer). Dat zal bij glas nog wel een flinke factor hoger liggen.

In mijn beleving kunnen draadloze verbindingen het niet winnen van de bekabelde variant. Bij WIFI is de latentie hoger, de verbinding trager en bovendien veel te gevoelig voor externe factoren. Ik zou liever zien dat er een vervanging voor de traditionele RJ45 bekabeling- en netwerkadapters komt.

Voor consumenten is 1 Gbps de maximaal betaalbare oplossing. Doordat bestanden steeds groter en schijven steeds sneller worden wordt het tijd voor een nieuwe betaalbare standaard. Dunnere kabels, snelheden vanaf 10 Gbps en compactere routers / switches.

Daar heb je volgens mij meer aan dan dat fabrikanten iedere keer weer laten zien welke belachelijke snelheden ze over WIFI of (glasvezel)kabel halen. Tot nog toe zie ik daar namelijk niet veel van terug in consumentenelektronica.

[Reactie gewijzigd door Titan_Fox op 23 juli 2024 14:00]

1Gb is nog steeds best duur... 10Gb zie ik nog niet direct in de winkel liggen, ik ken ook geen toestel die met 10Gb om kan ... Onze servers hebben allemaal 2*1Gb poort en de storage servers hebben daarbij nog eens 4*1Gb apart. Eerlijk gezegd voor de meeste applicaties is 1Gb ruim voldoende en die 100mb lijnen zijn voor een groot deel ook nog voldoende. Zeker in België met de limieten op internetverbruik.

Dit is volgens mij puur onderzoek resultaten, 60Ghz tot je er een half glas water ertussen zet, dan is je connectie weg...
Met vloeistoffen is het sowieso spannend. Loop voor de lol maar eens een slijterij binnen. Als ik hier bij de Gall&Gall binnen loop is mijn ontvangst op mijn smartphone helemaal weg. Volgens de verkoper ligt dat aan alle flessen met vloeistof die overal staan.

Nu kan het ook zo zijn dat hij een stoorzender heeft om te voorkomen dat ik zijn prijzen online ga vergelijken, maar dat is misschien wat ver gezocht ;)
Het fijne weet ik er niet van maar watermoleculen schijnen RF van 2.4 GHz goed te absorberen, daarom wordt deze frequentie voor Magnetrons gebruikt. De 2.4 GHz band is licentievrij omdat niemand voor licenties wilde betalen vanwege de storing door magnetrons. Je slijter verteld dus geen totale onzin.
Ik heb dat verhaal ook wel eens gehoord, maar vervolgens hoor ik ook dat water op alle frequenties reageert, en dat juist die frequentie is gekozen omdat deze niet gebruikt was, om nergens mee te storen.

En wat die slijter zegt... ik vind het ook naar een broodje aap klinken, maar we zijn wel alcohol met water aan het vergelijken.
dit is een leuk documentje over de effecten van weeromstandigen op signalen. kortere variant.
Klopt 2,4 GHz is de frequentie die water afgeeft en welke toeneemt met hogere temperatuur.

De magnetron verhoogt de temperatuur met staling op 2,4 GHz
Watermoleculen zijn elektrische dipolen, die kan je dus met een snel fluctuerend elektromagnetisch veld sneller laten trillen. => opwarming

Daar hoef je helemaal geen 2.4GHz voor te gebruiken. Je wil het alleen overal hetzelfde hebben omdat het de frequentie voor andere dingen onbruikbaar maakt.
"watermoleculen schijnen RF van 2.4 GHz goed te absorberen, daarom wordt deze frequentie voor Magnetrons gebruikt."
Je bedoel waarschijnlijk magnetronoven. Een magnetron is een apparaatje dat radiogolven met zeer hoge energie opwekt. Voordat de magnetronoven werd uitgevonden zat het bijv. al in radar installaties.
Uit een compacte magnetron komt ongeveer een frequentie van 2.4 GHz, maar de magnetron wordt niet gebruikt in een magnetronoven voor de frequentie maar om de energie die geleverd wordt.

[Reactie gewijzigd door Jaco69 op 23 juli 2024 14:00]

Water is een probleem voor radioverkeer. Ik had ooit eens een projectje met een aantal vrienden, duikbootje maken enzo. Lang verhaal kort: het is gewoon niet redelijkerwijs mogelijk om signalen von onder water op te vangen als je boven water ben. Dus dat vloeistof je telefoon blokkeert is heel aanemelijk wat mij betreft.
Inderdaad. Bij een flinke regenbui valt het mobiele netwerk ook wel eens weg.
Dat komt waarschijnlijk door straalverbindingen met paraboolantennes tussen de sites die uitvallen.
De ontvangst van het netwerk op de telefoon kan ook wel wat minder worden maar omdat het netwerk rondom straalt zal alleen waar de ontvangst al marginaal was het netwerk wegvallen.
Dat gebeurt meestal met opstellingen die gebruik maken van straalverbindingen die een hogere frequentie hebben dan de mobiele frequenties. Deze zijn kilometers lang en maken gebruik van een aantal frequenties tussen 6 en 38 GHz. Die kunnen inderdaad met hevige regenval soms niet de afstand overbruggen die nodig is.

Ik heb wel mijn twijfels of 60 GHz goed gaat werken, de 5 MHz band hapert soms al in huis ondanks dat geen van de buren 5 GHz WiFi hebben.

[Reactie gewijzigd door Patrick! op 23 juli 2024 14:00]

En wat dat je van je sattelietontvangst? Als het hard regent heb je ook geen beeld. En dan zit je rond de 10 GHz.
Bij de AH heb ik gewoon ontvangst als ik bij de afdeling bier, frisdrank of zuivelproducten sta. Daar is vocht zat. Maar het werkt gewoon wel
Ach duur is relatief bij ons op het werk word het San al geupgrade naar 16Gbit en willen we de backupservers naar 40Gbit lan toe zetten. En dan nog zijn er systemen die als langzaam worden ervaren dus het kan en mag en soms moet het gewoon sneller
Kan het SAN wel genoeg IOPs leveren? Bandbreedte is meestal geen probleem.
Dat is inderdaad een leuke uitdaging maar geloof me er zijn leuke systemen op de markt die wat moois kunnen doen. Sowieso is het een upgrade voor langere tijd dus alles met de toekomst in het oog
Ik weet. Cisco zegt geen storage te doen. (Om geen ruzie te krijgen met EMC en NetApp.) Maar ondertussen leveren ze all-flash systemen die 144TB storage en 1.2 mio IOPs kunnen leveren.
Inefficiënte software los je er maar deels mee op.
10Gbit is echt nog niet zo duur op dit moment, ong 300 a 500 per NIC + whatever SFP module je wil gebruiken. Er zijn al een redelijk aantal betaalbare (voor een onderneming) 10Gbit switches, waarvan een select aantal ook al weer 40Gbit ondersteunt voor uplink naar netwerk backbone.

Een gemiddelde iSCSI SAN kan 1Gbit al snel voltrekken. Grotere SANs hebben dan echt voordeel aan het gebruik van 10Gbit voor storage netwerk.
1Gb is nog steeds best duur... 10Gb zie ik nog niet direct in de winkel liggen, ik ken ook geen toestel die met 10Gb om kan
Het is maar wat je gewend bent. Hier wordt 1Gb alleen nog gebruikt voor het management netwerk, de servers worden geleverd met 2x10Gb en de 1Gb nic voor management moeten we er los in duwen.
Iedere laptop heeft tegenwoordig al 1gbit, dus servers met een redundante 1Gbit kunnen toch al snel een bottleneck vormen indien enkel tientallen zoniet honderden clients tegelijk connecteren.
Voor een recente server is 2*10Gbit toch networking al een tijdje de standaard hoor.
Voor storage is +4Gbit toch al een jaar of 8 de standaard en met al dat SSD-geweld zitten we ondertussen dus ook al aan 16Gbit FiberChannel verbindingen voor Storage en zelfs dat is soms niet voldoende en moet je terug naar DAS oplossingen.

[Reactie gewijzigd door klakkie.57th op 23 juli 2024 14:00]

De servers die wij hier gebruiken, hebben allemaal 10Gb poorten (en kabels).
Minder komt er niet meer in tegenwoordig... Het is nog traag genoeg in bepaalde situaties.
Vreemd, wij hebben geen enkele 10Gb, maarja we hebben ook maar één rack staan :P en users liggen nog op 100mb lijntjes :)
Volgens mij heeft elke pc/laptop tegenwoordig gigabit netwerk...

Op mijn laptop haalde ik op speedtest.net 600-800 Mbit/s down- en upstream op kabel op mijn school, in de avond.

Mijn laptop heeft niet eens een normale ethernet poort maar een soort micro ethernet. Met een convertertje kon ik normale ethernet aansluiten.
Jah, ik weet ook welke connectie een computer heeft, maar netwerken liggen er al 10 jaar en worden niet om de haverklap geupdate. sommige collegas zitten met 4-5 op een 100mb switch ... En we zijn heus niet de enigste hoor ...
Over welke netwerken van 10 jaar heb jij het over?

Ik heb het over de netwerkkaart in laptops en PC's.

En verder hebben de meeste mensen idd 100mbit of lager internetsnelheid.
Eens dat kabel het nog altijd ruim wint van draadloos. Maar daar zijn ook problemen. Ze komen niet voor niets met spul als [url="iWARP"]iWarp[/url] op de proppen. De forst lagere latency doet wonderen. Ik heb het geprobeerd met Gamma en Open-MX, maar dat is het gewoon net niet.

Optisch heeft natuurlijk een aantal voordelen, maar voor thuis vind je het niet echt. Casacom heeft leuk optisch spul, maar dat is slechts 200Mbit voor thuisgebruikers. Als je hard zoekt, vind je wel 1Gbit chips, maar daar staat duidelijk bij voor industrieel gebruik. Dan ken je ongetwijfeld de adapters voor RJ-45 kabels die er en optische verbinding van maken, met een heel dun kabeltje, maar die hebben aan beide kanten een actieve converter, praktisch is anders.

Ik zou graag de 10Gbit optische verbinding voor thuisgebruikers zien tegen de prijzen van Gbit nu, maar dat duurt nog wel even. Helaas.
Je moet eens kijken naar infiniband op ebay.
Heb ik toevallig ook gehad. Naar aanleiding van een tweaker hier op het forum, heb ik ook zo'n set gehaald. Eerst 2 kaarten om te proberen. Maar dat is niet echt bedoeld voor standaard netwerkverkeer. Dan moet je alles weer in laten pakken in tcp, en dat schiet niet echt op, zo'n pak overhead weer.

Maar weer verpatst via speurders. Toch niet wat ik zocht, helaas.
Ook niet als je via RDMA werkt? Ik neem dat er een API is om objecten te serializen, zenden... Heb zelf NFS+RDMA gedaan en dat is een hoogvliegerdje. Daar zit normaal de kracht van IB met low-latency en cluster-werken.

[Reactie gewijzigd door analog_ op 23 juli 2024 14:00]

Een alternatief voor consumenten op RJ45 is er 'al': http://www.corning.com/op...oducts/USB-3.Optical.aspx. Dit zou natuurlijk ook met USB 3.1 kunnen werken voor je 10Gbp/s (mits Corning van dit product een USB 3.1 variant uit brengt). Nu moeten er alleen routers en switches uitkomen die LAN over de USB poorten ondersteunen. :)

[Reactie gewijzigd door PostHEX op 23 juli 2024 14:00]

Ziet er interessant uit. Dan ben je ook direct verlost van die klote klemmetjes aan RJ45 kabels die bij het minste of geringste afbreken. Zal dit eens in de gaten houden.
Gewoon tules gebruiken op je connectors, dan breken die klote klemmetjes zoals jij ze noemt helemaal niet zo snel af. Bij een kale RJ45 gaat dat makkelijk idd maar tuletje helpt hier verrassend goed tegen.
De maximale doorvoer voor een medium:
What is the maximum Bandwidth? - Sixty Symbols: http://youtu.be/0OOmSyaoAt0
Hoe snel is een glasvezel lijn eigenlijk?
Dat hangt er vanaf wat voor glasvezel er gebruikt is en wat voor apparatuur. Praktisch alle vezels die nu aangelegd worden zijn single mode fiber. Dit omdat daar langere afstanden mee gehaald kunnen worden en hogere snelheden.
De snelheid die over deze vezels gehaald wordt is afhankelijk van de apparatuur die gebruikt wordt. Voor standaard afstanden tot 10km gaat de prijs redelijk evenredig omhoog met de snelheid. Dat loopt van een paar tientjes voor 100Mbps tot een paar duizend euro voor 10Gbps. Daar boven loopt de prijs sneller op. Maar voor de vezel maakt het niet uit. Die gaat rustig door tot een paar Tera bps als je DWDM tecnieken toepast met 100Gbps.
Als je dergelijke snelheden draadloos wilt halen heb je aan het hele radio spectrum tussen 0 Hz en 1000GHz niet voldoende. En de afstanden die je met rf gaat halen zijn over het algemeen ook minder. Zoals eerder gezegd is 10km voor glasvezel een standaard afstand.
Maar glasvezel verbindingen en draadloos hebben ook andere doelen. Draadloos is mooi voor de laatste meters naar de eindgebruiker. Die kan zich dan vrij bewegen en hoeft geen stekkertjes te steken. Glasvezel is ideaal om de apparatuur waar de eindgebruikers aan koppelen met elkaar te verbinden. Als je gigabit wireless thuis krijgt waar je met het hele gezin met meerdere apparaten gebruik van maakt wil je wel dat je internetverbinding dat ook ondersteund. Met DSL gaat dat niet lukken en of het over de kabel goed gaat werken is nog maar de vraag. Vooral omdat asymmetrische verbindingen steeds meer als storend worden ervaren. Mensen snappen niet waarom het uploaden van een filmpje tien keer zo lang moet duren als het downloaden of waarom hun backup naar de cloud de hele dag kost.
Dat hangt sterk van de gebruikte technologie af, glasvezel op zich is enkel de draad. Dat kan van enkele megabit per seconde tot ettelijke gigabit gaan.
En in glasvezel zit ook nogal wat verschil.
Lees dit als aardige samenvatting van OM specs en de bijbehorende maximale bandbreedtes.

http://en.wikipedia.org/wiki/Multi-mode_optical_fiber
een moderne glasvezel-abbonement is meestal tussen 30mb/s up/download en 500-1000mb/s up/download (afhankelijk van uw locatie) [1GB/s is alleen nog in amerika]

over een paar jaar zitten we al aan de 1-5gb/s updownload (mogelijk ook nog een top-snelheid van 10GB/s) glasvezel wereldwijd (waar ondersteund)
Uhm, 1Gbps is wel in meer landen dan alleen de VS verkrijgbaar. Japan, Zuid-Korea, China, Zweden, verschillende Oost europese landen. Zeer waarschijnlijk ook in andere Europese landen. In NL Zou het ook onderhand verkrijgbaar moeten zijn.
Geen 100% dekking/verkrijgbaarheid in de genoemde landen, maar dat is het ook niet in de VS.

[Reactie gewijzigd door Jan Ham op 23 juli 2024 14:00]

Een kabel heeft geen snelheid. Je vergelijkt een protocol met een medium op dit moment, dat is niet mogelijk.

Zoals reeds aangegeven is er al 6Pb/s over glas gehaald. De modules die er aan hangen bepalen de snelheid. Ook 100Gb/s is gangbaar, maar veelal voor internet backbones e.d., het zijn vrij prijzige oplossingen.

http://en.wikipedia.org/wiki/100-gigabit_Ethernet

Ook koper wordt nog steeds sneller (zie 40GBASE-T bijv.). Alhoewel de kwaliteitseisen van het koper wel mee moeten kunnen. Je kunt bijv. vaak wel gigabit halen over CAT5, maar dan bij kortere afstanden dan de specificatie toe staat. CAT5E is namelijk 'beter'. Dat gezegd hebbende, de specificatie geeft minimum vereisten aan. Als je hele goeie CAT5 hebt (van lang geleden) heb je best kans dat die de CAT5E certificatie ook doorstaat.
"Normaalgesproken wordt er geen gebruikgemaakt van dergelijk hoge frequenties om draadloze verbindingen op te zetten vanwege de beperkte penetratie en reikwijdte van de verbinding. Samsung stelt ook dit probleem opgelost te hebben door de gebruikte modemtechnologie en antenne's te verbeteren."

Het zal wel aan mij liggen maar ik ben eigenlijk wel benieuwd naar de gebruikte "modemtechnologie en antenne's" waardoor een signaal van 60GHz plotseling wel goed door een muur zou kunnen dringen.

Het artikel en bronartikel laat daarover nog erg veel vragen over:

Zit het in de extra gain van de antennes of meer uitgangsvermogen van de transciever?

Of zit het in de gebruikte modulatietechniek waardoor er een betere signaal ruisverhouding wordt gerealiseerd?

Ze hebben het in het bronartikel over "micro beam forming" bedoelen ze daarmee een "phase array antenne"? En gebruikt dan zowel de zender als ontvanger deze techniek?

Verder eigenlijk wel mooi uitgewerkt van Samsung wanneer dit allemaal zo goed zou werken als voorgesteld.
Het signaal gaat niet veel beter door een muur komen. Staat er ook niet. Je kunt er natuurlijk wel voor zorgen dat de zend/ontvangst techniek gevoeliger word (dieper in de ruis kijken). Bij 60GHz kun je zeer kleine antennes maken op milimeter schaal. Je zou dan veel meer antennes kunnen gebruiken (betere beamforming) met bijbehorende modulatie. Je kunt bij 60GHz ook veel meer subbanden/kanalen gebruiken. Ik heb ook geen idee wat Samsung gedaan heeft in hun lab en ben daar ook best wel benieuwd naar. Tijd zal het leren.
Het signaal gaat niet veel beter door een muur komen. Staat er ook niet.
Wat bedoelen ze dan met "penetration" veel anders dan een muur doordringen kan ik in de gegeven context niet bedenken...

Uit het bronartikel:

Until now, there have been significant challenges in commercially adopting 60GHz Wi-Fi technology , as millimeter waves that travel by line-of-sight has weak penetration properties and is susceptible to path loss, resulting in poor signal and data performance.
Nja, er staat gewoon dat 60GHz slecht door een bv betonnen muur gaat. Niet dat Samsung het RF signaal beter door diezelfde muur kan krijgen. De eigenschap van het medium waardoor een EM-golf veplaatst kun je niet veranderen. Misschien kan men wat spelen met polarisatie, maar daar daar win je geen dB's mee...
dit techniek met miracast = geen haperingen op full hd materiaal of hoger zelfs.
Daar heb je dit niet voor nodig, dat kan nu al.
Enkel door het encoden van het beeld met h264, wat slechtere kwaliteit oplevert, hogere latency en hapering van het beeld wanneer het encoden niet snel genoeg wordt uitgevoerd. Dit is vooral een probleem bij gaming via miracast.

HDMI 1.0 heeft 3,96 Gbit/s bandbreedte beschikbaar om een 1080p beeldsignaal te versturen. Met 4,6 Gbit/s is er ruim genoeg bandbreedte om het video signaal zonder h264 compressie te versturen waardoor miracast dus een daadwerkelijke draadloze variant zou zijn van HDMI.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Wat een onzin. Je zegt dus dat alles wat niet raw wordt uitgelezen, slecht is? Het nodig is om van elke pixel van de 1920x1080, aan te geven welke kleur deze heeft van de 2^24 kleuren, en dat dit 30 keer per seconde herhaald moet worden?

Als je naar individuele frames kijkt van een film, dan zie je dat ze meestal bijna hetzelfde zijn, met soms kleine veranderingen. Het is niet nodig om deze frames helemaal op te slaan, je kan ook alleen de verandering opslaan. Ook: naar mate de resolutie hoger wordt, is de verandering in kleurdiepte tussen twee pixels vaak kleiner, of zelfs 0.
Je kan onderscheid maken tussen lossy compressie en lossless compressie. Als jij je daar zoveel zorgen over maakt, kan je voor lossless kiezen, maar bij een goede algoritme kan een gemiddeld persoon dit verschil niet waarnemen.

Je hebt echt geen 4 Gbit/s bandbreedte nodig om 1080p te kijken, dat is de grootste onzin die ik heb gelezen.

[Reactie gewijzigd door mohf op 23 juli 2024 14:00]

Je hebt echt geen 4 Gbit/s bandbreedte nodig om 1080p te kijken, dat is de grootste onzin die ik heb gelezen.
Er hier sprake van een misverstand. Het decoden van H.264 naar een video signal gebeurt door je processor (eventueel geholpen door de GPU) of door een gespecialiseerde chip. Het signaal wat van computer of player naar je beeldscherm word gestuurd is RAW. Je beeldscherm of TV kan niks met een gecomprimeerd signaal. Het heeft de ruwe informatie nodig, per subpixel een kleur en dit 24 of 60 keer per seconde. Over een HDMI kabel gaat altijd een RAW signaal.

[Reactie gewijzigd door Kain_niaK op 23 juli 2024 14:00]

Klopt, je hebt h.264 signaal dat klein is voor snelle en efficiente transport, en je hebt een raw signaal met de enorm hoge bandbreedte voor het scherm.

Armada651, waar ik op reageerde sugereerde dat we 4Gbit/s nodig hebben om 1080p te kijken, en dat is onzin. Het decoderen van h.264 naar raw doe je zoveel mogelijk aan het eind, bij voorkeur vlak voordat het signaal naar het scherm wordt uitgestuurd. Dat doe je niet voordat je het signaal via wifi transporteert, maar daarna. Anders is het transcoderen zinloos.
Het gaat hier wel over miracast, wanneer de film al gedecodeerd is zal miracast het beeld opnieuw coderen alvorens het naar het beeldscherm wordt gestuurd. Mijn suggestie was om met deze technologie die laatste stap dus overbodig te maken.

Miracast is dus niet hetzelfde als airplay of google chromecast waarbij de film zelf naar de TV wordt gestreamt.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Zonder compressie heb je flink wat bandbreedte nodig om 1080p 60 keer per seconde te verzenden. HDMI 1.0 stelt daar dus ongeveer 4Gbps voor beschikbaar. Voor de theoretische ondersteuning: 1920 * 1080 * 24 (bits voor kleur) * 60 (frames per seconde) = 2,99 Gbps

Compressie kan je zeker toepassen om deze bandbreedte sterk omlaag te krijgen, maar dit geeft altijd een verlies in kwaliteit. Ik zeg helemaal niet dat de kwaliteit slecht is, H264 kan zeer goede resultaten boeken waarbij het verschil niet meer merkbaar is. Maar er zal altijd een verlies zijn afhankelijk van hoeveel bandbreedte er beschikbaar is.

Voor films is dat geen probleem, met 40 tot 50mbps heb je genoeg voor 1080p, maar dit zijn vaak langzame bewegingen met maar 30fps. Deze bandbreedte eis ligt een stuk hoger met 60fps gaming. Ook brengt dit compressie process inherent vertraging met zich mee.

Ik ben zeer tevreden over miracast omtrent het kijken van films, maar voor gaming is het niet toereikend. Daarbij kan het ongecomprimeerd versturen van het beeld op een 4,6Gbps verbinding een uitweg bieden.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Compressie van bewegende beelden is zeer goed mogelijk zonder kwaliteitsverlies.
Als je van uncompressed naar compressed naar uncompressed gaat geeft dat natuurlijk wel extra vertraging.
Er is inderdaad lossless H264 compressie mogelijk, ik ben niet bekend met de bandbreedte eis hiervan maar ik denk niet dat dit een optie is voor Miracast in zijn huidige vorm. En dan zit je zoals je zelf zegt nog steeds met de vertraging.
Dat zal duidelijk onder de 500 mbit/s zijn. En delay. Met onze onderzoeksgroep zitten we encoding+transmissie over lokaal netwerk+decoding onder 16 ms
Zo'n onderzoeksgroep is leuk, maar in de praktijk werkt het gewoon niet, wat de reden ook is.
Dat zijn er mooie resultaten, maar wat voor hardware wordt daarvoor gebruikt? Niet elk apparaat is uitgerust met een ASIC of een i7 voor encoding/decoding.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Met simpele lossless compressie door bv HuffYuv (http://en.wikipedia.org/wiki/Huffyuv) of Lagarith (http://en.wikipedia.org/wiki/Lagarith) bereik je al een compressie van ~60% van het origineel, dat snoept al een flink gedeelte van de benodigde bandbreedte weg.

H264 kan ook lossles (of nagenoeg lossless) de beelden versturen, het hebben van een dergelijke bandbreedte lijkt me toch wat overkill ;)
De kwaliteit is wellicht iets slechter, wat je overigens niet ziet (tenzij je er met je neus bovenop zit), haperen is bij mij niet aan de orde.

[Reactie gewijzigd door EnigmaNL op 23 juli 2024 14:00]

Als ik op een tablet probeer te gamen en via miracast het signaal naar de TV stuur krijg ik haperingen en slechte kwaliteit. Hoogst waarschijnlijk omdat het beeld veel veranderd en daardoor meer compressie en CPU kracht nodig heeft om over dezelfde bandbreedte te sturen. Ook is er door dit proces een hoge vertraging op het beeld as het niet happert.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Bij gamen is dat misschien zo maar bij het kijken van films of TV series niet. Miracast is dan ook niet specifiek ontworpen om te gamen.
Toch adverteren veel fabrikanten dat miracast uitermate geschikt is voor gaming en geen latency oplevert. Terwijl dit in de praktijk heel anders wordt ervaren.

[Reactie gewijzigd door Armada651 op 23 juli 2024 14:00]

Dat is ook een bizar statement: de conversie van het scherm op je tablet naar een beeldsignaal en dat na draadloze transmissie terug naar iets wat je TV snapt kost gewoon tijd. Een draadloze muis, hoe snel ook, is ook iets trager dan een bedrade muis (zelfde voor een toetsenbord). Die laatste twee zijn inmiddels zo snel dat je het verschil IMHO niet meer merkt. Maar video "on the fly" converteren naar h.264 is gewoon (relatief) tijdrovend...
Het mooie is dat deze techniek aldus Samsung reeds haalbaar is op korte termijn.
Samsung said commercialization of the 60 GHz Wi-fi technology is expected as early as next year. It plans to apply its new Wi-Fi technology to a wide range of products, including audio-visual and medical devices, and telecommunication equipment.
[Edit]
In 2013 was dit reeds de stand van zaken:
http://arstechnica.com/in...ready-for-real-world-use/
Samsung lijkt de laatste stap naar economische haalbaarheid en praktische inzetbaarheid gemaakt te hebben. Maar de vraag is dan of dit ook muren e.d weet te penetreren, iets wat ook volgens Wilocity het probleem was in 2013.

[Reactie gewijzigd door SED op 23 juli 2024 14:00]

Dat was ook m'n eerste gedacht. 5Ghz is al een probleem door een aantal muren. Dan gaat 60Ghz al niet meer door je laptopscherm als je router erachter staat, bij wijze van spreken.
"Dan gaat 60Ghz al niet meer door je laptopscherm als je router erachter staat"

60Hz wordt dan wel weer minder geabsorbeerd en beter weerkaatst dus binnen de ruimte heb je goede ontvangst, ook achter een obstakel. In de volgende ruimte zal je waarschijnlijk al verschil merken of de deur open of dicht is.
60Ghz zal inderdaad beter weerkaatsen, maar dat is helemaal geen goede eigenschap. Je gaat immers schaduwzones krijgen (waar te weinig signaal terecht komt). Vergeet niet dat de straling een deel van zijn energie verliest, elke keer hij weerkaatst wordt. Ervan uitgaan dat je hele kamer "vol straling" gekaatst wordt, als een soort flipperkast op steroïden, is een foute veronderstelling. Er gaat bovendien ook interferentie optreden tussen weerkaatste stralingsbundels, wat het verkrijgen van een goed signaal enkel moeilijker maakt.

60Ghz-signalen hebben een enorm kleine golflengte (ongeveer 5mm), wat nadelig is voor de penetratie door objecten heen (muren, deuren, maar evengoed meubels enzo). Bovendien is het haast onmogelijk om krachtige, omnidirectionele antenne's te maken voor deze golflengtes. Je gaat dus steeds opgezadeld zitten met richtingen waarin het signaal sterker is.

Er zijn heel wat zuiver fysische beperkingen aan wifi signalen met dit soort hoge frequenties. Ik heb dus eerder iets van "eerst zien en dan geloven". Want als je direct line-of-sight nodig hebt voor een wifi verbinding, dan kan je evengoed een kabeltje trekken.
Anoniem: 562343 12 oktober 2014 11:33
Een muur ertussen en je hebt geen ontvangst meer...
Daar zat ik ook aan te denken. Met 5 GHz is het bereik al tamelijk beroerd. Met 60 GHz is dat nog een factor 12 erger.

Al mijn apparaten zijn gewoon bekabeld in het netwerk. De CAT6 SSTP kabels liggen achter de plint, dus je ziet er niks van. Alleen mijn iPad en Find 7 zijn draadloos verbonden. Hoe goed ze WIFI ook maken; voor het verschuiven van grote bestanden binnen je netwerk zijn kabels vooralsnog de beste keus.
Waarop baseer je dat een 12x hogere frequentie 12x slechter is ?

Ooit gehoord van GSM / FM Radio, etc ?
GSM: rond de 1500 MHz (1,5 GHz)
FM Radio: rond de 100 MHz (0,1 GHz)

Dus allemaal lagere frequenties. Hoe lager de frequentie, hoe verder het bereik. Voorbeeld bij radio: korte golf (in de kHz) heeft een bereik van enkele honderden kilometers, FM heeft een bereik van honderd kilometer.

Dat het een lineair verband is, ben ik met je eens dat dit niet per se zo hoeft te zijn...
"Hoe lager de frequentie, hoe verder het bereik"
Da's niet waar. Lagere frequenties kunnen de aarde volgen omdat ze weerkaatst worden in de stratosfeer (of zoiets) . Boven een bepaalde frequentie zal het signaal rechtuit gaan en dus van de aarde af.
Dus boven een bepaalde frequentie ligt het bereik aan hoe hoog de antenne staat. Bij nog hogere frequenties wordt het bereik niet minder. (Sterker nog ik dacht zelfs dat voor ultra verre afstanden in de ruimtevaart en zo bij voorkeur hoge frequenties worden gebruikt)
Dit klopt niet helemaal. Dat van de aarde afgaan wel.

VLF 3-30 kHz signalen dringen door de aarde heen, ook de water en wordt daarom ook gebruikt door duikboten.
LF 30-300 kHz heeft net als VLF een hele lang golf (ook wel LG/LW genoemd), deze "reist" over de aarde heen 198 kHz BBC4 is bijvoorbeeld makkelijk te horen in Rusland en Afrika
MF 300-3000 kHz (hierin zit ook de "AM Band") is bijna hetzelfde als LF, alleen met een kortere golflengte en komt daarom minder ver.
(Hey hier komt de connectie met GSM al...)
HF 3-30 MHz ook wel de kortegolf genoemd is wat jij bedoelt, hier gebeurt iets magisch en kaatsen de radio signal via de ionosfeer naar de aarde en weer omhoog en weer terug. /\/\/\/\ zo krijg je dus "wereld radio" indien goed gericht. :)
En vanaf 30 MHz geldt wel, hoe lager de frequentie, hoe beter de radiogolf door een gebouw door dringt.
En praktisch gezien vanaf 1000 MHz is het alleen als je de signalen kunt "zien" dat je ze goed komt ontvangen.
(Dit zou ik kunnen laten zien door op 1090 MHz ADS-B signalen van vliegtuigen te laten zien. Antennne binnen is enkele vliegtuigen op het scherm in een straal van 10 km van schiphol. Echter als ik de antenne op het dak zet, kan ik zelfs vliegtuigen zien op meer dan 400 KM ver. De ontvangst houdt op omdat ik vliegtuigen verder niet meer kan "zien", horizon.)
(Nu weet je dus ook waarom KPN digitenne in de ene gemeente beter werkt dan de andere: 470 - 782 MHz. 4G begint bij 790 MHz..)

Het voordeel van de hogere frequenties zijn dus wel legere banden en je kunt zoals al eerder gemeld meer bandbrandte gebruiken.

Maar goed, als je maar genoeg vermogen maakt en/of masten neerzet heb je uit eindelijk overal wel bereik.

Iets off topic: Daarom is het in Nederland zo vol met FM zenders (88-108 MHz) omdat er in ieder kantoor/kelder of andere kleine ruimte FM te horen moet zijn. Waarom? Veel mensen op een klein gebied = cash! En hetzelfde geldt voor mobile telefoons.

Leuk om te weten GSM providers werken al met 24 - 60 GHz verbindingen onderling tussen masten, deze hebben vrij zicht en kunnen dan veel data naar elkaar toesturen.

Samsung gaat het dan oplossen met vermogen of repeaters.
Momenteel on air in Nederland:
"4G": 790 - 814 MHz (Tele2/Vodafone/KPN)
"GSM: 920 - 960 MHz (T-mobile/Vodafone/KPN/Andere diensten)
"*UMTS" 1800/1900/2100 MHz (T-mobile/Vodafone/KPN) (1800 MHz ook 4G)
"4G" 2600 MHz (Tele2/T-mobile/KPN)

http://www.4gdekking.nl/alles-over-4g/
Zo wordt de band nu een beetje grofweg gebruikt.
Vooral je benoeming van GSM en 1500 MHz is niet correct en vond ik een reactie waardig.

Nog even een late edit:
1575.420 MHz = GPS, Global Positioning System

[Reactie gewijzigd door neeecht op 23 juli 2024 14:00]

Ik ken GSM als 900 of 1800 Mhz, afhankelijk van het netwerk (In de VS 850 of 1900 Mhz)
Vreemd. Altijd gedacht dat GSM ook ver in de Ghz zat.

30-40 Ghz word op dit moment gebruikt voor rechte lijn verbindingen.
Wel (volgens wiki) kun je daarmee 1-2 kilometer halen, alleen heb je daar (inderdaad) een zicht verbinding nodig.
vele zien wifi ook als een alternatief voor bedraad, in mijn beleving is het een nood-oplossing; wil je stabiliteit, en gegarrandeerde kwaliteit dan is een kabel de enige oplossing. wifi is handig om 'snel iets op inteternet te doen' maar om dat nu als infrastructuur vervanger te zien. veel te gevoellig voor storing en invloed van buitenaf.

[Reactie gewijzigd door himlims_ op 23 juli 2024 14:00]

Het is 2014.
Ik snap niet dat mensen nog zo negatief denken over draadloos (zij het muizen, toetsenborden, internet of wat dan ook). Het is vrijwel net zo snel en stabiel als bedraad, zeker als je de laatste technieken gebruikt (802.11AC, 5GHz etc).
Door interferentie is draadloos niet zo stabiel als bedraad, met een bluetooth muis of toetsenbord ligt je apparaat naast of zeer dichtbij het computersysteem waardoor er bijna geen storing is, dit ligt anders met Wi-Fi bijvoorbeeld waar een systeem enkele meters van het modem af kan staan met mogelijk muren en andere obstakels daar ook nog eens tussen. In dat geval zwakt het signaal aanzienlijk af tel daar bij op dat in een normale woonwijk een dozijn Wi-Fi stations zijn die met elkaar op het zelfde spectrum gegevens versturen dan daalt de betrouwbaarheid van een draadloze netwerk verbinding nog eens flink. De reden dat men nog steeds negatief denkt over vooral Wi-Fi is omdat door deze factoren de theoretische snelheid bijna nooit gehaald word.

Denk er ook aan dat met Wi-Fi je gegevens de ether in gegooid worden waar iedereen ze op kan vangen en (in theorie met genoeg tijd en moeite) kraken, dit zorgt voor een beveiligingsrisico. Het is niet erg als je even op youtube een filmpje kijkt of met oma kletst maar als je gevoelige infrastructuur beheert is dat geen acceptabel risico. Bedraad is daarin nog een betere keuze, iemand moet fysiek bij het modem komen om het netwerkverkeer uit te lezen in zo'n geval (hacking aanvallen daargelaten).
Bij draadloos internet ben je heel erg afhankelijk van de fabrikant van de geleverde hardware. De meeste draadloze modem-routers die internetproviders leveren zijn ronduit waardeloos. Je moet veelal een eigen router gebruiken om een enigermate stabiel (draadloos) netwerk te krijgen. Zo staat het Cisco-modem dat ik van Ziggo heb in "bridge"modus, omdat zowel het LAN alsmede WLAN ondermaats presteren.

De ontwikkeling van computertechniek gaat zo gigantisch snel, maar op het gebied van netwerken voor particuliere consumenten begint het toch aardig achter de feiten aan te lopen.
En dat kan natuurlijk ook een (beveiligings-)voordeel zijn; het snoopen van wifi data op dergelijke frequenties is bij voorbaat redelijk kansloos door deze fysische eigenschap.
Misschien dat Samsung naar S-Wifi dan ook S-Muren gaat markeren met 60Ghz support oid. Maar dan wel in 100 varianten zodat geen enkele goed past en alles heeft.
Geeft dit niet het probleem dat je nóg slechter bereik hebt aan de andere kant van de muur? Zoals ik het weet is lager beter voor bereik door allerlei materialen heen.
Dan moet je in iedere kamer met range extenders gaan werken. In ieder vrij stopcontact moet dan zo'n apparaat worden geprikt. Ziet niet uit, kost energie, kost geld vanwege de aanschaf en bovendien is ieder extra elektronisch apparaat een potentieel brandgevaar zodra ze dag en nacht zijn ingestoken. Afgezien daarvan is het maar weer helemaal de vraag welke gezondheidsrisico's deze frequenties met zich meebrengen. We worden nu al aan alle kanten bestraald door talloze draadloze netwerken...

De enige die er beter van wordt zijn de fabrikanten van netwerkapparatuur.

[Reactie gewijzigd door Titan_Fox op 23 juli 2024 14:00]

Niet-ioniserende straling kan jou geen kwaad doen. Op deze schaal zal de straling gewoon afketsen van jouw huid. Het is niet echt een gezondheidsprobleem maar meer het probleem dat je gewoon direct de router moet kunnen zien met jouw apparaat.
Nou, er zijn nog steeds onderzoeken gaande met betrekking wat Wifi en dergelijke op langere termijn aan schade kunnen opleveren. En de onderzoeken die er nu zijn geweest geven allemaal een ander beeld, de ene vindt wel degelijk problemen en de ander niet.. Vroeger dacht men ook dat sigaretten en asbest geen probleem waren, of direct wonen onder hoge spanningsdraden, ondertussen zijn we wel wat wijzer geworden....
Vrij zinloze onderzoeken, eerlijk gezegd. De natuurkunde is vrij duidelijk: Zelfs een Terahertz is niet ioniserend. Een enkel foton is dus niet schadelijk. Meer dan 1 foton? Dan praat je over thermische effecten, waarbij een paar Watt nog niet schadelijk is. Alle mensen zijn vloeistof gekoeld, tenslotte.
Ik ben vooral beniewd naar de afstand. Mijn 5ghz netwerk heeft al aanzienlijk minder bereik dan de 2.4ghz. Gelukkig is Windows en Android slim genoeg om te switchen als er 1 wegvalt
Bij mij is het andersom, meer bereik met 5GHz.
Er wordt al veel langer op de 60GHz-band gewerkt in de testlabs.
Voordat het commercieel haalbaar is zijn we echter wel een jaar of wat verder.

Een 60GHz-AP heeft een bereik van welgeteld 1 kantoor, omdat electromagnetische straling zich bij dit soort golflengtes steeds meer als licht gaat gedragen. Dat houdt in dat je, wanneer je het in je bedrijf wil uitrollen, stevig de knip moet trekken. In elk kantoor minimaal 1 AP en die moeten ook nog eens aangesloten worden op een 10Gbit access-port op de switch. Dat kan met UTP tot zo'n 7 meter, dus in de meeste gevallen zal het met fiber moeten. Een 10Gbit LRM-module kost een flinke duit en fibers laten trekken over trace's waar nu enkel UTP voorhanden is, is ook niet gratis.

Overigens zullen 60GHz-AP's de eerste zijn die Full-Duplex gaan werken: de 60GHz-band is voor downstream, terwijl de bestaande 2,4GHz en 5GHz-banden voor de upstream gebruikt gaan worden.
Dat men dat nu nog niet doet (2,4GHz voor up- en 5GHz voor downstream) is mij overigens een raadsel: 5GHz is al lang mainstream en het zou de netto doorvoer enorm doen toenemen.
Dat kan met UTP tot zo'n 7 meter, dus in de meeste gevallen zal het met fiber moeten. Een 10Gbit LRM-module kost een flinke duit en fibers laten trekken over trace's waar nu enkel UTP voorhanden is, is ook niet gratis.
Dat kan met een Cat6 Ethernet kabel tot 55 meter (http://en.wikipedia.org/wiki/10-gigabit_Ethernet). En vanaf Cat6A tot 100 meter. Ik gok dat Cat6 of beter in een modern kantoor al redelijk standaard is. De investering zou dus nog goed kunnen meevallen.

Al zal de 60 GHz apparatuur nog wel prijzig zijn natuurlijk.
802.11ac WAVE-I heeft een theoretische max. van 1.3 Gbps. De volgende generatie WiFi ( 802.11ac WAVE-II ) gaat een max. ondersteunen van 3.5 Gbps. Waarschijnlijk zullen deze access points worden aangesloten via 10Gbps ethernet. 10GBASE-T over CAT6A bekabeling is dan het meest waarschijnlijke, omdat het goedkoper is dan glasvezel. Alleen het energie verbruik van 10GBASE-T poorten is momenteel nog vrij hoog. (Hoger dan glaspoorten.)
U heeft volkomen gelijk.
Ik snap niet waarom die 7m in mijn kop zat. Wellicht met Cat5E, maar ik durf nu eigenlijk niets meer te beweren :X
Het scheiden van upsteam en downstream is al lang niet meer noodzakelijk. Alle CDMA-achtige technieken die ervoor moeten zorgen dat verschillende AP's elkaar niet storen werken nog beter om ervoor te zorgen dat AP en endpoint elkaar niet storen.

Toegegeven, meer bandbreedte helpt, maar dan doe je liever channel bonding tussen 2.4 Ghz en 5 Ghz. Paarsgewijs banden toewijzen is eigenlijk alleen zinnig als er echte symmetrie is, zoals bij GSM srpeek/luisterverbindingen.
Klopt wel wat je zegt, maar WiFi is en blijft half-duplex. Door de volle 2,4GHz aether voor upstream te gebruiken en de relatief rustige 5GHz (of de verlaten 60GHz) voor downstream, is de doorvoer enorm te verbeteren.
Een andere optie zou zijn om verschillende kanalen tegelijkertijd te gebruiken (1 en 6, 6 en 11, etc), maar dat geeft weer het probleem dat de aether snel vol raakt.

Er is, kortom, nog genoeg winst te behalen. Van een kennis van mij die in de WiFi-Alliance actief is, weet ik dat men in ieder geval serieus bezig is met FDX over twee banden. Dat moet dan bij de commerciele introductie van 60GHz-apparatuur standaard zijn.
Neemt de afstand dat het signaal kan overbruggen niet af als de frequentie stijgt? Als in de 5,0 GHz biedt meer bandbreedte maar heeft een kleiner dekkingsgebied dan de 2,4 GHz met lagere bandbreedte? Als dat zo is dan lijkt het me dat de 60 GHz frequentie niet verder dan een paar meter komt?

Ook waar zou je deze hoge bandbreedtes voor nodig hebben? Een draadloze server zou natuurlijk handig zijn maar als consument?

[Reactie gewijzigd door Jhonny44 op 23 juli 2024 14:00]

Anoniem: 120539 12 oktober 2014 11:52
De belangrijkste reden van een beperkt bereik op 60GHz is niet zozeer de hoogte van de frequentie (want daar kun je extra vermogen tegenover stellen), maar vooral dat dit ook de resonantiefrequentie is van een zuurstofmolecuul.

(Ik kan me zo voorstellen dat dit ook de reden is dat deze band altijd vrij is gebleven voor vrij gebruik, maar dat is speculatie van mijn kant.)
-15 dB per kilometer is niet acuut reden tot zorg.
Ik lees alleen iets over de ontwikkeling van een nieuwe techniek, maar niets over een nieuwe WiFi-standaard? Mogen we aannemen dat die standaard daarna wel volgt zodat andere fabrikanten deze techniek ook kunnen gebruiken? Ik associeer Samsung niet direct met netwerktechnologie en Samsung-only techniek zit denk ik niemand op te wachten.

Op dit item kan niet meer gereageerd worden.