Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 101 reacties
Submitter: z1rconium

Onderzoekers van de Brown University zijn erin geslaagd terahertzgolven te multiplexen en te de-multiplexen. De test vormt een belangrijke stap naar het kunnen inzetten van terahertzsignaal voor snelle draadloze verbindingen.

Op een dag moet het inzetten van terahertzgolven gebruikt kunnen worden voor aanzienlijk snellere dataverbindingen dan nu. WiGig, oftewel 802.11ad werkt bijvoorbeeld op 60GHz en biedt mede hierdoor een hogere bandbreedte dan bijvoorbeeld wifi-ac, al is het bereik lager. Onderzoekers werken al langer aan het gebruik van terahertzgolven, maar onder andere multiplexing en de-multiplexing waren nog een probleem.

Bij multiplexing worden verschillende datastromen door een enkel medium getransporteerd, waarna de signalen na de-multiplexing afzonderlijk ontvangen worden. Alle draadloze technieken maken hiervan gebruik. De wetenschappers van de Brown University in de VS zijn er nu in geslaagd een werkende multiplexer voor terahertzsignalen te ontwikkelen. Volgens professor Daniel Mittleman van het team is dit de eerste keer.

Hij en zijn collega's maakten gebruik van een lekgolfantenne. De antenne bestaat uit twee metalen plaatjes die parallel aan elkaar zijn bevestigd en zo een golfgeleider vormen. Een van de plaatjes heeft een gleuf waaruit straling lekt als de terahertzgolven door de geleider lopen. De onderzoekers ontdekten dat de golven elk vanuit een verschillende hoek lekken, afhankelijk van de frequentie.

"Als je dus 10 verschillende frequenties tussen de platen laat lopen - waarbij elk in potentie een eigen unieke datastroom draagt - komen ze er vanuit 10 verschillende hoeken uit", verduidelijkt Mittleman. Een receiver kan zo aangepast worden dat deze straling, en daarmee een signaal, vanuit een specifieke hoek ontvangt. Door de scheiding tussen de platen aan te passen zijn de basisfrequentie en bandbreedte van de multiplex-terahertzkanalen te beheren.

Mittleman benadrukt dat het om een proof-of-concept gaat en hij hoopt met andere onderzoekers aan meer onderdelen voor een komend terahertznetwerk te kunnen werken. Zijn onderzoek is gepubliceerd in Nature Photonics.

terahertz

Moderatie-faq Wijzig weergave

Reacties (101)

De atmosferische demping rond 1 THz alleen al is tussen de 100 en 1000 dB per kilometer (vergeleken met <0.01 onder de 10 GHz). Daarnaast heb je de path-loss die ook vele malen groter is dan bij lagere frequenties. Ik ben geen expert, maar ik verwacht ook dat signalen in the THz amper door obstakels of muren kan. Kortom, dit is alleen voor bereik binnen een niet al te grote ruimte met line-of-sight.
Dit zou dus wel gebruikt kunnen worden om chips binnen 1 apparaat met elkaar te laten communiceren (mits deze technologie op een chip te bakken is). Ook voor het docken van een laptop of telefoon.. We halen nu al meer dan 1 GBit over 5Ghz, Met deze technologie is vast meer dan 200Gbit te halen. Dat is meer dan een PCI express 3.0 x16 slot.
800Mhz, 2,4Ghz, 5Ghz, 60Ghz en nu 1Thz? Des te hoger de frequentie, des te gevaarlijker het signaal is toch? Want hoe hoger de frequentie, des te sterker (meer energie) nodig is om het signaal ver uit te sturen. Iemand met een technische/medische achtergrond die hier wat meer over kan vertellen.
Nee, zo werkt het niet. Thz signalen vallen in het spectrum van infrarood en zichtbaar licht. Pas bij Petahertz / Exahertz kom je bij ultraviolet en rontgen, waarvan we zeker weten dat ze schadelijk zijn.

Zie ook de tabel in https://nl.wikipedia.org/wiki/Elektromagnetisch_spectrum

[Reactie gewijzigd door Standeman op 16 september 2015 14:10]

Jij doelt op ioniserende en niet-ioniserende gamma-straling. Ik denk dat maulwurfje doelt op het gegeven dat hogere frequenties meer vermogen nodig hebben om langere afstanden af te leggen. Dan krijg je mogelijk met wat ik gemakshalve het magnetron-effect noem te maken. Dit is diëlektrische verwarming door gebruik te maken van het dipoolmoment van moleculen zoals water. Dit is niet direct schadelijk maar het is volgens mij wel de reden waarom bijv monteurs maar beperkte tijd vlak naast een sterke radio- of telefoon-zendmast mogen werken. Een nog veel hoger vermogen is wellicht niet wenselijk. Ik kan me echter voorstellen dat THz-communicatie voor zeer korte afstand zal zijn, of eventueel voor zeer gerichte straalverbindingen.
Terrahertz golven vertonen een zeer groot straalgedrag. Met andere woorden, veel directioneler. Met zijn voor en nadelen, zolang iemand niet in het pad tussen zender en ontvanger komt zal er niet direct een probleem zijn.
dat klopt... "kan" ook schadelijk zijn. Al verwacht ik dat een uurtje in de volle zon lopen schadelijker is dan alle overige niet-ioniserende straling...
Gaat mijn wifi-antenne dan licht geven?
Als het signaal tussen de 394 en 789 THz is het antwoord ja!. Daaronder is het infraroodlicht, dus hetzelfde als van je afstandbediening. Dat zie je dus zelf niet, maar bijvoorbeeld je hond wel.

[Reactie gewijzigd door Standeman op 16 september 2015 14:28]

Met een camera kan je het ook zien :).
dus kan je straks van kanaal wisselen door je processor wifi? :+

[Reactie gewijzigd door raro007 op 16 september 2015 15:25]

Dat vroeg ik mij ook al af. Stel je laat iets op infrarood snelheid bewegen, geeft het dan licht?
Neen. Het gaat hier om elektromagnetische straling met een zekere frequentie. Als die frequentie hoog genoeg is percipiëren wij die straling als licht.
Dit geldt dus niet voor eender welk object dat bijvoorbeeld trilt. Hoewel dezelfde grootheid (frequentie, met als eenheid Hertz) gebruikt wordt, heeft een trillend object weinig gemeen met een elektromagnetische golf.
Maar een lading (electron) heeft toch invloed op het electromagnetisch veld?
En dus zou ik verwachten dat als je een electron (in een atoom in een stukje materie) op die snelheid beweegt dat je vanaf een bepaalde bewegingsamplitude fotonen gaat genereren in het EM veld.
Dit is volgens mij ook gewoon hoe een antenne werkt. Je ramt er lading doorheen op een bepaalde frequentie en de antenne genereert fotonen op die frequentie.

Of heb ik het mis?
Zover ik weet induceert het snel op en neer bewegen van een voorwerp geen lading/stroom/veld, tenzij in specifieke omstandigheden (bv magneten vs paramagnetisch materiaal). Ik denk dat dat wellicht zo is omdat de electronen relatief (tov elkaar) weinig bewegen

In het geval van een antenne zet je een electrische (wisselspanning) lading op de antenne zodat een deel van de energie afgestraald wordt. Dat effect wordt groter bij hogere frequenties en is een volledig elektromagnetisch effect.

Erop doordenkend weet ik bijv niet wat er gebeurt op bijv de interface lucht/voorwerp. Ook twijfel ik omdat de benodigde energie om iets zo snel te schudden enorm moet zijn. Wat erin gaat, moet er ook weer uit, dus wordt het voorwerp misschien warm, zo warm dat het licht geeft. Om het voorwerp met 400THz 1pm op en neer te schudden zou de gemiddelde snelheid van het voorwerp 800m/s moeten zijn. Ik denk dat als er een voorwerp is waarmee we dit kunnen, er wellicht niks anders dan een plasma overblijft. Misschien dat het dan wel netjes licht geeft op 400THz :o
Zover ik weet induceert het snel op en neer bewegen van een voorwerp geen lading/stroom/veld,
Jawel, een magneet die je beweegt genereert een wisselspanning in een stuk draad. Dat is hoe een generator werkt. En volgens mij is een electron ook een klein magneetje.
In het geval van een antenne zet je een electrische (wisselspanning) lading op de antenne zodat een deel van de energie afgestraald wordt. Dat effect wordt groter bij hogere frequenties en is een volledig elektromagnetisch effect.
Ja, maar een ion is toch ook gewoon een lading?
Erop doordenkend weet ik bijv niet wat er gebeurt op bijv de interface lucht/voorwerp. Ook twijfel ik omdat de benodigde energie om iets zo snel te schudden enorm moet zijn.
Ja, nou niet practisch gaan doen he! :P
Natuurlijk zit je vast aan allerlei mechanische grenzen.
Om het voorwerp met 400THz 1pm op en neer te schudden zou de gemiddelde snelheid van het voorwerp 800m/s moeten zijn.
Dat hangt dek ik helemaal af van de amplitude.
Je zou moeten weten wat de minimale amplitude is om een foton te produceren die quantummechanica toelaat maar ik schat dat dat niet zo groot is. Daaruit kun je vervolgens opmaken welke snelheid het ion moet hebben om die 400THz te bereiken.
Ik denk dat als er een voorwerp is waarmee we dit kunnen, er wellicht niks anders dan een plasma overblijft.
De energie die je erin stopt hangt natuurlijk ook nog af van de massa van hetgeen je probeert te bewegen. Ik heb eigenlijk geen idee hoe dat zich tot elkaar verhoudt. :)
Maar als je alleen 1 type ion gebruikt dan kun je hoe dan ook geen plasma krijgen volgens mij.
even kort reageren toch:
- magneten zijn een zeer specifieke situatie die ik zelfs zelf had aangehaald als tegenvoorbeeld, met maganeten kan de beweging heel eenvoudig sterke ladingen maken.
-een ion heeft een lading, maar waar het om gaat is dat die lading moet verplaatsen binnen het materiaal om te kunnen spreken van elektromagnetisme
-de "mechanische grenzen" zijn wellicht waarom dit misschien wél zou kunnen lukken. Het is immers basale fysica dat de energie die we nodig zouden hebben enorm moet zijn en dat die behouden blijft (eerste wet van de thermodynamica) en dus wellicht afstraalt (als warmte, licht, X-rays... elektromagnetische straling)
-de arbitrair gekozen amplitude had ik genoemd: 1 pm (picometer)
-wellicht zijn er omstandigheden te kiezen waar dit wel werkt, door bijv specifieke materiaalkeuze, , maar dat was zover ik weet niet de
vraag.
-de tweede wet van Newton bepaalt F=M*a ofte de kracht is recht evenredig met de versnelling.

... maar dit is echt waaay OT en ik denk dat CERN ofzo het wellicht wel juist weet ;)
-een ion heeft een lading, maar waar het om gaat is dat die lading moet verplaatsen binnen het materiaal om te kunnen spreken van elektromagnetisme
Ja, en dus beweeg je de ion en wel heel snel. :)
-de "mechanische grenzen" zijn wellicht waarom dit misschien wél zou kunnen lukken. Het is immers basale fysica dat de energie die we nodig zouden hebben enorm moet zijn en dat die behouden blijft (eerste wet van de thermodynamica) en dus wellicht afstraalt (als warmte, licht, X-rays... elektromagnetische straling)
Hoezo is die benodigde energie enorm? Zo'n ion weegt niet zoveel, zeker als je een electron neemt.
-de arbitrair gekozen amplitude had ik genoemd: 1 pm (picometer)
Huh. sorry, overheen gelezen :)
-wellicht zijn er omstandigheden te kiezen waar dit wel werkt, door bijv specifieke materiaalkeuze, , maar dat was zover ik weet niet de
vraag.
Nou ja, dat mag denk ik best deel uitmaken van het antwoord.
-de tweede wet van Newton bepaalt F=M*a ofte de kracht is recht evenredig met de versnelling.
Ja, vandaar dat ik massa erbij heb gehaald.
Magoed, als je practisch gaat kijken dan moet je de eventuele bindingsenergieeen etc erbij halen.
Conclusie: We gaan het hier inderdaad niet oplossen. :)
Alleen moet je atoom wel 'snel genoeg ' trillen. Dan heb je ook nog eens te maken met het feit dat elke atoom weer een andere elektronen schil heeft. Want een foton is een elektron die naar een lagere energietoestand terugvalt en de vrijkomende energie uitzendt in de vorm van een foton. Doordat elke atoom dus een elektron op verschillende energieniveau's loslaat, moet je toch eerst aan de juiste energie voldoen en dan ook nog eens op de juiste frequentie trillen.

tl;dr je hebt deels gelijk, want je moet ook voldoende energie hebben. Oftewel genoeg energie en snelheid ;)
Ik denk niet dat we voorlopig bang hoeven te zijn dat onze tafels licht gaan geven als we ze maar snel genoeg doen laten trillen.

Ook al was dit mogelijk dan zou het nog niet betekenen dat ze licht gaven. Licht is nl. niet alleen een trilling maar ook een beweging (de foton/lichtgolf propageert immers) die ertoe leidt dat betreffende foton/lichtgolf op jou netvlies landt en daar zijn energie afschud en een puls genereert.

Tenzij je van plan bent om betreffende trillende tafel tegen iemands netvlies aan te smijten en (miraculeus) deze persoon zijn netvlies erin slaagt om dit om te zetten in een puls hoeven we niet bang te zijn voor lichtgevende objecten enkel omdat ze snel trillen.

Grappig is dan wel weer om te realiseren dat wanneer je een voorwerp (zoals een metalen bal) heet genoeg maakt hij wél licht gaat geven, omdat het materiaal zelf (de atomen) dusdanig hard trillen (warm zijn) dat ze licht genereren.
Off-topic (leuke illustratie van lichtgevende materialen d.m.v. verwarming):
https://www.youtube.com/watch?v=YgRXCrj2Nec
Daar kom je dus weer op het energieniveau ;) Metalen hebben een lagere hoeveelheid energie nodig voordat ze een elektron loslaten. Dit Is de reden waarom metalen goede geleiders zijn. Je kunt een tafel vast wel licht laten geven, alleen zal het hout wel eerder in fik gaan, maar ook dat is in feite licht alleen Is het proces iets anders :9
Theoretisch gezien geeft het al licht. Alle electromagnetische straling valt onder de categorie 'licht'.
De vraag is dus of het ook (voor ons) zichtbaar licht uitzendt.
Daar is het antwoord al op gegeven.
Als je tussen de 400 en 800 THz zit wel ja.
Moet je nog even geduld hebben. Pas in de zichtbare lichtfrequenties gebeurd dit(430–770 THz). Dat idee had ik ook al een paar jaar terug maar na 5 minuten onderzoek kwam al naar voren dat het nog niet kan.

[Reactie gewijzigd door Bonobo op 16 september 2015 16:55]

1THz = 1 000 000 000 000 hertz = 1012 hertz.
In de volgende afbeelding (klik hier) kan je zien dat 1012 hertz nog steeds minder energetisch is dan zichtbaar licht.
Hoe korter de golflengte ( dus hoe hoger de frequentie ) hoe meer energie de golf bevat.
In Nederland geldt een maximum van 100mWatt voor Wi-Fi routers. Dat betekent dat het signaal van 1 Thz-routers evenveel energie bevat dan het signaal van 2,4 GHz-routers.

In principe dringen de laagfrequente signalen zelfs beter door dingen als de menselijke huid dan hoogfrequente signalen, waardoor je zou kunnen redeneren dat, als er een invloed is bij dergelijk vermogen, de laagfrequente signalen potentieel schadelijker zijn.

Ik vind het goede ontwikkelingen, dit is onderzoek dat in de toekomst waarschijnlijk belangrijk zal blijken. Slechts 15 jaar geleden had de gemiddelde consument ook totaal geen behoefte aan verbindingen die sneller waren dan enkele Mbit/s, maar nu is het voor het grootste deel van de bevolking niet meer weg te denken! De technologie uit dit soort onderzoek is natuurlijk nog lang niet klaar voor grootschalige productie, waardoor het goed zou kunnen dat we dit pas over 10 jaar in de winkel zien liggen.

[Reactie gewijzigd door lexvanas op 16 september 2015 14:31]

Nee, nee. Dat is niet helemaal waar. Als je 5Ghz op kanaal 100+ hebt met DFS/TPC dan mag je op 1Watt uitzenden dacht ik (bron)

[Reactie gewijzigd door RobinF op 16 september 2015 14:36]

800Mhz, 2,4Ghz, 5Ghz, 60Ghz en nu 1Thz? Des te hoger de frequentie, des te gevaarlijker het signaal is toch?
Maak je borst maar nat.
Zichtbaar licht heeft een frequentiebereik van 430THz tot 770THz !!
Want hoe hoger de frequentie, des te sterker (meer energie) nodig is om het signaal ver uit te sturen.
Hmm, nee, geloof het niet hoor.
Het is alleen zo dat een hogere frequentie voor dezelfde amplitude meer energie bezit.
Maar gelukkig is dat al op die manier gebalanceerd in het universum.
Universeel geldt dat hogere frequenties ook kleinere amplitudes hebben.
Anders zou ons universum uit de hand lopen qua energie.
Maar dit is allemaal dus in vacuum.
Als je het hebt over een transmissie door een medium (bv lucht) dan kan je een filterwerking krijgen waardoor frequentiegebieden onderdrukt raken. Dan kan het inderdaad zo zijn dat je meer energie nodig hebt om iets op een hogere frequentie door een medium te krijgen. Maar andersom kan ook. Dat je dus minder nodig hebt omdat het medium vanaf een bepaalde frequentie juist transparant wordt.

[Reactie gewijzigd door koelpasta op 16 september 2015 15:11]

Ben ik de enigste die gewoon een grotere bereik wilt hebben?
Voor mij maakt het niet uit als ik 20Mbps of een 20Gbps draadloze verbinding heb.
Gaat je echt wel uitmaken over een tijdje wanneer je bijvoorbeeld 8k of hoger wilt streamen ;)
Want die richting gaan we namelijk wel op.
ik heb totaal geen behoefte aan hoger dan full hd. het ziet er al scherp uit.
640kb, meer zeg ik niet
Er is een verschil tussen 640kb en 8k televisie.

Er is geen limiet aan geheugen-gebruik. Geen limiet die wij nu al kunnen bedenken. 640KB of 16GB of 512TeraByte aan RAM. Ik geloof dat we dat allemaal op een dag wel vol krijgen.

Maar de resolutie van een beeldscherm heeft wel een praktische limiet. En dat is het menselijke oog. Als je resolutie blijft verhogen, dan kom je op een punt dat een normaal mens dat niet meer kan zien. Het verschil tussen 640x480 en 1080p is gigantisch. Dat weet iedereen nu wel. Het verschil tussen 1080p en 4k is ook te zien. Ik heb nog nooit 8k gezien, maar ik denk dat het verschil tussen 4k en 8k toch wel klein zal zijn. Zeker als je op een beeldscherm kijkt van bv 30" of kleiner. En op grote tv zit je toch meestal verder weg.

Zal een 16k resolutie nut hebben ? Zal het een zichtbare verbetering zijn ? Misschien. Maar 32k dan ? Ergens houdt het op. Ergens is de grens van het menselijk oog bereikt.

Vergelijk het met geluid. CD-kwaliteit is eigenlijk goed genoeg voor iedereen. Je hebt nu audio-formaten die meer data gebruiken, maar die zijn vrij zeldzaam. Al in de jaren tachtig hadden we de limiet van audio al bijna bereikt. De limiet van het menselijk oog gaan we ook zeker bereiken.
4K is juist NIET te zien op een TV kleiner dan 50+ inch op normale kijkafstand. Ik, met m'n 40 inch tv, snap dus nog niet helemaal waarom de ophef over 4K buiten toepassing in VR headsets.
Liever zie ik beter kleurbereik enz.
Op mijn tv een 47 inch zie nu de pixels van mijn scherm op een goede dag zonder hoofdpijn dus het heeft zeker nut.

Ikzelf denk dat voor een tv vanaf 40 inch het zeker nut heeft en vanaf een inch of 75 a 80 zal 8k ook nut hebben en voor 3D tv's van lg heeft een dubbele resolutie van wat je zien kan altijd nut.

Voor monitoren is het zelfs voor een 20 inch nuttig en is 8k al nuttig vanaf 28 inch alleen duurt het nog 10 jaar voordat we op zon scherm kunnen gamen omdat gpu ontwikkelingen zwaar achter liggen op het moment en 4k al niet eens kunnen renderen met 60 fps laat staan 8k wat gewoon 16x een 1080p beeld is.
Ik ben toch er benieuwd hoe de mensen hier op tweakers wonen. Ik zie steeds maar 80 85" voorbij vliegen. En 8K resoluties. Voor mijn 40" FHD tv was dacht ik 3,5 meter de ideale afstand om te zitten voor mijn tv. Dat kwam mooi uit met de plaatsing van mijn bank voor de tv. Dan zie ik hier 80 85" langs komen alsof het niks is. Als ik dat in mijn kamer hang, dan moet ik mijn bank 3 huizen verderop bij de buren tegen de muur aanzetten om de ideale afstand te hebben. hoe moet ik me dat voorstellen??
Het is maar wat je prettig vind en waar je aan gewend ben maar ik moet er niet meer aan denken om een 40 inch op 3,5 meter te hebben.
Ik zit nu helaas in een klein hok met een 47 inch FHD maar als ik soms bij anderen zit lijkt een 55 nog klein.

Ik wou een 55 of 60 inch of groter kopen maar 4k was nog niet uit voor betaalbare prijzen (waren nog 20 ruggen) en wist dat ik pixels ging zien dus heb k maar voor een max 47 inch gekozen.

Je moet er natuurlijk wel de ruimte aan de muur voor hebben. heb je een oud tv meubel is dat natuurlijk al geen optie meer.

Maar zelfs een scherm van 2 meter breed zou je snel aan wennen.
Als je naar de bios gaat wen je ook aan een scherm van 8 meter binnen 5 minuten toch :)
Klopt maar in de bios zit ik daar echt wel op een redelijke afstand. Heb een keer in Scheveningen in de grootste zal op de eerste rij gezeten en ben na 15 min de zaal uitgelopen. Niet te doen joh. Last van me nek en misselijk.
Ja vooraan zitten is niet prettig maar als je steeds de kijk afstand halveert en de sherm maar halveert zal je zien dat een 80 inch best wel te doen is mits je de ruimte heb.
Veel groter zou ik zelf ook niet willen tenzij je echt een grote kamer heb.
Onze woonkamer is ongeveer 10 meter bij 3 meter. Wij zitten dus ongeveer 2.5 meter van een 55 inch 4K TV vandaan. Toch vind ik het niet zo scherp als een 1440P smarthpone. Dus er is nog ruimte voor 8K.

Maar als het tussen een 4K OLED en 8K IPS paneel zou gaan voor het zelfde bedrag, zou ik voor de OLED gaan, want die heeft nagenoeg perfecte weergave.

Voor 16K zie ik nog ook een plek. LG is namelijk bezig met oprolbare TV's. Over 10 jaar moet je dus niet schrikken als je 100-150 inch TV"s voor een zachte prijsje kan kopen.
Wat is normale afstand? Ik zie nog altijd jaggies op zowel mijn Retina ipad display als op mijn 39" 1080 (in 3D games). Ik verwacht ook met 4k deze nog te zullen zien.

O.a. waarom we anti aliasing technieken hebben.
Uiteraard is er een fysieke limiet aan de benodigde pixel dichtheid. Echter kunnen schermen nog een stuk groter, ik noem maar een evenement met een 600 inch monitor.

Er zijn gigantisch veel redenen te verzinnen waarom meer draadloze bandbreedte van toegevoegde waarde is en zelfs voor een hogere resolutie valt het een en ander te zeggen, misschien niet meer in de woonkamer of op je laptop maar er zijn genoeg toepassingen te verzinnen waarbij 8k of scherper wenselijk is.

Daarnaast weten we niet welke toepassingen de toekomst brengt en dan willen we niet voor de zoveelste keer met achterhaalde en onnodig verouderde technieken zitten.

Als concreet voorbeeld kan ik me voorstellen dat VR veel beter kan worden als we hogere resoluties(zoals 4k/8k) gemakkelijker draadloos kunnen streamen.
Natuurlijk ben ik het met je eens dat er gigantisch veel redenen zijn te verzinnen waarom meer draadloze bandbreedte van toegevoegde waarde is. Net zoals meer CPU-power, hogere frequency, meer cores, hogere instructions-per-cycle ook altijd gebruikt zullen worden. En meer RAM. En meer bandbreedte in je netwerk. En lagere latency. Tuurlijk.

Maar ik had het hier specifiek over scherm resolutie. En die heeft denk ik toch een limiet. Inderdaad, als je een 600" schem maakt (da's 15 meter), dan is het onpraktisch/onbetaalbaar om te verwachten dat je op 1 meter afstand geen pixels ziet. Maar vanuit praktisch oogpunt komt er een punt dat we zeggen: zo is het wel mooi genoeg. Net als cd-quality audio ook wel mooi genoeg is.
VR zeker, en dan komen er ook nog technologieen aan die nog veel meer bandbreedte nodig hebben.

Holografisch, lightfield.. tegen de tijd dat dat uitontwikkeld is heeft iedereen hier al een 8k tv (en een 32k telefoon).
Het is wat mij betreft simpel. als op zeg 60 inch 8k beter is als 4k (zichtbaar dus)
Dan heeft 16k ook nog nut.

Het dubbele van wat je ook kan waarnemen heeft nog zin en wel om 1 reden: passieve 3D tv zoals dat van LG.
Het probleem daarmee is namelijk dat je 50% van de beeld lijnen weghaalt en dus nu op mijn 1080p tv zie ik in feite 720p beeld maar dan haarscherp en dus zie ik deze lijnen.

Wat mij betreft is deze 3d techniek superieur aan actieve 3D maar het is simpelweg niet kijkbaar op mijn 47 inch 1080p scherm omdat de pixels te groot zijn.
Op 4k schermen zou ik dus eigenlijk 1080p zien en op een 8k pas een 4k beeld.
Dus wat mij betreft is 8k compleet nutteloos voor gewone non 3D omdat je dat gewoon niet gaan zien tenzij je misschien boeven de 80 inch uit komt maar een aanvulling op een 3D tv.
3D tv/monitors zijn dood.
Marketing hype, en daar is het bij gebleven.
Je hoort helemaal niemand meer over 3D.
Onzin het heeft wel degelijk wat toe te voegen en er zijn meer films in 3d dan ooit. en het kijkt zelfs zeer prettig bij veel films en voegt wat toe.
Echter moet je dan wel goede 3D films hebben en niet geremasterde oude meuk al is het dan zelfs een toevoeging.
Zelfs de 2d naar 3d conversie werkt voor hoge kwaliteit beelden erg goed al geeft het niet zoveel diepte maar het is wel zichtbaar en geeft wat diepte aan personen en objecten waardoor het minder flat is.
Het is dat ik niet de hele dat met een bril achter de tv wil zitten maar maakt vaak het beeld beter op de gehalveerde resolutie na dan wat met 4k weer op te lossen is.


Iedereen die 3D niets vind toevoegen heeft of nooit goede films gekeken of heeft een oogafwijking waardoor ze het niet kunnen zien of ze zijn geestelijk blind en willen het niet zien.
Ik vind 3D prachtig om te zien. In de bioscoop. Thuis vind ik het tragisch.
Dan heb je of betere content of een betere 3D tv nodig :) het is namelijk niets anders dan in de bios tenzij je natuurlijk een 3 inch tv heb waar dit gewoon niet voor bedoeld is.
50 inch is toch wel het minimale voor de standaard huiskamer en meer als je verder weg zit.
Op 50 inch heb ik het niet gezien, 46 inch plasma FHD was het grootste, 40 LED FHD de kleinste, maar dan nog vond ik het niets. Heel wat met de instellingen geklooid, maar het beeld kwam niet echt uit de tv.
Dat probleem licht vaak aan de source en niet aan de tv en 3d functionaliteit.

Toen ik mijn lg net gekocht had zat er nog een demo app in daar zaten goede 3d filmpjes in.
1 met een west en een tak die uit stak heeft me een bult op mijn hoofd gekost omdat ik uit reflex opzij ging met mn kop tegen de muur.

De potentie is er maar het de films moeten er wel voor gemaakt worden.
De scene in avatar met die zwevende kwallen om het maar zo te noemen is een mooi voorbeeld van hoe het wel moet.
Die springen er echt uit.
En welk limiet is dat dan?(ieder oog is immers anders). En komen we daar later ook niet op terug net zoals het hz verhaal van vroeger?
Zie hier een rijtje eigenschappen van het menselijk oog:
https://en.wikipedia.org/wiki/Naked_eye#Basic_accuracies
En welk limiet is dat dan?(ieder oog is immers anders).
De scherpte van het menselijk oog is blijkbaar 1 arc-minuut. De precieze resolutie verschilt dus afhankelijk van de afstand tot het scherm en de grootte van het scherm. Maar dat wisten we al. Hoe veel 1 arc-minuut is op een scherm van 40" op 50 cm van je gezicht, dat mag je zelf uitrekenen. Maar het lijkt er op dat er zeker een limiet is.
En komen we daar later ook niet op terug net zoals het hz verhaal van vroeger?
Bedoel je het verhaal dat het menselijk oog niet meer dan 30Hz kan zien ? Dat was al onzin op de dag dat iemand die onzin rondspuitte. Console-propaganda misschien ? Ik wist in ieder geval al dat ik het verschil wel merkte van 60Hz naar 85Hz op mijn oude CRT. Bovendien gaat het niet alleen om stabiele refresh-rate en fps, maar in het bijzonder als de fps fluctueert.
Nee de reden dat er vroeger gemeld werd dat het menselijk oog niet meer als 30hz kon zien kwam omdat ze het jaren geleden verkeerd meten. Dus bestaat de kans dat we er nu ook naast kunnen zitten. Het is immers niet de eerste keer dat wetenschappers er naast blijkt te zitten.
Ook al zou je 30hz kunnen zien, kun je nog steeds een zwart scherm zien tussen de beelden door, dit wel afhankelijk van het soort scherm dat je gebruikt. Ook denk ik dat een hogere pixeldichtheid er voor zorgt dat het beeld realistischer wordt.
Bewust kun je dan misschien geen verbetering merken maar onbewust wel en kost het misschien wat minder energie om op een computer te werken of een film te kijken.
Maar je vergeet dat 8K wellicht toepassingen mogelijk maakt die we nu nog niet hebben of nog niet eens bedacht hebben. Iedereen pakt het 50-jarige TV scenario en het bankstel erbij, en zegt dat het niet nodig is.

Zo kan 8K bij VR wel betekenisvol zijn. En wat dacht je van een projectie op een gigantische muur? Voetbal kijken en de grassprieten kunnen tellen? Of lifesize video conferencing naar de andere kant van de wereld? Of een mega projectie met daarop 12 picture in picture frames, ieder in minimaal full HD.
Die 640k vergelijking vind ik niet opgaan.
Met meer geheugen kun je ook werkelijk meer/andere dingen doen.
Met meer pixels kun je eigenlijk alleen maar hetzelfde doen, maar dan op hogere resolutie.
Meer geheugen heeft dus ontzettend veel meer toepassing dan meer pixels.
Maar goed, ergens zit daar wel weer een grens aan.
Voor veruit de meeste toepassingen is een moderne computer ruim genoeg.
En dan gaat deze vlieger wel weer op.
Want voor een gemiddelde consument is 32Gbyte geheugen overkill, net als 8k waarschijnlijk overkill is voor de meeste mensen.

Mischien dat het echt nut gaat krijgen als we hires HMDs krijgen ofzo.
Ik vind 'm wel opgaan in deze context.

@Johan9711 zegt dat 'ie aan HD genoeg heeft. Volgens de geruchten zou Bill Gates iets over 640KB geroepen hebben en dat niemand meer nodig zou hebben.

Inmiddels is wel gebleken dat mensen aan 1024*768 niet genoeg hebben, het moet HD, 4K of zelfs 8K worden. Die 640KB heeft plaats gemaakt voor 8, 16 of soms zelfs 32GB aan RAM in een computer. (al dan niet nodig)

Dus ja, er is gelukkig evolutie waarbij je altijd kunt afvragen of jij het wel nodig hebt. Het punt is dat je het in je eentje niet tegen kunt houden wanneer de meerderheid er aan deelneemt. Dit gaat misschien ook voor de THz frequenties gelden. Wanneer daar toepassingen voor zijn die werken en net zo gevaarlijk zijn als andere frequenties dan heb je in je eentje weinig in te brengen.

Alles wordt meer, minder, sterker, zwakker, kleiner, groter, beter, sneller, langzamer, korter en langer. Of je nu wilt of niet. Dit wordt in de volksmond "vooruitgang" genoemd.
Volgens de geruchten zou Bill Gates iets over 640KB geroepen hebben en dat niemand meer nodig zou hebben.
Schijnt helemaal niet waar te zijn, magoed, ik heb um ook gehoord.
Inmiddels is wel gebleken dat mensen aan 1024*768 niet genoeg hebben, het moet HD, 4K of zelfs 8K worden. Die 640KB heeft plaats gemaakt voor 8, 16 of soms zelfs 32GB aan RAM in een computer. (al dan niet nodig)
Wat ik probeerde uit te leggen is dat die 640kB op zich weinig is voor huis tuin en keukendingen, zeker als je een leuke interface wilt.
Er is dus een goede reden om meer dan die 640k te willen. Ook in de jaren 80. Toen al was dat namelijk best wel krap.
(32GB tegenwoordig is dan weer ernstige overkill voor de meeste mensen.)
Dat kan je denk ik dus niet vergelijken met van 4k naar 8k gaan. Daarvan heb je veel minder profijt dan van upgraden van 640k naar bijvoorbeeld 2MB.

Als je een vergelijking met geheugen wilt maken dan wordt het zoiets als van 16GB naar 32GB. De meeste mensen zullen daar nooit profijt van gaan hebben simpelweg omdat de meeste taken die wij met computers doen helemaal niet zoveel geheugen nodig hebben.
En zo twijfel ik ook ernstig aan het algemene nut van 8k schermen.
Of erger nog, 192kHz geluid.
Ik zie echter wel markt voor 4K en groter. Ik heb nu een 4K monitor en ik zou best meer willen als het betaalbaar zou zijn. 5K 27" - zoals de iMac 5K - is dan ook zeker wel welkom. Losse 5K monitoren bestaan ook, alleen technisch gezien zeer beperkt ondersteund en vrij duur.

Er komt wel een praktische grens, en die grens is naar mijn idee zo'n 300dpi, ongeacht het scherm-formaat. Qua scherm-formaat verwacht ik niet dat we ver boven de 80" zullen komen.

300dpi op 80" is een hoop pixels.

[Reactie gewijzigd door Gamebuster op 16 september 2015 14:18]

Er komt wel een praktische grens, en die grens is naar mijn idee zo'n 300dpi,
DPI is in dit geval een onzinwaarde als je niet ook de kijkafstand in acht neemt.
300DPI op 10cm afstand is een stuk lagere resolutie dan 300DPI op 5m afstand.
Je moet de resolutie van je oog (want dat is uiteindelijk de beperkende factor) eigenlijk uitdrukken in booggraden.
Ik ben het helemaal met je eens, maar wat dacht je van situaties waarbij je wel van heel dichtbij wil kijken? Zonder vergrootglas kan je rond de 300dpi geen individuele pixels bekijken :)
Nou ja, dat hangt dus af van de afstand waarop je het bekijkt.
Als je van 20cm afstand kijkt dan is 300DPI waarschijnlijk al overkill.
En op een paar meter afstand is 20DPI waarschijnlijk al teveel.
4k materiaal op netflix is 25 megabit/s.

https://help.netflix.com/en/node/306

Als we dat vermenigvuldigen met 4 (2x breedte, 2x hoogte, worst case scenario) dan hebben we het over hooguit 100megabit/s voor 8k materiaal.

Lijkt me zelfs geen probleem voor mijn vijf jaar oude laptop met "300mbps wifi kaart". Sterker nog, de GPU van die laptop zal 4k niet eens trekken.

Wifi netwerksnelheid is absoluut geen bottleneck.
onder de meest optimale omstandigheden zal die inderdaal 300mbps aankunnen... denk dat je zelf max ond de 100-144mbps zit.. kan je beter voor wifi AC gaan en meer kans hebben op betere mbps
En dan 8k kijken op een vijf jaar oude laptop met 1366x768 scherm? Die niet eens 4k kan renderen @ 30fps.
Mijn punt is dat netwerkspeed geen bottleneck is. Aub goed lezen.
kan hem altijd nog aansluiten op een TV ;-) zelfs de oudere standaard van HDMI kan dat nog wel 30fps....


En in je post waar ik op reply zeg je niets over screen reso... ;-)

[Reactie gewijzigd door Dutch2007 op 16 september 2015 17:57]

Geen enkel HDMI standaard kan 'een' 8K resolutie tonen, vijf jaar geleden.
Mijn nieuwe laptop/ultrabook (Samsung np900x4d) kan 2560x1600 o.i.d niet eens uitsturen over hdmi @ 60fps :)
Gaat je echt wel uitmaken over een tijdje wanneer je bijvoorbeeld 8k of hoger wilt streamen
8k@30Hz uncompressed heeft dan wel slechts een bandbreedte van 26Gbit.
Met een THz verbinding kun je daar dus theoretisch zo'n 40 8k streams transporteren.
Met compressie wordt dat nog veel meer.

[Reactie gewijzigd door koelpasta op 16 september 2015 14:47]

Terahertz != Terabit
Er is nog helemaal niets gezegd over doorvoersnelheden, enkel over frequenties, dus je statement hier klopt niet helemaal.
Je hebt gelijk. Terahertz is natuurlijk alleen de draagfrequentie.
Maar goed, de maximale modulatiebandbreedte zal wel in dezelfde orde van grootte liggen.
Op basis van die logica zou WiFi ook meerdere (2.4, danwel 5) Gbps aan bandbreedte moeten hebben en 4G ook zo rond de gigabit. De frequentie zegt verder niets over de beschikbare bandbreedte (tenminste niet als op zich staand gegeven).
Als ik video wil streamen, sluit ik wel een netwerkkabeltje aan. Op draadloos ga ik alleen beetje internetten.
Popcorn gebruik je weleens?

Mijn pc zit we op het netwerk aangesloten, en mijn tv zit ook op het netwerk aangesloten.
Maar dat betekend niet dat ik het moet streamen.

Wat jij bedoeld is denk je HDMI kabel vanuit je pc aansluiten op je televisie.

Daarnaast buiten het feit dat je snelheid van je verbinding super hoog moet zitten.
Moet je hardware dit ook goed kunnen verwerken om het uit te zenden. Dus dan is hoe meer snellere data verwerkt wordt over het netwerk des te beter de beeld/geluidskwaliteit.
Nee, hij bedoelt een netwerkkabel. Die hebben over het algemeen een hogere doorvoer en zijn minder storingsgevoelig.

Edit: Dan wifi, voor de duidelijkheid

[Reactie gewijzigd door Patriot op 16 september 2015 15:48]

Jij wel. Maar een hoop ook niet. En ik zou het wel fijn vinden als alles binnen mijn huis draadloos kan aansluiten en alleen 1 draad naar boven. Voor de AP. En dan allrs draadloos.

Maar niet getreurd ze zullen aan beide werken om dan op die manier sneller stabieler en beter bereik wifi te ontwikkelen. Maar als we moeten gaan onderzoeken op het moment dat mensen het wensen zijn we te laat.(kijk naar 4k blu-ray standaard). Genoeg mensen hebben een 4k tv. En content komt langzaam op gaan. Maar een standaard is er nog niet...
Deed ik eerst ook totdat ik een degelijk wifi netwerk kreeg, 25MByte/s met gemak te halen hier dus waarom nog een kabel aansluiten? :)
Zodra je er aan went dat je niet elke keer een kabel moet trekken maar je gewoon je laptop open klapt en aan de slag kan wil je niet meer zonder ;)
Voor een draadloze UHD-videoverbinding ga je aan 20Mbps bij lange na niet voldoende hebben.

En er staan nog wat technologische ontwikkelingen, zoals zelfrijdende auto's, voor de deur die flinke bandbreedte gaan vereisen willen ze optimaal functioneren.
Leuk een zelfrijdende auto met een actie radius van 20m. :+
Het gaat toch niet over de snelheid maar over de uitzendfrequentie?
het is de vraag wat mensen liever hebben. een hogere bandbreedte/snelheid of meer bereik. in principe geld de regel: hoe hoger de frequentie, des te lager is het bereik.
in principe geld de regel: hoe hoger de frequentie, des te lager is het bereik.
Dus blauw licht reikt minder ver dan rood licht?...
Volgens mij kan je dat dus niet zomaar stellen. Hangt allemaal af van de transmissiviteit van het medium.
Ja.
Daarom zijn de zonsopgang en zonsondergang rood. (Als het licht door kilometers meer lucht moet)
Onzin. De zon is rood en de lucht is blauw door Rayleygh Scattering.
Het is ook de reden waarom de hemel blauw is.
Hmm ik reageer op
Dus blauw licht reikt minder ver dan rood licht?...
en zeg
Ja.
Daarom zijn de zonsopgang en zonsondergang rood. (Als het licht door kilometers meer lucht moet)
en dan kom jij met de wetenschappelijke term Rayleygh Scattering dat ook uitlegt dat langere golflengten licht (rood) verder komen in lucht dan korte (blauw)..
Zie ook je eigen link:
The reddening of sunlight is intensified when the sun is near the horizon, because the density of air and particles near the earth's surface through which sunlight must pass is significantly greater than when the sun is high in the sky. The Rayleigh scattering effect is thus increased, removing virtually all blue light from the direct path to the observer. The remaining unscattered light is mostly of a longer wavelength, and therefore appears to be orange.
Heel mooi... Alleen erg jammer van het eerste woordje
Onzin
Waar heb je last van?

[Reactie gewijzigd door Jaco69 op 17 september 2015 20:20]

Ja, maar daarmee reikt het niet verder (en daarmee bedoel ik dat het in energie afneemt), het wordt gewoon een andere kant op gebogen.
Vandaar, onzin. :)
Hmm.
Ja, maar daarmee reikt het niet verder (en daarmee bedoel ik dat het in energie afneemt), het wordt gewoon een andere kant op gebogen.
Vandaar, onzin. :)
Het blauwe licht wordt meer verstrooit dus reikt minder ver. Het neemt ook echt in energie af over een afstand (en dat zie je).

En ja energie gaat nooit verloren dus die weerkaatste energie zie je dan weer in kleur van de lucht overdag. Dat was een mooie toevoeging van je. Jammer van al die onzin.
Dit is alleen van toepassing als er 'iets' is dat het 'transport' kan verstoren, bijvoorbeeld een vast medium (glasvezelkabel), de lucht of jouw lichaam.
Alles wat onderweg tegengekomen wordt kan zorgen voor verstrooiing, absorptie en/of afbuiging, waardoor verschillende golflengten zich dus inderdaad verschillend gedragen.
(En dus rood en blauw licht zich inderdaad anders kunnen gedragen)
Het is niet zo belangrijk wat mensen (consumenten) willen mbt wetenschappelijk onderzoek.

Mensen weten gewoon te weinig om een goed oordeel te kunnen vellen of onderzoek nuttig is of niet en zullen het daardoor op hun eigen situatie betrekken.

Zo wil de een beter bereik van z'n router op zolder terwijl de ander lage latency en hoge bandbreedte wil hebben voor draadloos VR.
Beide hebben echter niks te maken met wat voor onderzoek een universiteit in de US aan het doen is, dus hun mening is irrelevant.
aangezien het artikel duidelijk linkt met WiFi/WiGig ga ik er vanuit dat dat het doel van dit onderzoek is.
Dit hoeft dus niet alleen draadloos te zijn heh.
Ga je met zulke hoge frequenties geen problemen krijgen met bereik?
Niet als je met meer vermogen uitzendt. (hier) vind je het maximale vermogen e.d.

[Reactie gewijzigd door RobinF op 16 september 2015 14:36]

Kan het niet zo zijn dat je signaal tegengehouden wordt door een muur netzo als dat met licht gebeurt? Je zit met zulke frequenties aardig dicht in de buurt van licht tenslotte.
Ja je zal dan bijna line of sight nodig hebben.
Een kleiner bereik kan (zeker in dichtbevolkte gebieden) juist een voordeel zijn. Waar je nu last hebt van het wifinetwerk van al je buren, zou je daar met een techniek die een kleiner bereik heeft minder last van hebben (zoals nu al het verschil tussen 2.4GHz en 5GHz).

Je zal dan misschien wel op elke verdieping in je huis een accesspoint nodig hebben, maar daar valt mee te leven.
Als je dan toch al die access points gaat aansluiten, maak dan gelijk wat UTP wall sockets aangezien je toch al kabels aan het trekken bent. Zo'n kabeltje heeft 0,0 interferentie met de buren en een fors hogere doorvoersnelheid dan WiFi, en de snelheid neemt nagenoeg niet af met afstand, zolang het <100M. Win-win, zou ik zeggen :Y)
Uhh, in EHF (300-3000 GHz) is het al éxtreem moeilijk om vermogen te genereren. Je moet apparaten hebben die héél snel kunnen osscileren, en die 10 Watt oid kunnen oscilleren. Dat is heel moeilijk. Op het bovenste deel van 5 GHz (zendamateurband die vaak voor ATV http://nl.wikipedia.org/wiki/ATV wordt gebruikt) kan je gewoon (in een perfecte situatie met een platte aarde, geen atmosferische demping) niet verder dan 50 km komen. Door de atmosferische demping zal het zéér moeilijk worden om een extreem slap signaaltje te decoderen. Er zijn genoeg zendamateurbanden in EHF, die worden niet gebruikt, het Agentschap Telecom heeft geen mogelijkheid om die te monitoren dus dat zegt genoeg. Let wel dat alleen het laagste gedeelte van EHF al 300000000000 oscillaties per sceonden is. 1 EHZ (dit heeft geen benaming zoals VHF, UHF, HF et cetera) is 1000000000000000000 oscillaties per seconden.

Sorry, maar natuurkunde houdt dit projectje tegen.
Bereik: 5 centimeter :+
Een lamp in je kamer heeft wel iets meer bereik (behalve als er wat voor staat natuurlijk)
Er vanuit gaande dat de frequentie in de buurt van licht komt

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True