Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties
Bron: Chicago Tribune

Deloitte stelt dat het internet door de populariteit van video zijn capaciteitsgrenzen versneld nadert, en dat wellicht reeds dit jaar een punt wordt bereikt waarop de vraag de beschikbare bandbreedte overstijgt.

Filmstrip Volgens Deloitte is de groei van videochatverkeer illustratief, en gaat dit bij sommige providers het voiceverkeer al voorbij. 'Dat neemt tienmaal zoveel bandbreedte in beslag, wat duidelijk maakt dat de capaciteit in het geding komt', aldus een rapport van het consultancybedrijf. Cto Pieter Poll van Qwest verwacht evenwel dit jaar nog geen problemen maar wijst erop dat het internetverkeer sneller groeit dan de rekenkracht in de datacentra, en voorziet dat we de komende jaren in de buurt van een 'fundamentele muur' komen. De Amerikaanse belangenbehartiger van de telecomindustrie US Telecom waarschuwt dat voorgestelde wetgeving om 'net neutrality' te garanderen - de eis dat providers alle content op het web gelijkwaardig behandelen - de mogelijkheid tot flexibiliteit wegneemt bij providers en het uiterst lastig maakt om eventuele capaciteitsproblemen op te lossen.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (106)

2007 may be the year of the tipping point where growth in capacity cannot cope with use
Klink misschien als een heel erg simpele oplossing, maar kan er dan niet gewoon 10 keer zoveel capaciteit bij?
Extra netwerkcapaciteit creeren is niet zo eenvoudig als het klinkt.

Kabels door de grond trekken en over oceaanbodems leggen, routers bijplaatsen, etc, dat heeft allemaal zijn tijd nodig, en tegen die tijd is de behoefte alweer gegroeid. Dus met alleen meer fysiek volume ben je er niet.

Andere mogelijkheid is innovatie en nieuwe technologieen gebruiken, maar meestal is er wel wat tijd tussen het lab en de realiteit, en niet ieder jaar worden er vindingen gedaan waarmee netwerkcapaciteit vertienvoudigt.

Wel grappig dat men jaren geleden de verglazing van netwerken een tijdje heeft stilgelegd, omdat men zoveel overcapaciteit al had en dat het allemaal voorlopig nog niet nodig zou zijn.
De huidige apparatuur is waarschijnlijk al afgeschreven. Aangezien er vooral glas ligt zal een upgrade naar hogere snelheid (nieuwe apparatuur voor de oude prijs met hogere snelheid) geen probleem zijn.

Misschien is dit wel een publiciteitsstunt om de prijzen te verhogen?
kabels is echt geen probleem. Tijdens de hype hebben ze zoveel glas in de grond gestopt dat ze daar wel ff verder mee kunnen. Je kan ook eenvoudig op een glasvezel meer kleuren zetten en dan heb je zo extra capaciteit. Alleen de apparatuur is een stuk duurder die moet wel aangeschaft worden.
nou de apparatuur is zo duur nog niet, tegenwoordig is de apparatuur van koper duurder dan die van glas,
Ik denk dat het fenomeen PROXYSERVER weer eens van de zolder gehaald moet worden. Internetproviders kunnen dan zelf zorgen dat voor een lagere datastroom van buiten hun netwerk. Juist sites als youtube en googlevideo. Maar ook IPTV en video on demand kunnen prima via een proxyserver.
Ik denk dat het fenomeen PROXYSERVER weer eens van de zolder gehaald moet worden.
Ik denk juist dat fenomenen als de AMS-IX meer zullen opleveren. Als daar de grote videocontent providers aanwezig zijn, en lokaal peeren met de ISP's, dan breng je in elk geval de hoeveelheid traffic op de transit verbindingen terug naar belasting op de poorten van de AMS-IX (wat vele malen goedkoper is dan een transit uplink) en op de eigen netwerk links van de content providers.
ik denk dat een proxyserver voor een videochat!!! weingi zin heeft. Als ik met iemand aan het chatten ben wil ik niet het gecachde antwoord zien maar het echte antwoord :P
Een normale proxy werkt niet goed voor streaming video. Je kunt een normale download wel in een proxy cachen, maar streaming heeft ook nog een command protocol nodig voor onder andere het scrubben (rtsp). Dat betekend dat je ipv normale proxies dus ook geproxiede versies van mediaservers moet gaan plaatsen. Dat zal een zeer dure oplossing worden zowel qua hardware als in sommige gevallen ook de software.
@mxcreep: Juist, dus een proxy (ik noem het liever een cache) is niet een juiste oplossing voor dit soort problemen. Ik zie dan liever dat diegenen die de content aanbieden - YouTube bijvoorbeeld - meer mirrors van hun servers aanbieden, zodat mensen die content vragen uit Nederland die inderdaad ook uit Nederland krijgen, en de lijn tussen de VS en Europa niet hoeven te gebruiken.

Had Google niet het grootste deel van een nieuw datacentrum in Groningen gekocht? Als ze daar Google Video op zetten, is in ieder geval een deel opgelost.

Maar ik denk eerlijk gezegd niet dat dit probleem alleen van toepassing is op de lijn tussen de VS en Europa, maar op het gehele internet.
Youtube werkt gewoon met HTTP, en niet een of ander streaming protocol, dus een proxy zou in dat geval goed helpen.
Volgens mij is de basis van dit probleem juist die geweldige marktwerking/concurrentie waar iedereen het altijd over heeft. Om de kosten te drukken en zo de prijzen omlaag te krijgen is er al jaren niet meer fatsoenlijk geinvesteerd in het netwerk. Gevolg: capaciteitsproblemen, bottlenecks, en haast erger gezien de architectuur van het Internet: single-points-of-failure omdat redundantie is wegbespaard.

Niet dat ik wil beweren dat als alles zou liggen bij één staatsmonopolist niet hetzelfde was gebeurd, maar toch...
Ja capaciteit kan er altijd bij maar die discussie is er een paar maanden geleden al geweest. Investeringen moeten ergens van betaald worden en zeg dat youtube met haar video's nu zo veel dataverkeer genereert kan het zijn dat is'p's daar geld voor willen zien.

Daar gaat de discussie nu om of isp's dan gaan doen of niet.

Het grappige is nu dat sommige mensen het idee hebben bij internet dat alles gratis is maar nee de infrastructuur is niet gratis en nu ze tegen een maximum dreigt aan te lopen wordt dat ook duidelijk.

Provicers kunnen ook hun prijzen verhogen en laat de consument maar betalen voor het meer aan bandbreedte of ze vragen sites die veel data genereren zoals youtube mee te betalen.
Als de consument nu moet kiezen uit eigen zak of bijv youtube dan weet ik het antwoord al.
en wie betaalt dat dan? precies.
Als het nodig is lijkt het me logisch dat we daar meer voor gaan betalen. Je kan niet verwachten van de ISPs dat ze grote investeringen gaan doen zonder dat ze daar iets van terugzien.

Misschien is het verboden woord 'datalimiet' zo'n slecht idee nog niet. Een abonnement wordt nu duurder als je meer bandbreedte wilt, maar als we de snelheden nou eens gelijk maken voor alle abonnementen en alleen maar naar de datalimiet gaan kijken.

100Mbit SDSL voor iedereen! 10 GB limiet voor maar ¤9,95 p/m! :7 Doe mij maar een 1TB voor ¤60 p/m! 8-)
Blijft toch het punt dat als iedereen besluit zijn 100Mbit vol te belasten op hetzelfde moment, dat het glasvezel lijntje naar het distributiepunt in de wijk overbelast raakt. Stel 1000 mensen in een wijk willen die 100 Mbit tegelijkertijd halen, dan zou je dus een 100Gbit lijntje naar een wijkkast moeten hebben. Met 1000 van dit soort 'wijken' heb je totaal 100Tbit aan backbone nodig, waar de AMS-IX nu slechts 233 Gbit bandbreedte haalt volgens nieuws: Amsterdams internetknooppunt groeit rap verder en andere knooppunten nog veel minder. Daar 'even' een factor 10 of 100 bovenop zetten is makkelijker gezegd dan gedaan.
Ik denk dat er meer met bijvoorbeeld peer to peer video, proxies of multicasting gewerkt moet worden om de netwerkbelasting te verminderen. Volgens mij komt de grootste netwerkbelasting door 'enkele' files die iedereen wil zien, in plaats van dat iedereen verschillende zaken wil bekijken op individuele basis. Net zoals 100 TV kanalen prima volstaan voor 16 miljoen mensen. Daar moet nog meer gebruik van gemaakt worden.
Blijft toch het punt dat als iedereen besluit zijn 100Mbit vol te belasten op hetzelfde moment, dat het glasvezel lijntje naar het distributiepunt in de wijk overbelast raakt.
Thuis zit ik op 100 Mbps via de universteit, net als enkele duizenden andere studentenwoningen. Het netwerk is via 2Gbps verbonden met Surfnet en die lijn wordt nooit volgetrokken. In de praktijk is het voltrekken van de eigen lijn zo verspreid over de tijd dat het per saldo weinig invloed heeft op de backbone. De hoge snelheid zorgt er bovendien voor dat iedere gebruiker de backbone maar kort benut waardoor de kans op gelijktijdig gebruik erg klein is. De piekbelasting van de backbone is iedere dag op ongeveer hetzelfde moment en dat is hooguit de helft van de totale capaciteit. En geloof me, er wordt véél, héél veel gedownload ;). Het loont overigens wel om vooral binnen het netwerk te downloaden maar ik betwijfel zeer of de gemiddelde downloader daar net zo goed op let als ik.
@agentsmith
Downloaden al die studenten via bittorrent of andere protocollen die deels weer lokaal draaien? Ik verwacht dat namelijk wel. Als jullie met zijn allen naar verschillende YouTube of GoogleVideo streams gaan kijken is de pret snel uit met 2Gbit verwacht ik... en als iedereen naar een andere IPTV provider zou gaan zal het op doordeweekse avonden al helemaal niet meer te harden zijn denk ik zo, dan download je niet een bestand waarbij een pakketje best een paar seconden vertraging mag hebben, maar heb je continu 4-8Mbit nodig, dat is een groot verschil. Dergelijke snelheden haal je eigenlijk nooit continu met downloads, tenminste ik zie ze erg weinig ;)
meedere tv schermen zou hem natuurlijk helpen om meerdere films te bekijken.

:)
als iedereen besluit zijn 100Mbit vol te belasten op hetzelfde moment
De telefooninfrastructuur is er ook niet op berekend dat iedereen tegelijk belt. Het is er op gemaakt dat het de topdrukte zoals die in de praktijk voorkomt aan kan. Bij datalimieten ligt dat iets anders, ik kan me voorstellen dat iedereen aan het begin van de maand of juist aan het einde van de maand als een malle gaat downloaden. De oplossing lijkt me simpel, de maanden moeten niet voor iedereen op hetzelfde moment beginnen (bijv. mijn abbo loopt van 28-28, die van m'n buren van 10-10).
Dan bouw je je dataverkeer op uit verschillende stromen, zoals bijvoorbeeld nieuwsservers of speedboosters van download programma's het doen.

Zo kan je uit verschillende locaties de data trekken, eventueel zelfs een deel p2p en een deel gecentraliseerd, als we toch 100mbit sdsl gaan lopen uitdelen.
Er is maar 1 soort gebruiker die stelselmatig een 100Mbit-verbinding gevuld weet te houden, en da's de usenetter. Als ik een slechte maand heb doe ik 2 tot 4 gigabyte, een beetje tweaknews-abonnee is goed voor 148Gbyte per dag. Van de andere kant blijft voor het merendeel het verkeer binnen het netwerk van de ISP, en dit gaat over verkeer tussen ISP's onderling. En 4Mbit/s voor een videostreampje tikt dan aan.
Daarom doe je dat 's nachts, klagen er minder mensen :)
In jouw tijdzone klagen er minder mensen bedoel je, in andere tijdzones (GMT-12 en GTM+12) neemt het verkeer nog eens extra toe als jij 's nachts gaat downloaden.

Meeste mensen downloaden toch via P2P programma's en dat verkeer beperkt zich niet tot 1 ISP.
een beetje tweaknews-abonnee is goed voor 148Gbyte per dag
... en loopt 3 keer per week naar de hardware PC-boer op de hoek voor weer ¤100 aan nieuwe harddisken?

Als je dat geld kan missen, moet je ook niet piepen over een hogere prijs voor een 'unlimited account'.

Wat doe je anders met 148GByte per dag? Al die filmpjes kijken?! 1 DVD = 5 GB, dus 150 Gb = 30 DVD's = 60 uur film per dag? Hmmm.....
@BartS12:
Een beetje HiDef film is zo 20GB (heb zelf uitschieters tot 36GB/film op m'n schijf staan).
Is nog steeds een hoop films per dag, maar het gaat erom dat bestanden gewoon steeds groter worden, en 5GB voor een filmpje is echt de norm niet meer geloof ik..
@mathijs: ach, ik ging in 1996 al weg bij Demon uit onvrede over hun newsdienst :P
Beetje late reactie (zat even mijn geplaatste post te bekijken), maar al die studenten downloaden met DC++ en die data blijft dus gewoon op het SurfNET netwerk.

Ook zijn er veel grote studentenflats (ik ken er een paar in Delft) die eigen servers in de flat hebben staan met een shitload (populaire-)files.

Ik zat ( ;( ) ook op het SurfNET netwerk, maar ik moest helaas verhuizen naar een huis waar geen SurfNET/Lijbrand internet geleverd kan worden.
Wat doe je anders met 148GByte per dag? Al die filmpjes kijken?! 1 DVD = 5 GB, dus 150 Gb = 30 DVD's = 60 uur film per dag? Hmmm.....
Daarom heb ik ook een hekel aan dat soort lui, ik heb al eerder een prima newsservice zien veranderen in een afgekenepen verbinding bij Demon door toedoen van dit soort asocialen.

Een veel gebruikt argument is dan 'waarom heb ik anders een snelle verbinding?'

Ik heb zelf een snelle verbinding zodat wanneer ik iets wil, het ook snel komt. Maar door dat soort leechers dat alles maar binnentrekt dat ze zien omdat ze alles willen hebben maar inderdaad nooit de tijd zullen hebben om ook daadwerkelijk alles te kijken, komt het bij mij vaak ook niet meer snel binnen.

Ik zou liever zien dat een ISP dergelijke aso's gewoon aan de FUP houd, zodat niet de rest van hun klanten eronder lijden.

Verder zijn streams ook erg belastend voor een netwerk, omdat het een constante stroom van data is die gewoon optelt. Als je kijkt wat een serverpark met webservers doet valt dat wel mee doordat het korte bursts zijn, een HQ stream is bijvoorbeeld 2 mbit, bij de volgende user 4 mbit, etc, dat tikt aan.
Investeerders, dat lijkt me duidelijk.

De gebruikers zorgen dat de investering word terug verdiend. Vol op kansen met deze aankomende schaarste.
De consument zorgt toch voor deze groei? Dan moeten we ook meer betalen. De goeden lijden altijd onder de slechten, en als de consument dit tegen wil houden zullen ze dat zelf moeten doen door te stoppen met bandbreedte vretende dingen te doen.
Oftewel het wordt duurder voor de consument.
Er moet toch iemand betalen?
Wie betaald dat dan:

Nou diegene die al die videodownloads aanbieden en miljairden winst maken hierdoor natuurlijk! *uche* google *uche*
En daarbij ook nog, je zet/legt er niet zomaar een kabeltje bij. ff een nieuwe zeekabel leggen, vandaag besteld, dan ligt hij er morgen niet....

En 10x meer capaciteit in het datacenter betekent ook meer ruimte voor apparatuur, dan moet eerst het datacenter uitgebouwd worden, voor zover mogelijk.

Meer decentralisatie in datacenters is op zich voor in de toekomst wel een goed plan. de AMSIX is daar zowel een goed als een slecht voorbeeld van, de AMSIX is dan wel verdeeld over meerdere locaties, maar door hun grootte en hun capaciteit in aansluitingen en connecties met veel zeekabels, wil elk bedrijf het liefst op de AMSIX. Terwijl ze net zo goed in Rotterdam, Enschede en straks bij de Eemshaven kunnen zitten.
Natuurlijk is het ook handiger voor de bedrijven om "hun lijntje naar de buren" buiten de AMSIX om, dat scheelt weer in de verbruiks kosten, dat snap ik ook wel, maar verdergaande decentralisatie is vor de toekomst, vooral wat betreft capaciteit denk ik wel beter.
Wel knap van Deloitte om uberhaupt de "capaciteitsgrens van internet" te kunnen bepalen en dan ook nog even vaststellen dat we die grens snel bereiken en dan ook nog eens gelijk even de oorzaak weten te vinden. Chapeau!
(Voor de mensen van Deloitte: dat betekent "Hoed!")

Grote providers kunnen heel YouTube of dergelijke sites cachen en met live-feeds kan ook iets soortgelijks. Men schijnt bij Bittorrent te werken aan een meer sequentiele vorm van verspreiden zodat bekijken terwijl je download mogelijk wordt.

Dus verder ... paniekzaaierij?
Dit artikel in de Chicago Tribune legt heel erg nadrukkelijk het verband tussen het gevecht rond "net neutraliteit" en de belangen van de Telecom industrie.
Anders gezegd: Telecoms hebben belang bij het benadrukken van het feit dat sites als youtube het "probleem" zijn, om van de net neutraliteit af te komen.
Wat in het artikel in de Chicago Tribune niet wordt vermeld, is dat Ma Bell sinds kort weer bijna de oude moloch van vroeger is, en dat hoewel in het charter met de FTC net neutraliteit is vastgelegd denkt niet iedereen dat dat enig hout snijdt.
Capaciteit van het internet misschien niet, maar de capaciteit van de knooppunten wel en dat is nu precies waar dit artikel over gaat ;)

Bij Deloitte zijn ze echt wel ietsje professioneler dan jouw persoonlijke mening. Ik snap dat je kritische ernaar kijkt, maar heb jij überhaupt naar hun onderzoeksmethode gekeken om te kunnen bepalen dat je dit mag afdoen als paniekzaaierij?

Als je een steekproef neemt hoe het verkeer eruit ziet en daarin trends ontdekt, dan kun je wel degelijk uitspraken doen over hoe het er eind dit jaar uit zal zien. Wellicht is het niet 100% correct en misschien zelfs niet 75% correct, maar de boodschap is wel duidelijk.

Videoconferancing wordt al regelmatig in het zakelijke verkeer gebruikt en dit zal zijn weerspiegeling naar de maatschappij gaan hebben. Daarnaast is (betaald) films kijken via internet bijvoorbeeld in opkomst. Livestreams en on demand video ook. Zodra dit mainstream gaat worden, komt de voorspelling van Deloitte echt wel uit.

En volgens mij hadden Gartner kabelmaatschappijen en Google hier ook al voor gewaarschuwd, niet al te lang geleden?

Dus dit afdoen als paniekzaaierij? Ze zeggen hier wel eens dat een optimist een slecht geïnformeerde pessimist is ;)
Het is niet alleen maar video clipjes bekijken maar er word ook steeds meer gebruik gemaakt van streaming voor gemiste tv progamma's, real time tv kijken, pay per view en dat allemaal bovenop het gewone verkeer plus nog eens de p2p netwerken.

Het lijkt me inderdaad dat het allemaal aan het dichtslibben is, met name op de piekuren. Dus jah, Amsterdam kan ik wel begrijpen dat ze een nieuw snel netwerk aanleggen omdat UPC het vertikt om verder uit te groeien qua snelheden.

We moeten gewoon heel snel naar de 100mbit up/down lijnen zodat alles veel sneller binnen is waardoor het netwerk niet continu belast word met trage lijntjes die maar willen kijken.

Alsof YouTube de enige in zijn vorm is, buiten alle andere filmpjes sites, die imo nog eens beter zijn. Dus op zich vind ik het geen paniekzaaierij maar meer realiteit.
We moeten juist niet naar 100 mbit up/down voor de thuisgebruiker, dan slipt het nog verder dicht.

Videosites zoals Youtube moeten gewoon gemirrord worden bij de providers zodat ze op volle snelheid zonder de rest van het internet plat te leggen benaderbaar zijn.
We moeten juist niet naar 100 mbit up/down voor de thuisgebruiker, dan slipt het nog verder dicht.

Videosites zoals Youtube moeten gewoon gemirrord worden bij de providers zodat ze op volle snelheid zonder de rest van het internet plat te leggen benaderbaar zijn.
Dus wel 100Mbit up/down voor de gebruiker maar je zal het alleen kunnen halen met content die van je provider af komt(caches).
en met live-feeds kan ook iets soortgelijks.
Als je een live-feed cachet, dan is het niet meer live, wel?

Het artikel heeft het over videotelefonie. Dat soort tijdkritische data kun je dus niet cachen. Meer dan een paarhonderd milliseconden lag wordt als onacceptabel ervaren.
Livestreams kun je relayen he; dan zijn ze gewoon live. Dat zal Akamai ook doen voor grote webcasts.
Nee, maar een tv-uitzending (superbowl ofzo?) uit de VS kun je hier best met 5 seconde vertraging uitzenden.

Dan heb je net tijd genoeg om het 1* de oceaan over te pompen, hier lokaal een seconde beeldmateriaal op te slaan, en 1 tel later naar tig 'kijkers' door te sturen.

Toch een soort cache van een live feed dus, en het bespaart enorm op de bandbreedte de oceaan over.
Ik zie dit eerder als een poging om mensen achter het idee te krijgen dat de net neutrality in ons nadeel werkt. Volgens mij lullen ze maar wat uit hun nek om eerlijk te zijn.

Een beetje zoals 9/11 en de war on terror.

Internet is al te lang te vrij en daar moet wat aan gebeuren.
Juist dat dacht ik dus ook.
Second life kinderporno aan de kaak om de gewone leken warm te draaien voor inperkingen.
Technische beperkingen opwerpen als een extra reden.

En Thasims2 kijk eens een beetje terug naar de geschiedenis van de radio.
Na inperkingen vrijheid werd het pas echt een geldopleverend medium hoor.

Ik vroeg me al af hoe ze het wilden gaan brengen.
Volgens mij is internet daar door groot geworden .kan het fout hebben maar volgens mij is internet nu zo'n sucses om dat je er alles op kunt vinden als je dit aan banden zult gaan legen ben je iets aan het kapot maken wat juist zo mooi is aan internet :Y)
Natuurlijk, ik sprak dan ook vanuit hun standpunt niet het mijne. Ik zou het ook liever houden zoals het is.
Continue beeld/geluid 'downloaden' vraagt veel meer bandbreedte dan onregelmatig web-pagina's opvragen. De oversubscription ratio (Weet even geen mooi nederlands tweakers-woord) die voor de meeste particuliere abonnementen op 1:20 berekend is word zo zwaar overschreden. De providers worden zo flink op kosten gejaagd, en ik ben benieuwd of de concurrentie tussen de providers ze zal weerhouden de prijzen te verhogen.
Een beetje cache bij de ISP kan een boel backbone verkeer overbodig maken. P2P verkeer is nog steeds de belangrijkste consument van de bandbreedte. Videochat sessies dragen daar veel minder aan bij. Geen reden voor paniek dus.
Het grote nadeel van P2P verkeer en live videochats is dat het lastig te cachen is.
p2p cachen?! tijd dat providers nieuwsgroepen gaan promoten :7
P2P... en spam.
Spam, spam, eggs, en p2p
enz

:P
Overboeking heet dat hier :)
Sinds het einde van de dotcom hype was er alleen maar overcapaciteit waardoor de prijs van data steeds minder werdt. Als er nu ondercapaciteit onstaat zal die prijs heelerg snel omhoog schieten. Ik denk dat een hoop ISP's dan even hun fair-use-policy afstoffen
Ik wil eerst dat rapport van DT wel eens zien voor hier een zinnige reactie op te geven valt. Hoe vaak gebeurt het niet dat uit zulke onderzoeken weer een paar 'schokkende' zinnen worden gehaald die geheel uit hun context zijn getrokken. De Chicago Tribune doet ook weinig moeite om er dieper op in te gaan, ze gebruiken het liever om het over regulering te hebben. Een storm in een glas water lijkt het dan al weer te worden.
Sneu voor meneer Konstantinos Apostolatos, die 6 maanden geleden iets anders voorspelde:
'Honger naar meer bandbreedte is voorlopig gestild'

Internet2 blijft wél lekker doorbouwen aan meer bandbreedte, maar normale internet stervelingen kunnen daar niet videochatten:
Internet2 gaat snelheid opvoeren met factor 80

Hmmm ooit dacht men dat videotelefonie het helemaal ging maken. heel lang geleden, nu zit met nog met zielige webcams te prutsen en de bandbreedte wordt alweer genekt.
Zou graag wel eens willen weten wie de opdrachtgever van Deloitte voor dit onderzoek is geweest....

Ik ben geen aanhanger van de samenzweringstheorie, maar het lijkt mij als ISP een leuk rapport om in handen te houden, mee te zwaaien en te roepen: "Lieve consument, gezien de schaarste van de bandbreedte zien wij ons tot onze grote spijt genoodzaakt uw abbonnementsgeld met 50% te verhogen. We vinden het echt vreselijk voor u en gaan nu op vakantie...."
:Z
Dit is enorme onzin en vooral stemmingmakerij. Er is meer dan voldoende capaciteit (de hoeveelheid dark fiber is nog steeds een stuk groter dan de hoeveelhedi belichte fiber).

Hetzelfde riepen de telecoms toen voice-over-IP interessant werd. 5 jaar geleden.

Waar het hier om draait is dat de telecoms graag het verkeer wil gaan priotiseren, naar rato van betaling door contentproviders uiteraard. De telecoms zouden bandbreedte graag als "schaars goed" benaderen, in plaats van een overdadige aanwezigheid, zoals de content-providers.

Dit betekent echter dat de huidige "net neutrality" moet worden opgegeven (alle verkeer gelijk behandelt). En dat de consument meer zou gaan betalen, omdat de telecoms ook graag hun graantje meepikken.

Technisch gezien is hier geen reden toe. De grootste bottleneck zit nog altijd in het stukje van huis naar de wijkcentrale. Op economische gronden valt er misschien nog wat voor te zeggen dat nu investering door telecoms niet echt wordt bevordert...maar ja, het is ook niet echt nodig.
ik denk dat dit vooral een probleem in de US is en niet eentje in Nederland...

De AMS-IX heeft capaciteit genoeg en breidt continu uit.
Het is gewoon zaak van grote content providers om lokale mirrors te hebben, ipv te vertrouwen op 1 enkel datacenter...
Ik vindt het meer klinken als een praatje om de opheffing van de "net-neutrality" goed te praten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True