Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Submitter: hb96

De Australische telecomaanbieder Telstra heeft samen met de fabrikant van netwerkapparatuur Ericsson een downloadsnelheid van 1Gbit/s weten te behalen op zijn lte-netwerk. De bedrijven bundelden hiervoor vijf 4g-kanalen.

Telstra claimt 1Gbit/s bij zijn huidige 4g-netwerk gerealiseerd te hebben. De snelheid werd behaald door gebruik te maken van de TM500 van Cobham, een apparaat dat specifiek bedoeld is om hoge snelheden op lte-netwerken te testen. Bij een test via de populaire Speedtest-site wist Telstra een downloadsnelheid van 843Mbit/s te halen. Telstra en Ericsson maakten gebruik van carrier aggregation om 100MHz te bundelen via vijf verschillende 4g-kanalen.

Daarbij gaat het volgens Gizmodo Australië om de frequentiebanden 700MHz, 1800MHz en 2100MHz, en twee 20MHz-delen van de 2600MHz-band. KPN haalde begin dit jaar met een proefopstelling 297Mbit/s door gebruik te maken van 3 component carrier aggregation, waarbij de 2600MHz frequentieband gebundeld werd met de 800MHz- en de 1800MHz-frequenties.

Telstra Speedtest 843Mbit/s

Moderatie-faq Wijzig weergave

Reacties (59)

Waar ik nu enorm benieuwd naar ben. Waarom blijft die uploadsnelheid zo hard achter? Dezelfde bundeling zou je dan ook moeten doen voor het uploaden van data of hoe moet ik dit precies zien?

[Reactie gewijzigd door Perkouw op 9 november 2015 11:53]

Ik denk dat dat gewoon commercieel is: De klant vraagt structureel meer om download- dan upload-bandbreedte. Dat zag je ook al bij de introductie van 56K-modems en tegenwoordig in de kabel- en xDSL-markt.
Is dat eigenlijk wel zo? Volgens mij loopt de uploadsnelheid tegenwoordig zwaar achter op de uploadbehoefte van de klant. We hebben allemaal wel wat opslag bij een cloud aanbieder de een meer dan de ander. En we hebben allemaal WhatsApp waarmee we foto's uitwisselen etc.

Alle data wordt daarbij ook nog eens significant groter......dus ik denk niet dat je stelling klopt. Al is dat puur mijn gevoel.
Ik vind zelf de laadsnelheid van webpagina's belangrijker dan de uploadsnelheid van mijn filmpjes/foto's op whatsapp. Ik heb geen zin om 30 seconden te wachten op iets wat ik nu wil zien, maar het maakt mij niet uit dat een filmpje uploaden 30 seconden duurt aangezien ik ondertussen gewoon andere berichtjes kan sturen, of zelfs gewoon mijn telefoon kan opbergen na het op "verzend" drukken.
Voor te downloaden gebruik je ook upload (transmition frames,enz..)

Voor IPV4 is de overhead ongeveer 8-9% dus als je aan 10Mbit wil downloaden dan moet je bijna 1MBit upload snelheid hebben anders kan je niet zo snel downloaden.

Voor 100Mbit download heb je dus ongeveer 8 a 9 Mbit upload snelheid nodig in IPV4

IPV6 is performanter, waardoor de overhead verminderd naar ongeveer 5-6% (de helft)

Hoe sneller je dus kan uploaden, hoe sneller je ook kan downloaden

Edit: Even een rechtzetting, die overhead is niet door IPV4 alleen, het is in combinatie met TCP, meer specifiek HTTP(S) verbindingen

De overhead is dus het gevolg van overhead in
IPV4 : frames en windows
TCP: Acknowledgments
HTTP: Multiple GET's (Als je naar een pagina surft, dan staan op die pagina resources, bijvoorbeeld 50 images, en 50 files (scripts,css, etc..), dus voor die ťťn pagina moet je browser 100 uitgaande requests maken die ook allemaal die overhead ontwikkelen
Het spdy protocol is een oplossing daarvoor (het verzameld de requests in 1 get request)

De 8-9% is wat ik kunnen meten heb door een wireshark los te laten op het http GET trafiek van mijn laatste grote klanten .

[Reactie gewijzigd door sebastienbo op 10 november 2015 10:03]

8-9% overhead? Bronnen?

Dat is dan zonder TCP SACK en gerekend dat er voor elk IP-packet (met TCP embedded) een TCP ack gestuurd wordt, toch? De realiteit is echter veel beter dan dat.
De overhead, als we uitgaan van plain ethernet tcp/ip dan heb je per pakket 18 bytes aan header/fcs informatie. Afhankelijk van hoeveel data je in de payload stopt krijg je dan een bepaalde overhead.

Gezien een ethernet frame in normale omstandigheden 1518bytes groot is kan je dus 1500 bytes aan payload meesturen.

Dit is wat we normaal gesproken als netwerk engineers de overhead noemen.

In het voorbeeld worden ook nog andere zaken toegevoegd aan de overheaddefinitie.

[Reactie gewijzigd door SaintK op 9 november 2015 18:03]

Dat weet ik wel, maar sebastienbo spreekt over de verhouding download:upload, waarbij hij claimt dat je een 10:1 verhouding hebt bij ordinair downloaden (ik neem aan HTTP(S)/TCP/IP).
Dit is gewoon onjuist.

In zijn edit spreekt hij nu over een kleinschalig extra experiment waarbij hij ook HTTP headers en het vele heen en weer negotieren meetelt. Helaas noem ik dit niet "downloaden" (als in: grote downstream transfer) en daarbij is latency in die use-case VELE malen belangrijker dan de ruwe download en upload speeds.
Prima, maar die redenatie loopt toch precies mee met hoe de up/down ratio momenteel groeien relatief tot elkaar?
Dat klopt, providers passen ongeveer 10% toe (een safe marge)
Dit klopt echt niet, je hebt echt geen 20 Mbit uploadpijp nodig om met 200 Mbit te downloaden, voer maar eens een meting op je pc uit. Laat helemaal staan als je met 500 Mbit of hoger aan fiber hangt, denk je echt dat je dan 50 Mbit (!) aan het uploaden bent tijdens je download? Man man man.
Het spdy protocol is een oplossing daarvoor (het verzameld de requests in 1 get request)
Het spdy protocol is inmiddels http/2 geworden. Het verzamelen van de requests is gevolg van het asynchroon werken van dit protocol. De browser kan meerdere gets blijven sturen over dezelfde TCP sessiel.

Ander bijkomend voordeel is dat ssl maar 1 keer opgezet hoeft te worden omdat alles via 1 connectie opgehaald kan worden. Normaliter zet een browser al snel 2 sessies per domein (was vroeger zelfs meer) open en maken websites vaak gebruik van meerdere subdomeinen om hun images sneller bij de klant te krijgen. Vooral dat laatste veroorzaakt veel overhead in het uploaden als al die connecties vie https verlopen aangezien voor elk domein de SSL communicatie gedaan moet worden.

Upload mag wat mij betreft ook wel omhoog, met dit soort download snelheden zijn er nl. weer hele andere bottlenecks (je apparaat moet het ook kunnen verwerken). Ik heb thuis ook 1 GBps glasvezel en haal in speedtest ook 800Mbps a 900Mbps voor up en download. In de praktijk kom ik meestal niet verder dan 40MB/sec. (320Mbps). Dus i.p.v. 1Gbps down en 50Mbps (5%) down zou ik liever 320Mbps up zien en dan maar wat minder down. 640Mbps should be enough ;)
"PV6 is performanter, waardoor de overheid verminderd naar ongeveer 5-6% (de helft)"

De overheid verminderen....wie wil dat nu niet...IPv6 kan niet snel genoeg gemeengoed worden :).
lol, goed catch:-)

Bij ons in Belgie werkt Telenet al volledig met IPV6 en converteerd paketten die buiten hun netwerk gaan terug naar IPV4 wanneer nodig

[Reactie gewijzigd door sebastienbo op 10 november 2015 10:02]

sta je in de winkel ...wil je enkele foto's sturen met de vraag...wat moet ik kopen...
sta je daar 30 minuten te wachten omdat het al amper LTE is...

heb al geleerd om het via de photos.google.com app te doen en dan een "link" te sturen... dan hoeven ze maar te refreshen naarmate m'n smartphone ze heeft geupload... al dan niet met "compressie"
anders blijft die email nog lange tijd in de "outbox" staan

filmpjes zijn nog erger
Als je 30 minuten moet wachten op je foto's dan stuur je of te grote foto's, of je hebt een crap abbonement.
tja standaard 13mpixel camerafoon...5megabyte per foto....
Ik denk dat dat gewoon commercieel is: De klant vraagt structureel meer om download- dan upload-bandbreedte. Dat zag je ook al bij de introductie van 56K-modems en tegenwoordig in de kabel- en xDSL-markt.
Zowel bij 56k als bij de kabel- en DSL-markt is dat geen commerciele overweging geweest maar een technische. In alle gevallen namelijk wordt er spectrumruimte gedeeld door up- en download en inderdaad, download wordt als belangrijker gezien en dus mag upload wijken.

Op het moment dat gebruik wordt gemaakt van technologie waarbij die twee onafhankelijk zijn (glasvezel uitgezonderd PON) is dat probleem er niet en kan een symmetrische verbinding worden aangeboden.
Technisch hadden ze de up/down ook 50/50 kunnen doen, echer commercieel is het interessanter voor gebruikers om een hogere download dan upload te hebben natuurlijk ;)
gezien een zendmast iets krachtiger is dan een gsm, zelfde verhaal als bij (x)DSL denk ik.
Bij DSL is er gewoon minder capaciteit voorzien in de profielen voor uploadsnelheid, omdat een downloadsnelheid belangrijker lijkt voor consumenten (wat gegeneraliseerd ook zo is). SDSL is gewoon een DSL-variant met een even snelle upload- als downloadsnelheid op het profiel. Misschien dat met 4G er ook voor gekozen is om meer bandbreedte te voorzien voor download- dan uploadcapaciteit vanwege dezelfde achterliggende gedachte, maar in het geval van DSL heeft het in ieder geval niets te maken met krachtiger zijn van iets.
Inderdaad. lte maakt (terecht) een groot onderscheid tussen zendmast en handset/ontvanger:
- De zendmast dient spectrumefficient data door te kunnen pompen. => hoge snelheid
- De handset dient zo energie-efficient mogelijk data te verzenden. => hoge autonomie
Gezien de upload van klanten eigenlijk zeer beperkt is, is er niet direct een probleem. De tijd dat de lagere upload voor problemen zorgde ligt in mijn ogen al een jaar of 7-8 achter ons.
Leuk om een server op je mobiel te draaien, of natuurlijk ECHT die cloud sync in real time te laten plaatsvinden. Nou alleen nog dat gedoe met databundels wegnemen en we zijn echt helemaal online!
De server is gelimiteerd in zijn upload door 50Mbps, volgens mij kom je met 4G van KPN in heel eind in de buurt. Een download van 850Mbps krijgt je mobieltje direct op zijn knieŽn, ik denk niet dat er veel telefoons zijn die 100MB/s kunnen verstouwen. En dan is er nog iets met een accu.
Ja als je zo blijft denken, dan kom je idd nergens. Ik zeg toch ook niet dat dat NU vandaag relevant is? Ik denk eerder binnen 10 jaar is dit gewoon normaal. Ik kom nog uit de tijd dat internet geeneens bestond voor consumenten, ik heb alles meegemaakt, van de simpele 2400 baud modem (ja echt baud was dat ja) t/m de eerste kabelmodel, dan was ik al blij met 2-3kb/s gratis (toen keek ik nog de eerste big brother) tot wat ik nu heb 4G/LTE en dat is gebeurd in krap 20 jaar, dus tja....het zal echt niet zo raar zijn hoor allemaal. Ik ga nog meemaken dat ik niet meer zelf hoef te rijden, maar dat een robot dat doet.
Waar ik nu enorm benieuwd naar ben. Waarom blijft die uploadsnelheid zo hard achter? Dezelfde bundeling zou je dan ook moeten doen voor het uploaden van data of hoe moet ik dit precies zien?
Volgens mij is de enige reden dat hun doel was om een zo hoog mogelijke download te halen.

Volgens mij is het zelfde verhaal als op de kabel en vroeger bij GSM etc.
Dat je een aantal banden als upload en andere als download defineert, aangezien het full duplex moet zijn. Je kunt namelijk op de zelfde band tegelijkertijd zelden en ontvangen.

Ze hadden als ik op het plaatje af ga ongeveer 900 Mb/s. Waarvan ze 850 Mb/s als download gebruikt hebben en 50 Mb/s voor upload.
Je kunt namelijk op de zelfde band tegelijkertijd zelden en ontvangen
Eh in principe wel maar da's voor een mobiel te moeilijk. Zelfs al is het op verschillende banden dan is zenden en ontvangen tegelijkertijd lastig. Op GSM zijn er twee verschillende banden en worden zenden en ontvangen nog gescheiden in tijd. In 3G en 4G kan zenden en ontvangen tegelijkertijd wel dacht ik maar gebeurd dat nog steeds op verschillende banden.

De zend en de ontvangst banden zijn even groot dus upload en download zijn daardoor niet begrensd.
Het is voor de mobiel natuurlijk wel moeilijk om op verschillende banden tegelijk te kunnen zenden (zonder dat die smelt) en ik kan me voorstellen dat de functionaliteit aan de netwerkkant om de data van verschillende banden weer samen te voegen ontbreekt.
Waar ik nu enorm benieuwd naar ben. Waarom blijft die uploadsnelheid zo hard achter? Dezelfde bundeling zou je dan ook moeten doen voor het uploaden van data of hoe moet ik dit precies zien?
Ik vraag me ook af waarom de downloadsnelheid achter blijft. Als je met 5 kanalen bundelen uitkomt op 1 Gbit/s dan zou dat 200 Mbit/s per kanaal moeten zijn. Dat haal ik met de 4G apparatuur die ik momenteel voor handen heb bij lange na niet. Veel beter dan 50 Mbit/s word het niet.

Daarnaast zijn hogere snelheden op mobiele netwerken natuurlijk welkom maar momenteel zijn het de datalimieten die de klant in de weg zitten en die gebruik beperken. Het is prachtig dat ik 20x zo snel kan downloaden maar als dat ook betekend dat ik 20x zo snel door mijn limiet heen ga dan schiet ik er niets mee op.
Waarschijnlijk is je abonnement gelimiteerd op 50Mb/s. Dan kunnen er meerdere op dezelfde plek die snelheid halen.
100mhz bundelen en dan net geen 850 mbit halen... vind dat niet heel revolutionair of bijzonder, eigenlijk schandelijk weinig.
Waarom? Kun je dit aub voorzien van meer informatie?
Frequenties zijn al langer te stapelen op 4g gebied, dat ze er nu 5 weten te bundelen en combineren klinkt heel erg leuk maar bijzonder is het niet. (stapelen kan al veel langer)

Er is al P2P apparatuur die uit dit soort frequentieruimtes ongeveer 1200mbit kan halen.

Daarnaast is in Nederland een veiling van diverse frequenties geweest, samenvattend de totalen aantal mhz aan frequentie ruimte die de aanbieders hebben over alle banden heen.

KPN: 120mhz
Vodafone: 90 mhz
T-Mobile : 129 mhz
Tele 2: 20 mhz.

Dus 100mhz is meer dan een deel van de aanbieders of een groot deel van de totaal beschikbare frequenties (en dan hebben we het er nog niet over dat in al die frequentie ruimte 2g, 3g met alle spraak en data moet verlopen, en dat je niet met elke frequentie overal dekking kan krijgen) dus in Nederland is dit ook totaal niet realistisch om te gebruiken.
Ik vind hun manier van afronden opmerkelijk:
Our end to end tests have been achieving amazing download speeds of over 950Mbps using a specialised speed test application
Dit is bijna (95%) 1 Gbps, maar in een speciale situatie (niet real-life).
Just as importantly we have also been able to hit speeds of over 843 Mbps end to end over the Internet to the speed test.net site.
Dit noem ik niet bijna (slechts 84%), daar kan je over disussieren, maar het is in ieder geval geen 1 Gbps.
The demonstration of 1Gbps end to end capability shows the advanced state of these standards and our ability to rapidly bring them into commercial service in order to deliver increased capacity in our network to meet the growing demand.
Dus dan noemt men het toch 1 Gbps end-to-end?

Men noemt geen percentage overhead en dat zal hier wel het 'tekort' verklaren, maar dan blijf ik het een rare manier om een bepaalde prestatie te claimen terwijl de metertjes wat anders aanwijzen.
Ze hebben de verbinding van 1Gbps getest met speciale apparatuur.
Zoals gezegd word in de OP:
De snelheid werd behaald door gebruik te maken van de TM500 van Cobham, een apparaat dat specifiek bedoeld is om hoge snelheden op lte-netwerken te testen.
De speedtest.net is alleen een leuke toevoeging bij de test, om te laten zien dat het in de praktijk niet heel veel anders zal zijn. Ook is het mogelijk dat de server welke ze gebruikt hebben niet volledig de bandbreedte deelt met de tester.
De speciale apparatuur laat 950 Mbit zien, ik snap dan niet waar ze die resterende 50 Mbit vandaan halen. Marketing? Overhead?

En telt die speciale test ook als end-to-end?
Bij die speciale test was de snelheid end-to-end, mobiele aplicatie naar internet (of intranet) server. De tussenliggende verbinding zal sneller moeten zijn. Bijvoorbeeld op een 1Gb/s kabel haal je ook moeilijk 1Gb/s maar het is toch echt een Gb verbinding.
Toch niet, ik haal op mijn Ziggo 200 Mbit lijn ook echt 200 Mbit naar Speedtest.net, dus er wordt niet een groter label op geplakt dan dat ik in werkelijkheid kan gebruiken.

Daarnaast volg ik niet helemaal hoe een tussenliggende verbinding sneller 'moet' zijn, de behaalde snelheid is dat van de traagste schakel in de reeks. Als men een 10 Gb internet uplink heeft zoals nu gebruikelijk bij commerciele fiber aansluitingen dan zie ik niet hoe die effect kan hebben zodat men niet de volle 1 Gbps op de 4G verbinding haalt.

Mijn punt is: noem het niet 1 Gbps als je het niet haalt, of laat zien dat je het ook echt kan halen linksom of rechtsom.
Op verbindingen met een hogere latency is het best moeilijk om de volledige snelheid te benutten. Zeker als die latency ook niet helemaal niet constant is.
Een Ziggo 200Mb/s lijn is een ander beestje. Misschien ben je daar op 200Mb/s begrenst terwijl meer mogelijk is.
Je praat er nu omheen. Eerst zeg je 'op een 1Gb/s kabel haal je ook moeilijk 1Gb/s maar het is toch echt een Gb verbinding', terwijl dat in de praktijk gewoon mogelijk is zonder speciale poespas. Zeker met een SSD in je pc is het geen tovenarij om dat zelfs met Windows tussen twee pc's te halen. Op een kabel is al helemaal weinig latency, en in de test wordt gesproken over pings van 15 ms (!).

Dus als je 4G lijntje dat dan geen 1 Gb haalt, zie ik niet in waarom je het dan wel zo kan noemen. Het blijven smoesjes en afrondingen naar ver daarboven.
Ik heb nooit gezegd dat je in de praktijk zonder poespas 1Gb/s kan halen op een 1Gb/s kabel. Ik heb gezegd dat dat heel moeilijk is en daar blijf ik bij. Het ligt niet aan de SSD maar aan TCP, je mag ook verzonnen over fast Ethernet verzenden als je het aan wil tonen, 100Mb/s over fast Ethernet is net zo moeilijk.

950Mb/s end to end is bij mij 1Gb/s

[Reactie gewijzigd door Jaco69 op 10 november 2015 16:07]

Dat was ook mijn eerste gedachte. Ze roepen 1Gbps, maar 843Mbps ligt daar toch echt een aanzienlijk stuk achter. Misschien hebben ze in die 'specialised speed test application' een keer een pieksnelheid gemeten van > 1Gbps, maar het blijft een beetje en raar verhaal zo.
Ik vind de ping van 15ms anders ook niet verkeerd!
Net even speedtest gedraaid en Ping van 16ms bij 4G T-mobile. 66 down en 47 Mbps up. Die 15ms is wat dat betreft niet bijzonder.
Ik haal met moeite 10Mbps download via 4G met vol bereik. Zou volgens de KPN website 150 Mbps moeten kunnen krijgen.
Het hangt er ook maar net vanaf wat je telefoon zelf aankan.
Ik haal met KPN 4G +/- 135Mbps max gemeten via speedtest.net op mijn HTC M8.
Mij lijkt het dat mijn iPhone 6+ heus wel wat meer aan kan dan dit.
Dat mag je wel verwachten van een recente iphone inderdaad.
Het hangt ook enorm van de plaats en tijdstip af. Op een drukke plek in de stad zoals een station ofzo, daar ga je dat niet halen...
Ik woon dicht bij het centrum maar ik heb dan nog vol bereik en alles is verder goed behalve de snelheid.
In vergelijking toch wel een wat magere upload snelheid. :z De ping van 15 ms is overigens ook best netjes... :)

[Reactie gewijzigd door Fiber op 9 november 2015 11:54]

De bedrijven bundelden hiervoor vijf 4g-kanalen.
Daar is toch geen kunst aan? Of begrijp ik dit verkeerd?

Als ik 5 x mijn 30Mbit ADSL verbinding neem en mijn netwerk configureer om die samen als 1 grote lijn te laten gedragen zit ik waarschijnlijk tegen de 150 Mbit. En?

Volgens mij krijg je bij het op deze manieer vergroten van de totale bandbreedte pas problemen als alles in de ether al bezet is. Meer apparatuur neerzetten is enkel een financiele kwestie.
moet ik even mn 2 kabel modems trunken somehow.. dan haal ik vast ook wel 400mbit down en 40 up..
Ik vind dat de datalimieten hier in BE al irritant zijn, wat zou dat dan zijn in AustraliŽ...

hier is bij het goedkoopste abbonement voor vast internet een datalimiet van 100 Gb
Iets duurder hebben we dan 150 GB
en dan heb je nog scarlet die 300 gb hanteert maar die niet snel is, goedkoop dat wel.

Daarna heb je pas duurdere abbonementen met onbeperkt(meestal is dit 500GB) waarbij de limiet overschreden word je bij telenet nog het beste zit. Want bij proximus heb je erna geen sikkepit goed internet ik denk 128 Kbps of 64 zelfs(down snelheid). Bij telenet heb je nog dit:

Je wordt opgemerkt als intensieve gebruiker zodra je meer dan 500 GB verbruikt tijdens piekuren
Je surft dan tijdelijk minder snel tijdens piekuren (10 Mbps downstream en 1 Mbps upstream), maar behoudt je onbeperkt volume.

Dus ik vind dat vooral in Belgie snelheid en datalimiet een hele stap zou zijn als ze die limieten van download weghalen en die snelheid omhoog halen.
Uw informatie is niet correct.

Op de Proximus site:
Internet Comfort: als de klant 300 GB verbruikt heeft, wordt de internetsnelheid verlaagd tot 3 Mbps, tenzij de klant een gratis Volume Pack van 20 GB activeert via MyProximus. (Men kan onbeperkt gratis packs bijbestellen).
Internet Maxi : als de klant 500 GB verbruikt heeft, wordt de internetsnelheid verlaagd tot 5 Mbps, tenzij de klant een gratis Volume Pack van 20 GB activeert via MyProximus. Je kan deze packs onbeperkt gratis bijbestellen via Myproximus.
Ahn, dat is dan al veranderd zonder dat ik dat wist.

Sorry voor de verkeerde info.
Als een 50/50Mbit verbinding daar al gauw $500/maand kan kosten, wil ik niet weten hoeveel het kost als ze dit ooit op de markt brengen. 8)7
Je vergeet de datacap nog xD
Australia loopt heel ver achter op het gebied van internet.
Ik woon er, en AustraliŽ loopt inderdaad ver achter qua vast internet. Ze waren echter een van de eerste landen met 4G dekking, ruime tijd voordat het in Nederland beschikbaar was. Het is triest, maar mijn 4G connectie is vele malen sneller en goedkoper dan mijn ADSL verbinding. Krijg met ADSL2+ niet meer dan 8Mbit down, 1Mbit up. Dat is in de stad en meer regel dan uitzondering.
Ik heb het inderdaad over vast internet. Ik ken een aantal mensen in australie en het is raar om hen te zien klagen wanneer er een grote update uitkomt voor een spel omdat ze dan waarschijnlijk tegen het einde van de maand over de datacap heen gaan, en daarna spreek ik zie ik ze een paar dagen niet online xD
Ik vind 843 megabit bij lange na nog geen gigabit. Zit er nog steeds ruim 15% onder.
Uiteraard is het mooi dat de techniek steeds verder gaat, maar dit is toch wel een heel positief beeld geven....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True