Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

De Amerikaanse provider Cox Communications heeft wijzigingen van zijn netwerkbeheer aangekondigd. Alle 'niet-tijdkritische' toepassingen, waaronder p2p, zullen bij grote drukte op het netwerk een lagere prioriteit krijgen.

Het ongelijk behandelen van verschillende vormen van internetverkeer door providers staat sterk in de belangstelling sinds Comcast in 2007 begon met het afknijpen van p2p-verkeer bij grote drukte. Onder druk van de Federal Communications Commission en zijn eigen klanten heeft Comcast weer van dit afknijpbeleid afgezien; de provider kijkt nu alleen naar de totale hoeveelheid verkeer per aansluiting. Bij grote drukte op het netwerk wordt al het verkeer van grootgebruikers vertraagd, maar naar de aard van het verkeer wordt niet meer gekeken.

Het systeem dat Cox Communications, in grootte de derde kabelprovider van de VS, in februari wil gaan invoeren, maakt wel onderscheid tussen de verschillende soorten verkeer. Bij congestie op het netwerk zullen de niet-tijdkritische toepassingen een lagere prioriteit krijgen dan de overige. Niet-tijdkritische toepassingen zijn volgens Cox onder andere p2p, filetransfers en usenet. In een aankondiging van het nieuwe systeem geeft Cox aan dat de bron van het verkeer niet relevant is, maar uitsluitend de aard ervan.

Het ligt voor de hand dat het nieuwe systeem van Cox nogal wat verzet zal oproepen: het prioriteren van internetverkeer aan de hand van de aard ervan ligt bij velen zeer gevoelig. De FCC heeft een dergelijk netwerkbeleid in het geval van Comcast zelfs expliciet verboden, en er is weinig reden aan te nemen dat Cox op een soepeler behandeling mag rekenen.

Cox logo
Moderatie-faq Wijzig weergave

Reacties (45)

En UPC doet dit in Nederland zonder dat er een haan naar kraait. Ik vind het op zich wel logisch, anders ben je met VOIP mooi de sigaar en dat is minder wenselijk. Of de provider regelt meer capaciteit, maar dan wordt het abonnement weer duurder. Ik vind daarom afknijpen van p2p en usenet eigenlijk de beste oplossing.
Het probleem en de eeuwige discussie is & blijft, dat je actueel betaald voor een 20, 30 whatever Mbits dienst.

Er wordt niet geadverteerd met: "U kan maximaal tot 20Mbits gebruiken voor xx¤". Maar wel met "20Mbits voor xx¤". Dit is identiek aan de FUP. "U kan ongelimiteerd downloaden". En dan in het contract ergens in kleine letters. Ongelimiteerd = FUP = Wat we op dat moment in de tijd, als eerlijk beschouwen.

En het afknijpen van een p2p & andere trafiek voor meer "belangrijke" diensten is gewoon een druppel op een hete plaat. Het probleem is dat de provider in kwestie niet genoeg capaciteit heeft voor te voldoen, aan de vraag van zijn abonnees hun verbruik.

Je geeft aan dat de provider meer zal moeten vragen. Best mogelijk, maar je moet ook niet vergeten, dat die traffic shaping methodes vaak ook apparatuur is die enkel 10.000de euro's kost ( en dan nog de jaarlijkse onderhoudscontract / software etc ). Geld dat men beter stak in het actueel upgraden van hun infrastructuur zodat ze de beloofde snelheid aankonden!

Ik merk ook op, dat toch in Belgie, hoe weinig providers werken met nachtsurfen. Ideaal, en bijna kosteloos. Geef de gebruikers een "incentive", en je zal merken dat heel wat mensen snachts gaan downloaden, wanneer de infrastructuur in het verleden zo goed als ongebruikt was.

Local content proxy's? Locale newsservers... Ik zie meer & meer providers hun newsserver diensten opzeggen, of alt.binaries afschaffen, terwijl het juist enorm wat traffic over de backbone uitspaart. En dan moet men gaan knippen in de traffic?!

En laten we eerlijk zijn. Het afknijpen help op dit moment een klein beetje. Maar, wat als men gebruik maakt van SSL op de newsservers? Encryptie op de torrents ( wat nu meer & meer voorkomt ). Daar gaat hun dure investering. Of gaan ze gewoon alle traffic vertragen, behalve de voip? Dan zit men weer met valse reclame.
En laten we eerlijk zijn. Het afknijpen help op dit moment een klein beetje. Maar, wat als men gebruik maakt van SSL op de newsservers?
Dat is technisch heel simpel hoor. Gewoon gaan knijpen op het IP adress van de newsserver. Van alle grote servers is dat bekend. Dat is nog eenvoudiger dan eerst uit te gaan zoeken wat voor soort verkeer het is. Die servers worden toch voor niets anders gebruikt.

[Reactie gewijzigd door Ortep op 29 januari 2009 15:50]

Dat is technisch heel simpel hoor. Gewoon gaan knijpen op het IP adress van de newsserver.
Zelf dat is minder simpel dan je zou denken.

- ISP's beginnen trafiek naar bepaalde IP's af te knijpen.

- a) Het gevaar is: Die IP's kunnen later mogelijk terechtkomen bij andere bedrijven, maw, hun IP's bandbreedte kunnen zo nodig beperkt worden, wegens het eerder gebruik van x dienst op die IP's.

- b) De Bedrijven die de dienst leveren, zullen niet lachen hiermee. Je mag niet vergeten, je connectie als klant is niet xxx.xxx.xxx.xxx maar news.xxxxx.xxx. Iedere beetje serieuze IT'er kan de nameserver instellen naar een dynamische / random IP methode. Aka, een IP pool. Dit wordt op dit moment zelf al toegepast. Als je connectie naar news.xxxx.xxx komt je misschien op server 1 terecht met x ip, of op server 7 met z ip. Plaats hier tussen een tunnel methode, en je kan een paar 1000de ip's voorzien naar je server/s.

Op dit moment zou dat nog een beetje werken met de beperkte hoeveelheid IP's, maar wat als men IP6 gaat gebruiken? Gaat men alle IP's kunnen vinden dat die newsserver bedrijven heeft?

Begin dat maar de blokken als ISP. M.a.w, dan begint weeral de kat & muis spel dat je nu hebt met p2p.

- P2P neemt te veel traffic in vinden de ISP's ( zij hebben liever de brave huisvader/moeder ) die 1 uur surft iedere maand, en de volle pot betaald ( zie oa Telenet in Belgie, een perfect voorbeeld van een provider die al lang zijn klanten beperkte met belachelijke limieten zoals 10GB, wanneer game demo's alleen al 1 a 2GB begonnen te worden. ).
- ISP's beginnen te filteren. Ze steken veel geld in apparatuur. We spreken over 10.000de euro's. En dan de software update's, en support die vaak het veelvoud zijn.
- P2P community reageert. Men introduceert encryptie. Al die dure apparatuur begint zijn effect te verliezen. Op relatief korte termijn krijgen de meeste P2P clients ondersteuning voor encryptie.
- ISP's hun detectie methode is niet meer toereikend. Men kan enkel nog de mensen vertragen / detecteren, die niet met encryptie werken. Gevolg, men dient weer geld te steken in duurdere apparatuur.
- Bekijk de laatste pogingen op het BT protocol alleen al. UDP traffic, DHT, enz... De ontwikkelaars staan niet stil.

We spreken verre toekomst maar ISP's zijn niet onoverwinnelijk als men er beperkingen op smijt. Dit doet me denken aan bedrijven die content controle, firewall's, enz voor je neus smijten. Ieder beetje IT'er gaat voorbij die zaken met gemak.

Na een tijdje, brengen die IT'er programma's uit die het makkelijk maken voor leken om dit te doen. Neem nu diensten zoals bijvoorbeeld LogMeIn. Dan mag je bedrijf de beste firewall op plaats hebben, draai dat ding, en je kan inloggen van op remote, en de firewall omzeilen zonder problemen. Daar gaat je secure netwerk...

Hetzelfde is van toepassing op ISP's met hun beperkingen. Nu zijn newsservers een makkelijk doelwit. Tot de volgende slimme IT'er een systeem al la bittorrent, of andere methode op touw zet, met encryptie, en voila. Het is weer van dat.

Wat men niet snapt is, voor iedere IT'er die een goede methode ontdekt voor P2P, en andere trafiek het leven zuur te maken, zijn er 100de, 1000de andere IT'ers die alles zullen doen om die beperking te omzeilen. Dit is het equivalent van beveiligingen op games. De meeste game developers hebben al lang gezien, dat geen enkel beveiliging 100% is, en dat het niet de zaak is om copieren onmogelijk te maken, maar het craken er van zo lang mogelijk uit te stellen. En dat is het beste dat de ISP's kunnen hopen te bereiken.

Maar men vergeet wel, dat al die pogingen massaal veel geld kosten. Geld dat beter gespendeerd was, zeker in de ISP's hun geval, aangezien men hier makkelijk spreekt over de 10.000de, of 100.000de euro's, aan het upgraden van hun netwerk. Traffic shaping is iets dat verkondigt wordt door een paar slimme verkopers, als de oplossing. Iedere IT'er weet dat hun oplossingen duur, beperkt, en vaak nutteloos worden. Maar ja, het zijn vaak niet de IT'ers die de beslissingen nemen in een bedrijf he ;)
Toch helemaal terecht dat ze hun newsserver dumpen? Als het gebruikt wordt waar het voor bedoelt was, namelijk tekstcommunicatie, maakt het helemaal niet uit of het wat trager is en van een server uit de VS ofzo moet komen, waarom zouden ze dat cachen? En als het gebruikt wordt voor illegale shit, zoals 99% wat in alt.binaries staat, vind ik het ook terecht dat ze dat niet meer door willen geven. Je doet nu net alsof je ergens het recht heb illegale software met volle snelheid binnen te mogen trekken. Wacht maar wat langer, kan heus geen kwaad.
Tja, het is natuurlijk niet echt fair want je betaalt wel voor een verbinding van (bijvoorbeeld) 20 Mbps. De FUP ligt bij veel providers op de data die je verstookt, maar niet op de snelheid waarmee dat gebeurt.

Je zou dus zeggen dat je gewoon moet kunnen beschikken over de volledige capaciteit van de verbinding waar je voor betaalt. Maar, zoals CyBeRSPiN hieronder al zegt: het uitbreiden van capaciteit kost geld en investeren is nou eenmaal niet direct lucratief.
Niet fair? Of gebruiken mensen hun hersenen gewoon niet.

Als ik een Porsche koop die 0-100 in 4 seconden doet, 300km/u als top heeft en 150.000km normaal mee gaat, dan weet ik zeker dat als ik de hele dag van 0-300 ga sprinten ik die 150.000km never nooit niet ga halen. Ook constant 300km/u rondjes blijven rijden gaat hij niet 150.000km volhouden.
Is dat ook niet fair?

De prijzen van deze verbindingen zijn gebaseerd op overboeking, er is maar 10% oid van de maximale capaciteit beschikbaar. Dat levert nooit een probleem op, totdat mensen achterlijk veel gebruik gaan maken van zo'n verbinding. Je betaald (en krijgt) de snelheid om te downloaden, maar niet 24/7/365, maar gewoon een paar uur per dag. We zijn zoiezo al gezegend met een FUP ipv een datalimiet in NL.
Je maakt nu wel een heel erg foute vergelijking. Je hebt het over een auto die kapot gaat na bepaald (extreem) gebruikt en dat vergelijk je met de beschikbare snelheid van een internet verbinding. Je kan het beter vergelijken met een leaseauto die af en toe z'n maximumsnelheid naar 40km/h verlaagd. Ik denk dat je dan toch wel even gaat klagen dat je daar toch niet voor hebt betaald.
ik vind je vergelijking niet helemaal opgaan, een betere vergelijking zou zijn:
Je neemt een abonnement op de sport club en wilt daar iedere dag een uurtje gaan sporten, dat mag echter niet: je mag maar eens in de 2 dagen 1 uur sporten omdat ze teveel mensen een abonnement verkocht hebben
Ik vind het eigenlijk wel fair. Waarom zou ik een ping van 500 ms moeten hebben op een online game omdat mijn buurman zo nodig met 20mbit/s data wil sucken? Dát is pas niet fair. Die wacht maar wat langer, met 19mbit/s komt het ook snel genoeg binnen...
Downloaders vinden zichzelf altijd zooo belangrijk, terwijl er eigenlijk geen haast bij is. Vooral gezien het meeste wat gedownload wordt eigenlijk illegale shit is, waar ze toch al geen recht op hadden, vind ik dat ze iedere vorm van download van mij best mogen knijpen om realtime verkeer voor te laten gaan. Sommige internet toepassingen, zoals games, voip, videostreams, etc, komen zo in gevaar, door al dat gedownload...

[Reactie gewijzigd door kozue op 30 januari 2009 08:50]

Maar p2p en usenet ontwikkelen zich juist zo snel door dit soort ontwikkelingen. Terwijl providers altijd achter de ontwikkelingen aanhobbelen kun je met de meeste usenet providers al data binnenhalen via SSL. Dat wordt al een stuk lastiger te knijpen.

En dan mis je nog het belangrijkste: waarom zou je bij COX in hemelsnaam nog gaan betalen voor een verbinding sneller dan 2 mbit? In de praktijk komt het er waarschijnlijk gewoon op neer dat downloaden continue geknepen gaat worden om COX de kosten te drukken. En VOIP gebruikt nou eenmaal niet zoveel bandbreedte vergeleken bij DVD's of Bluray schijfjes...
Volgens mij is usenet geen peer to peer.
en ik denk dat het grote probleem die torrentnetwerken zijn die enorm
veel connecties maken dat je eigen router het bijna niet eens aankan.
Usetnet is inderdaad niet p2p. Maar het gaat ook om het dataverkeer, niet om het aantal openstaande connecties.
Schijnbaar kan hier vrij gemakkelijk omheen gebouwd worden door een SSL connectie te gebruiken.
shmirmial vermelde in google laat ...
Als ik een belangrijke patch of download nodig heb, dan worden die soms via p2p aangeboden.
Dus het is heel kort door de bocht om te zeggen, dat zulk verkeer niet tijdsafhankelijk is/kan zijn.
Dat is tijdsafhankelijk op een andere schaal.
Door p2p-verkeer af te knijpen komen pakketjes een paar honderd milliseconden later aan en de bandbreedte neemt af. Als jij een patch voor Windows / Linux / Office / virusscanner / ... wilt downloaden, dan is die extra latency sowieso geen enkel probleem (terwijl het dat voor VoIP wel is) en die lagere bandbreedte, tja, hoeveel MB moet je nou helemaal hebben? Als je dat binnenhaalt met 100 kB/s of 300 kB/s, dat maakt dan ook niet echt meer uit.
100 kb of 300 kb is een factor 3 verschil 3 uur met 100 kb wordt 1 uur met 300, nogal een verschil dus
Sinds wanneer duurt een patch 3 uur om te downloaden? Meestal is dat niet zo groot. Het verschil tussen 10 seconden en 30 seconde vind ik nou ook weer niet echt om over wakker te liggen, vooral aangezien het meestal gewoon op de achtergrond gebeurt. Ja, als je complete iso's binnen wilt halen is het een ander verhaal, maar die heb je toch niet per direct nodig, anders had je ze wel ergens op cd liggen.
Zulke acties zullen alleen maar resulteren in het oneigenlijk gebruik van andere protocollen, zoals HTTP voor het verzenden van grote bestanden, of het toepassen van protocol-encryptie zodat de aard van het verkeer niet (met zekerheid) vast te stellen is. Dit leidt alleen maar tot een chaos in de nu nog enigszins georganiseerde bende dat Internet heet, waardoor het verkeer nog minder goed te regelen valt.

Het is begrijpelijk dat providers dit willen doen, maar de enige oplossing is natuurlijk het vergroten van de capaciteit, en dat kost geld.

Ik hoop dan ook dat de FCC zijn beleid blijft hanteren, anders is het hek van de dam.

[Reactie gewijzigd door CyBeRSPiN op 29 januari 2009 15:27]

Dat oneigenlijk gebruik van andere protocollen is natuurlijk ook al groot aan de gang. Denk eens aan Usenet voor binairies bijvoorbeeld. Maar je hebt wel gelijk natuurlijk. Er is een goede kans dat er uitgeweken gaat worden naar andere protocollen, versleuteling, etc. Het enige dat op den duur overblijft is proberen te profilen hoe het verkeerspatroon er uit ziet (email downloaden ziet er qua netwerkverkeer, verhouding tussen berichten van de server naar de client en andersom, etc. heel anders uit dan P2P of usenet downloads). Ik denk echter niet dat dat haalbaar is op grote schaal.
Ik heb pas 6 maanden in Arizona gezeten en daar ook een connectie van Cox gehad. Het lijkt daar een beetje op het internet dat wij hier 8 jaar geleden hadden. We hadden een 8Mbit lijn, en soms haalde we ook 1MB/s. Maar over het algemeen was het 500KB, en in de avond ging dit op en neer van 200KB naar 500KB.
Volgens mij moet Cox meer investeren in het netwerk, ipv het filteren van verkeer (in Nederland haal ik ook de afgelopen 5 jaar altijd mijn max snelheid, dus het is mogelijk).
Dat hangt van meer factoren af zoals je afstand tot de centrale (in ieder geval bij ADSL). Daarnaast zijn wij in Nederland verder dan in de meeste andere landen.

En 1MB/s op een 8 Mbit lijn vind ik top! Knappe jongen die er meer uit krijgt.
En 1MB/s op een 8 Mbit lijn vind ik top! Knappe jongen die er meer uit krijgt.
Wellicht dat Plaagje het verschil niet weet tussen MB en Mb en hij eigenlijk gewoon "1/8ste van de snelheid" bedoelde... (of hij is idd gewoon een neptweaker :p)
Ik vraag me toch af in hoeverre dit vol te houden valt. Ik denk dat ze een stuk veiliger zouden zijn als Cox en Comcast zouden zeggen dat ze bv Voip en mail verkeer prioriteit geven als het netwerk vol drijgt te raken, maar niet dat ze de overige boel afknijpen..
Volgens mij zeg je hetzelfde.
Als je iets een hogere prioriteit geeft, dan heeft het andere autoamtisch een lagere prioriteit ten opzichte van.

Als je netwerk dan overbelast lijkt te raken en er dus geen capaciteit meer over is, dan gaat het overige vekeer, de niet tijd-kritische toepassingen, automatisch een lagere snelheid.
ja, maar 't klinkt een stuk veiliger/aardiger/logischer
Ik vraag me toch af in hoeverre dit vol te houden valt. Ik denk dat ze een stuk veiliger zouden zijn als Cox en Comcast zouden zeggen dat ze bv Voip en mail verkeer prioriteit geven als het netwerk vol drijgt te raken, maar niet dat ze de overige boel afknijpen
Het is echter oneerlijk concurrentie als ze bijvoorbeeld VoIP verkeer prioriteren over verkeer voor Skype. Dan geven ze hun eigen communicatiedienst een oneigenlijk voordeel op communicatiediensten van andere partijen.
Mwoah, ze kunnen skype dan toch ook prioriseren?

Gebeurt nu ook lokaal in je voip-modem overigens, meeste hebben een qos achtig iets voor voip verkeer standaard aan
Skype is ook voip. Ik neem aan dat als ze voip schrijven, ze het niet perse over eigen diensten hebben, maar voip in het algemeen, dus SIP, Skype en eventueel eigen diensten. Bovendien hebben ze het over "realtime verkeer" en is voip alleen een voorbeeld. Games bv is ook realtime verkeer, en een verschil van 20 of 200 ms is voor een game het verschil tussen speelbaar of onspeelbaar, en voor een download doet het er niet zo veel toe.
hoe doen ze dit dan? Ik weet niet hoe ze aan een pakketje kunnen zien of het wel of geen p2p is? p2p gebruikt geen vast poorten dus daarop kun je al niet filteren. DPI is wel mogelijk en dan eventueel iets er op laag 5/6/7 er uit filteren, maar dan verleg je je bottlenet alleen maar en hou je minder bandbreedte over.
Juist daarmee, dingen met priority (zoals VOIP of bepaalde protocollen) gebruiken just WEL well known ports, of registered ports (blizzard's Battle.net enzo gebruiken wel bekende ports). Gebruik van destination (niet source, want source bij NAT gebruikt ook unknown ports) ports daarbuiten kan duiden op P2P.
En daar gaan we weer, waarom kan COX niet gewoon een betere backbone aan leggen? Ze bieden al niet echt snelle verbindingen en dan ook nog eens knijpen van de connectie. Het is helemaal nergen voor nodig ik weet zeker dat als ze daar nu eindelijk eens een goede netwerkplanning gaan doen en beseffen dat gelukkige klanten meer klanten opleveren dan mensen die klagen omdat de mensen die klagen over het algemeen de groot gebruikers zijn en juist die mensen vaan een boel meer verstand hebben van computers en internet en zo dan de mensen die hun om raad vragen op het moment dat er een nieuwe internet verbinding/computer moet worden gekocht.

Als je kijkt naar de Nederlandse situatie waar men wel hele snele verbindingen levert, en helemaal niet aan limieten en beperkingen van snelheid doet dan blijkt dus dat het wel kan.
COX is dus niet "your friend in the digital age" zo als zij zelf claimen maar eerder een dome kabel boer die zijn buisness model niet op oorde heeft voor de digital age.
Omdat de abbonementen dan weer stijgen en mensen vinden dat niet leuk :)
Het lijkt erop dat dit in de praktijk gaat betekenen dat ze je een 20Mb/s-verbinding verkopen en daarna, op het moment (de momenten) dat je hem wil gebruiken, gaan afknijpen op 10Mb/s. Dat is zoiets als zeggen dat de BMW M3 350 km/u kan, terwijl hij voor eigenlijk iedereen is gelimiteerd op 250.
Nee je kunt gewoon je snelheid halen, alleen met verkeer van hogere proiriteit. Dus als je P2P wordt afgeknepen ga jij er naast lekker VOIPen om toch je maximale bandbreedte vol te trekken.
Tss.

Als je 20mbit verbindingen levert dan moet je ook 20mbit aankunnen op normale momenten. Ik snap dat als het druk is dat het niet lukt (vergelijk oud en nieuw met mobieltjes). Daarnaast vind ik het ook raar dat zij bepalen wat belangrijk is. Een download via p2p kan wel degelijk belangrijk zijn, als je bijvoorbeeld je systeem opnieuw wilt installeren met de nieuwe built van linux.
Ik hoor alleen maar "je betaalt er toch voor"..... Maar dat is niet juist. Als iedereen zo veel zou leechen als de top 5% doet dan kon het niet voor de prijs waar het nu voor wordt gedaan.

We zijn verwend hier in NL met die enorme bandbreedte wat we hebben.

Ik zie er geen probleem in als mijn downloads wat langzamer gaan ten gunste van VoIP, surfen of andere tijds kritische zaken.

Verder is de bevolkingsdichtheid vast veel lager in de VS. Logisch dat ze geen glasvezel hebben liggen naar elk gehucht.
Er zit een groot verschil tussen tijdkritisch en belangrijk.

Die download van die Linux built kan je prima schedulen zodat ie 's nachts loopt wanneer die provider bandbreedte over heeft.

Dat kan je niet doen met een telefoongesprek via voip.


Klaarblijkelijk hebben de p2p gebruikers niet zelf het benul om hun downloads 's nachts te schedulen en op de piekuren ('s avonds) zelf hun p2p verkeer te beperken.
Als je 20mbit verbindingen levert dan moet je ook 20mbit aankunnen op normale momenten
En wat noem jij een normaal moment? Om 8 uur 's avonds wanneer heel nederland ook aan het browsen is en zijn mail aan het downloaden?

Dus eigenlijk bedoel je dat je 20mbit moet aankunnen op momenten van congestie?
De provider moet dus gigantisch veel overcapaciteit kopen omdat jij een download die je prima 's nachts had kunnen plannen perse tijdens piekuren op maximale snelheid wilt kunnen doen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True