Ethernet-alliantie zet 1,6TbE op zijn roadmap

De Ethernet Alliance heeft zijn roadmap bijgewerkt met mogelijke standaarden voor 800Gb/s- en 1,6Tb/s-snelheden. De specificaties voor de snellere ethernetsnelheden moeten ergens tussen 2020 en 2025 gereed zijn.

De Ethernet Alliance richt zich met de komende standaarden op gebruik door service providers, die ethernet kunnen blijven gebruiken voor integratie in hun infrastructuren met routers, optical transport networks en backhaul voor draadloze netwerken.

De alliantie specificeert niet hoe het tot de 800Gb/s- en 1,6Tb/s-snelheden denkt te komen, maar beschrijft wel in algemene zin dat snelheidsverbeteringen gerealiseerd worden door een combinatie van verschillende modulatietechnieken en het verhogen van het aantal lanes.

In combinatie met on board optics zou ethernet zo tot 16 lanes kunnen komen. Momenteel is 400Gb/s de hoogste snelheid voor de kabeltechniek.

Ethernet roadmap 2018Ethernet roadmap 2018

Door Olaf van Miltenburg

Nieuwscoördinator

14-03-2018 • 17:04

123

Reacties (123)

123
120
54
4
0
54
Wijzig sortering
Ik verbaas me tot op de dag van vandaag erover hoe 10gb koper nog steeds niet voor thuisgebruik mainstream en betaalbaar is. Te weten: 1gb over koper is er al zo lang. Ik beweer niet zozeer dat hier een noodzaak in bestaat, enkel dat ik door technologische ontwikkelingen gedacht had dat er inmiddels allang el cheapo 10gb pci-e kaartjes zouden zijn, eenvoudige switches a-la tp-link voor weinig. Maar niets van dit alles. De stap naar 10gb voor thuis is een erg dure, terwijl zaken als bekabeling hier allang betaalbaar is. Denk dat de meeste enthousiastelingen wel tenminste cat6e in huis hebben liggen, gezien cat7 allang vanaf de rol zo voor weinig te koop is.

Overigens trek je met een redelijk modern systeem 1gbit best vlot dicht, bijv copy van ssd naar nas oid.
We hebben al zo lang betaalbare autos die zo'n 200 a 250 km per uur kunnen rijden. Zelfs mijn oude fordje kan dat. Wanneer krijgen we nu betaalbare autos die 500 km per uur kunnen doen ?
Die auto's krijg je zodra je analogie ook maar ergens op slaat. (Lees: never)
Het antwoord is: sneller kost geld. En de kosten zijn blijkbaar niet evenredig met de verbetering.

Dat gaat op voor autos. Maar misschien ook voor 10Gig ethernet. Net als CPUs. Lang hebben we iedere 2 jaar 2x zo snellere CPUs gehad. Tot we bij de 3 GHz kwamen. Toen ging het opeens minder snel. We zijn nu 10-15 jaar later, en we zijn van 3 GHz naar 4.5 GHz gegaan.

Iets soortgelijks gaat blijkbaar ook op voor Ethernet.
Van 10 Mbps naar 100 Mbps duurde 20 jaar. Van 100 Mbps naar 1 Gbps duurde slechts een paar jaar. Maar nu gaat de vooruitgang trager. En dan zijn dingen duurder dan je verwacht.

Ik zal je een getal geven.
Als je 10 Gbps doet, dan duurt het 51 nanoseconden om een pakketje van 64 bytes (512 bits) binnen te krijgen. In 51 nanoseconden kan een 4 GHz cpu ongeveer 200 instructies uitvoeren. De snelste simpelste instructies. Als je iets meer complex wilt doen, dan kost het meer dan 1 klok-cycle. En stel je wilt iets uit RAM lezen. Dat kost al 100 nanoseconden.
https://gist.github.com/jboner/2841832
Je gaat nu misschien begrijpen dat de stap van 1 Gbps naar 10 Gbps misschien toch niet zo simpel is als je dacht.
Daarom is rdma ook bedacht. Om te voorkomen dat een cpu geheel dicht wordt getrokken met alleen de netwerkverbinding en niets nuttigs verder doet.
Eigenlijk klopt het hele verhaal niet
Het antwoord is: sneller kost geld. En de kosten zijn blijkbaar niet evenredig met de verbetering.

Dat gaat op voor autos. Maar misschien ook voor 10Gig ethernet. Net als CPUs. Lang hebben we iedere 2 jaar 2x zo snellere CPUs gehad. Tot we bij de 3 GHz kwamen. Toen ging het opeens minder snel. We zijn nu 10-15 jaar later, en we zijn van 3 GHz naar 4.5 GHz gegaan.
Een 8600K / 8700K met HT uit doet 5200 Mhz op alle cores (zonder delid). Verder is Mhz al jaren geen relevante maatstaf meer. Dat was het al niet toen AMD met de Athlon XP kwam en van ellende vervolgens de naamgeving maar geen matchen met de naamgeving van Intel; 1400 Mhz AMD werd 1600+.

Als je kijkt naar de totale rekenkracht van cpu's dan hebben we ook de laatste jaren enorme sprongen gemaakt. Des te meer wanneer je ook kijkt naar wat er mogelijk is met AVX (skylake AVX is 2x sneller dan sandy bridge AVX). Dus die vlieger gaat niet op. Je beschrijf een fenomeen dat niet bestaat.
Iets soortgelijks gaat blijkbaar ook op voor Ethernet.
Van 10 Mbps naar 100 Mbps duurde 20 jaar. Van 100 Mbps naar 1 Gbps duurde slechts een paar jaar. Maar nu gaat de vooruitgang trager. En dan zijn dingen duurder dan je verwacht.
Als je kijkt naar het plaatje bij het artikel dan zie je dat er eigenlijk nauwelijks geen sprake is van een afname van de ontwikkelsnelheid. Tussen 10, 100 en 400 is best een lijn te trekken. Dus ook dit is de verklaring niet.
Ik zal je een getal geven.
Als je 10 Gbps doet, dan duurt het 51 nanoseconden om een pakketje van 64 bytes (512 bits) binnen te krijgen. In 51 nanoseconden kan een 4 GHz cpu ongeveer 200 instructies uitvoeren. De snelste simpelste instructies. Als je iets meer complex wilt doen, dan kost het meer dan 1 klok-cycle. En stel je wilt iets uit RAM lezen. Dat kost al 100 nanoseconden.
https://gist.github.com/jboner/2841832
Je gaat nu misschien begrijpen dat de stap van 1 Gbps naar 10 Gbps misschien toch niet zo simpel is als je dacht.
Op 'ons' AMS-IX kunnen we 27 Tb/s verwerken. Het enige waar dit mee te maken heeft is een ouderwets kip/ei probleem. Zolang de vraag naar 10 Gbps producten laag is zal de schaal laag zijn en de kosten hoog. Aquantia heeft met AQC-107 een 'betaalbare' chip op de markt gezet. Echter dan praten we nog steeds over +- 115 euro voor de pricewatch: Asus XG-C100C. Ondertussen beginnen er wat moederborden te komen met ingebouwde 10 Gbps. Maar dat zijn dan borden van 300+ euro. De 10 Gbps zal pas echt doorbreken wanneer Intel het standaard in zijn chipset opneemt. Helaas is dat bij Coffee lake opnieuw niet gebeurd.

Vergeet niet dat je vroeger zo 100 euro kwijt was aan een 1000 Mbps switch. Tegenwoordig heb je een D-Link 5 port switch voor 11 (!) euro. Betaalbare 10 Gbps switches zijn er nog niet. Zo lang Intel niet in beweging komt kan dat nog wel even duren...

[Reactie gewijzigd door sdk1985 op 27 juli 2024 22:29]

Je hebt het hier echter puur over latency, niet zozeer over doorvoersnelheid...

Een trunk op een switch verhoogt ook de doorvoersnelheid, maar qua hardware veranderd er weinig, behalve dat je het verkeer over meerdere verbindingen simultaan leid, even heel simpel gezegd.

De meeste mensen hebben meer dan zat aan 1gbit. Dat is ook een reden waarom 10gbit nog niet massaal in opkomst is.

[Reactie gewijzigd door Fairy op 27 juli 2024 22:29]

Ik had ook niet enterprise of ander profi gebruik in gedachte, enkel een "stapje" verder in huis-tuin-en-keuken netwerk apparatuur. De pci (niet "express") realtek gigabit kaartjes waren destijds ook twijfelachtig in of ze uberhaupt 1gbit zouden kúnnen halen. Waar ik op doel is bijvoorbeeld een goedkope 10gb pci-e x1 nic. Dat je met x1 nooit 10gb haalt qua bandbreedte is duidelijk echter, een paar stappen verder dan 1gbit is natuurlijk prettig. En als er op deze manier, met low cost , zuinige switches een netwerkje te leggen zou zijn dit "in theorie" 10gb doet, maar bijv in praktijk een paar gbit doet zou al erg leuk zijn.

Dat er voor enterprise gebruik heel andere regels gelden , en deze apparatuur niet in buurt van de opgegeven snelheid "mag " komen maar keihard die bandbreedte moet kunnen halen, en dit 24/7, is me duidelijk. Ik doel hier , zoals eerder aangegeven, op home / soho gebruik. Net zoals we allemaal weten dat bijv ac2600 wlan nooit daadwerkelijk "echt" die snelheid levert, maar evengoed met ac wifi een boost over 300n kan geven...
Met andere woorden: je auto-analogie slaat nog steeds nergens op.
Dat klopt, maar ook dat maakt je auto-analogie niet kloppend.
Als ik vervoermiddel lees ipv auto kom ik al een heel eind. Ten slotte is auto ook maar een afgeleide van geautomatiseerd mobiel iets. Een vliegtuig zou je ook auto kunnen noemen. Je kunt zelfs nog een kromme vergelijking maken tussen asfalt en koper, waarbij optische vezel dan het luchtruim is.
Je hebt zeker een punt met je latere verhaal, maar je auto analogie is nog steeds een erg slechte aangezien er gewoon natuurkundige redenen zijn waarom je geen auto die 500kph gaat kunt kopen... Laat staan een betaalbare.
Als dat veilig kan en zonder navenant hoog verbruik. Als je packet niet aankomt, probeer het weer. Als je auto met 500 per uur op een vrachtwagen of andere auto knalt, tel uit de doden. Kun je het doodleuk even opnieuw proberen maar of iedereen dat okay vindt, denk het niet.
Wachten op de nieuwe Tesla Roadster 2.
Buiten mijn studierichting/werkveld ken ik echt niemand die hier wat om zou geven. Vooralsnog heb ik gewoon een draagbare SSD die vlot zat is voor de VM's die ik gebruik (tot 100GB) en dat is ook echt wel de limiet van wat ik voor mijn studie (die nogal leunt op VM's en data) nodig zal hebben. Uiteraard zal er - als ik zelf de keuze krijg - cat7 bedrading in mijn huis komen maar zelfs dan betwijfel ik de noodzaak buiten een profesionele omgeving. Dat alles is met mijn nogal niche gebruik van computers.

Lang verhaal kort, voor thuisgebruik dat ook steeds meer draadloos en mobiel wordt is hier totaal geen vraag naar en die vraag zal ook lang uitblijven. Wat je nu koopt als consument is waarschijnlijk semi-pro netwerk aparatuur die als bedrijf dan weer goed te behappen is.
Lang verhaal kort, voor thuisgebruik dat ook steeds meer draadloos en mobiel wordt is hier totaal geen vraag naar en die vraag zal ook lang uitblijven.
Dat zal wel meevallen. Immer, hoe ga je die 1.8Gb access point van je ontsluiten? Via 1Gb?
Waarom niet? 1Gb naar je NAS, 1 Gb naar je modem. Die 1.8 Gbit/s WiFi is namelijk shared medium, de 1Gb van Ethernet is per poort.
Er zijn zat NAS'jes die nu al makkelijk beperkt zijn door Gbit netwerksnelheid. Een beetje hdd haalt makkelijk het dubbele en de files zijn er niet kleiner op geworden. De mate van geduld wel trouwens.

Dus 2.5 a 5 Gbps zou zeer welkom zijn voor NAS'jes.
2x een Gbps lijntje in een switch om te voorkomen dat 2 gebruikers elkaar in de weg zitten qua performance geeft te vaak problemen van packets die wel bij de juiste host aankomen maar niet op de juiste ethernet poort.

Ander dingetje is alleen wel dat het niet mee valt om 10+ Gbps vol te trekken. Zelfs niet met veel ranzig snelle SSDs.
Dan moet je al snel grijpen naar allerlei kunstgrepen om het vol te trekken. Dus zelfs al zou je 10G leggen, dan nog zul je vaak zien dat je niet de verwachte factor 10 aan snelheidswinst kunt halen.
Het is ook niet noodzakelijk om die 10 Gb "dicht" te trekken, het gaat erom om de 1 Gb grens te passeren. Dat er voorlopig nog ruimte in zit is alleen maar beter.
Buiten mijn studierichting/werkveld ken ik echt niemand die hier wat om zou geven. Vooralsnog heb ik gewoon een draagbare SSD die vlot zat is voor de VM's die ik gebruik (tot 100GB) en dat is ook echt wel de limiet van wat ik voor mijn studie (die nogal leunt op VM's en data) nodig zal hebben. Uiteraard zal er - als ik zelf de keuze krijg - cat7 bedrading in mijn huis komen maar zelfs dan betwijfel ik de noodzaak buiten een profesionele omgeving. Dat alles is met mijn nogal niche gebruik van computers.

Lang verhaal kort, voor thuisgebruik dat ook steeds meer draadloos en mobiel wordt is hier totaal geen vraag naar en die vraag zal ook lang uitblijven. Wat je nu koopt als consument is waarschijnlijk semi-pro netwerk aparatuur die als bedrijf dan weer goed te behappen is.
Kwestie van tijd. Er zijn al Wifi acces points (of eigenlijk routers) die ver boven de 1 Gbps gaan. Daarbij heeft DOCSIS in amerika al 2.5 Gbps per huishouden gehaald. Docsis 3.1 specificeert al snelheden tot 10 Gbps full duplex (up en down). Die snelheden zal je niet morgen zien, 400 Mbps over docsis 3.0 heeft ook jaren geduurd, maar het gaat een keer gebeuren. Het zit immers in de specificatie.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 22:29]

Ik wacht nog steeds op betaalbare 2,5 en 5Gbit spullen. Moederborden met 5Gbit zijn er al, alleen nog geen betaalbare switches.
Voordeel is dat dit beide nog over cat5e gaat, wat thuis natuurlijk een groot voordeel is.
Ze beginnen te komen, maar het duurt idd lang. Mijn Threadripper systeem had standaard een 10gbit kaart bij het moederbord. 10gbit kaartjes beginnen ook steeds betaalbaarder te worden. (Heb een Intel kaartje in mijn NAS geduwd met 2 aansluiting voor onder de 175 euro)
Het zijn vooral switches die achter blijven.
De EX2300-24T van Juniper is tegen de 600 euro te leveren (incl BTW) dan heb je 4x 10Gbit. Ze hebben onlangs nog een nieuw model geintroduceerd met 8x 2,5Gbit poorten (EX2300-24MP), die is er alleen met PoE+ en daardoor waarschijnlijk aan de dure kant.
afgelopen 2 weken thuis netwerk geupdate naar 10Gbit voor thuis-lab

pricewatch: TP-Link JetStream T1700G-28TQ met 4x 10Gbit SFP+ voor 260 euro

4x mellanox 10Gbit SFP+ netwerkkaarten + DAC kabels vanaf ebay voor 200 euro totaal (tweedehands)

Helaas niet 10GbE maar wel 10Gbit :)

[Reactie gewijzigd door nightwing op 27 juli 2024 22:29]

stop maar met je te verbazen, Gigabit ethernet met cat5e of cat6 is maar maximaal 100 meter bruikbaar.
Wil je die snelheid aan een straat met 200 huizen kunnen bieden met 50% overboeken heb je 100Gb nodig in de wijkcentrale, de uplinks naar je backbone moeten die snelheden ook nog kunnen trekken en dan is 200 huishoudens nog een bescheiden straat
Ehm... Niemand heeft het hier over een internet verbinding... Gewoon thuis netwerk joh :)
In je eigen LAN lijkt 100 meter me prima. Voor de 10 gigabit verbinding met de provider is glasvezel een oplossing. Zie bijvoorbeeld https://www.tweak.nl/glasvezel/pionieren-met-10-gigabit.html
1:2 overbooking? Dat is meestal 1:40 of 1:50...
Overigens trek je met een redelijk modern systeem 1gbit best vlot dicht, bijv copy van ssd naar nas oid.
Sterker nog, copy van HDD naar HDD trek je al jaren 1000Mbit vol. Die schijven doen immers, zo lang ze nog leeg zijn, al sinds 2011 meer dan 150 MB/s (sommigen zelfs 220 MB/s). Daar heb je 1200 tot 1760 Mbps voor nodig.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 16:46]

Inderdaad, heb zelf cat7 al liggen door mijn gehele woning, maar nog geen interessante + betaalbare 10gbase-t switches gevonden... de meeste die betaalbaar zijn hebben of maar 1 a 2 10gbit poorten, of hebben enkel sfp+ waardoor nog dure modules nodig zijn..
wellicht ten overvloede: meer lanes betekent dus ook automatisch dat je standaard cat5 stekkertje niet van toepassing is en je niet hoeft te wachten op een 1Tb switch van sitecom bij de lokale mediamarkt.
Weet iemand waarom glasvezel in huis nog zo onbekend/onbemind is in consumentenland? Het eerste beste zoekresultaat op google vertelt mij dat je momenteel nog zo'n €7,50/m betaalt, wat ook best veel is, maar niet onbetaalbaar. En hoe meer interesse hoe betaalbaarder het wordt...
Glasvezel is simpelweg niet zo handig als een ethernet kabeltje voor in huis. Het is veel fragieler dus je moet er voorzichtig mee omgaan en als je hond of kat toevallig een stukje kan grijpen zal hij al gauw een breukje hebben. Met een ethernet kabel ben je veel flexibeler qua leggen en uiteindelijk doet hij exact hetzelfde maar dan goedkoper.

Zelfs in datacenters wordt de voorkeur gegeven aan koper. Dat is dan wel niet met de ethernet kabel cat6 of 7, maar met een DAC kabel (Directly Attached Copper), een kabel die dezelfde koppekling heeft als de (Q)SFP van fiber (dit zijn de modules die je nog eens nodig hebt bovenop een fiber zelf, aan beide kanten)

Als je dat allemaal optelt dan komt de prijs van fiber wel een stuk hoger, daar je altijd 2 zulke modules nodig hebt. En ze zijn zeker niet goedkoop...
En dan heb je ook nog eens het verschil in latency. Dit is nu wel niet direct van doen bij thuisgebruik, maar een ethernet kabel heeft het meeste latency. De fiber heeft wel een hogere latency dan een DAC kabel op 5 meter of minder, dit komt omdat het elektronisch signaal omgezet moet worden in licht en terug in een elektronisch signaal door die (Q)SFP modules.
Glas heeft ook wel voordelen, het is veel dunner dus makkelijker onder een plintje te prakken bijvoorbeeld. Of bij de electriciteitsbuizen er in stoppen (is immers ook veilig i.t.t. koper want niet geleidend). En je hebt ook extra beschermende versies. Mijn internet komt hier op glas binnen en hangt buiten gewoon aan het huis te bungelen (met tie-wraps er omheen zodat het niet te veel zwiept maargoed).

Je hebt natuurlijk wel een minimale buigradius en dat is voor inbouw wel vervelend. En de montage van die connectoren (en met vaste connectoren heb je weer het voordeel van het door dunne gaatjes kunnen stoppen niet)

[Reactie gewijzigd door GekkePrutser op 27 juli 2024 22:29]

Makkelijk onder een plint tot je een scherpe 90 graden bocht moet maken.
Met cat 6/7 haal je ook 10gb en die switches beginnen net iets goedkoper te worden. Denk dat een huishouden met 10gb al aardig ver kan komen.
Met bend insensitive fiber kan dat makkelijker dan met cat6 solid ;) zelfs makkelijker dan met stranded zou ik bijna zeggen. Punt is dat glas niet zo makkelijk te monteren is, als in, stekkertje eraan maken. Ook switches zijn er niet volop. Een cat6 kabel kan je wel wat ruwer mee omgaan in het algemeen maar op bepaalde manieren is single mode erg sterk.
Omdat Gigabit ethernet thuis voorlopig meer dan snel genoeg is? 1000 mbit is 125 MB/s. Welke toepassingen thuis hebben meer bandbreedte nodig dan 125 MB/s? Een bluray is maximaal 40 mbit of te wel 5 MB per seconde. Dat past 25 keer in 1000 mbit. :P
Is misschien een beetje mieren-n**ken maar:
1GbE over CAT5+ is met 8b/10b ge-encodeerd (10 bits op de lijn voor elke 8 bits data) dus het is niet 125MB/s maar 'slechts' 100MB/s.
Als ethernet daadwerkelijk 8b/10-encodering had, was 100MB/s zeker niet mogelijk. Je raakt namelijk ook nog bandbreedte kwijt aan de headers op alle netwerklagen onder de laag die daadwerkelijk jouw data vervoert. Het komt er eigenlijk redelijk op neer dat ethernet best lomp is en niet corrigeert, het is aan bovenliggende lagen om er maar wat leuks van te maken. Met netcat lukt het mij in ieder geval om rond de 110MB/s aan ruwe data te halen (150MB/s aan echte data lukt me ook wel regelmatig, maar dat is uiteraard met compressie).
Ethernet heeft 10b/8b Manchester Encoding, alleen niet in de 1000BaseT variant.

Overigens heb je daar wel degelijk foutcorrectie; 1000baseT is 125 megabaud 5-level PAM over 4 aderparen. Als je gaat tellen zie je dat 4-level (2 bits) PAM al tot 1000 Mbit/s komt; het 5de level is overhead voor foutcorrectie via Trellis Modulatie.
Ten eerste, 1000BaseT gebruikt géén 8b/10b encoding. Het gebruikt een "8b/12b" encoding (die niet echt zo heet, vandaar de aanhalingstekens). Deze worden vervolgens met symbols van 8 bits, dus 8 bits tegelijk met een symbolrate van 125 Megabaud verstuurd.
De overige 1GbE technieken gebruiken wél een 8b/10b encoding, maar met een symbolrate van 1250 Megabaud, dus voor een netto datarate van 1000 Mbps op laag 1.
Omdat Gigabit ethernet thuis voorlopig meer dan snel genoeg is? 1000 mbit is 125 MB/s. Welke toepassingen thuis hebben meer bandbreedte nodig dan 125 MB/s? Een bluray is maximaal 40 mbit of te wel 5 MB per seconde. Dat past 25 keer in 1000 mbit. :P
Je komt thuis van vakantie en je zet je foto's en filmpjes op je NAS. Je hebt al een 260 MB/s kaartje voor minder dan 25 euro. Doe je dat met 1 Gbps dan zet je meteen je hele netwerk vol tot het punt dat, afhankelijk van hoe je kabels lopen, ook Netflix kan gaan protesteren.

[Reactie gewijzigd door sdk1985 op 27 juli 2024 22:29]

En je komt iedere dag thuis van vakantie ?

Voor die 1 2 of 3 keer per jaar dat je foto's wil uploaden naar je nas ze je dit aan voordat je gaat slapen en zie daar de volgende ochtend al je foto's op je NAS.

Heb je zeg 500gb aan foto's dan duurt dat over 1gb lijntje ongeveer 80-90 minuten.
Lijk me sterk dat je voor de 80-90 minuten paar keer per jaar aan 1gb netwerk niet voldoende hebt.
Ah jij bent er zo 1 die elke dag zijn water koker tot 1.5 liter vult en elke dag gebruik maakt van het maximale acceleratie vermogen en topsnelheid van je auto en tijdens het koken altijd alle pitten gebruikt en elke liter inhoud van zijn vriezer gebruikt? ;) De vraag was welke thuis toepassing meer dan 125 MB/s nodig heeft. Niet hoeveel waarde jij daar aan toekent.

Overigens heb ik zelf mijn harde schijven in mijn nas geplaatst en als netwerk drive in Windows toegevoegd. Daarmee loop je dagelijks tegen de beperkingen van +- 960 Mbps aan. Echter het upgraden naar 10 Gbps kost momenteel nog circa 600 euro voor twee computers en een switch en dat vind ik te gortig. Zou het morgen standaard op je moederbord zitten dan zou ik het zeker gebruiken.
Welke thuis toepassing 125 mb nodig heeft en de waarde. Natuurlijk moet je er een waarde aan hangen. Als jij 1 of 2 keer per jaar iets langer moet wachten omdat je een toepassing hebt die je netwerk vol belast wil dat niet zeggen dat je daarvoor de hele snelheid in je netwerk maar moet verhogen voor die 2 uur per jaar dat je er last van hebt.
In een thuissituatie is het pure overkill.

Je geeft het zelf al aan dat de meerkosten 10gb niet opwegen tegen het gemak dat je er 2 uur per jaar voor hebt.

Daarnaast als je last hebt in je netwerk gebruik je een managed switch, die zijn betaalbaar en lossen jou probleem ook op.
Is jet pc aan het pompen naar de nas met maximale snelheid kun je op een andere pc gewoon van je internet verbinding gebruik maken zonder dat de andere pc en nas je daarmee lastigvallen.
Overigens heb ik zelf een managed switch (netgear 8 port prosafe) met daarop een bandwidth cap per poort icm met een killer NIC netwerkchip met prioriteit per app. Maar als er morgen betaalbaar 10 Gbps is dan juich ik dat toe. Zeker voor een consument moet iets gewoon werken en ziet niemand te wachten op traffic shaping.

Ik dacht dat mijn voorbeelden duidelijk genoeg zouden zijn om je te laten inzien dat je onderbouwing erg hypocriet is. Om het nog eens te verduidelijken; een gemiddelde water koker is 1.5 liter. Echter in de praktijk zal 9 van de 10 keer er bij een gemiddeld huishouden maximaal 2 koppen = 400 ml water gekookt worden. Volgens jouw logica is die 1.5 liter waterkoker waanzin omdat je 9 van de 10 keer de resterende 1100ml niet gebruikt. Dat mag jij vinden maar ik, en met mij velen, vinden het prettig om de mogelijkheid te hebben meer water te koken. Ook al doen we daar in de praktijk wellicht nooit wat mee. Dit geldt voor die netwerkverbinding net zo goed. Ik vind het prettiger overcapaciteit te hebben dan dat ik moet wachten, of dat nu 1x per jaar of elke dag is. Dat is mijn goedrecht. Ik vermoed dat dit bij andere dingen dan netwerksnelheden bij jouw net zo het geval is. Een kopje thee en koffie is ook niet van levensbelang. Dus waarom dat onderscheid maken? Dat is hypocriet.

Los hiervan telt nog extra mee dat we het hier over IT hebben en in die context kun je niet anders dan vooruit denken. Ga eens terug naar 2009 en kijk eens naar wat voor reacties je dan tegen komt over het nieuws dat Ziggo het snelste abonnement verhoogd naar 50 Mbps. Jan modaal zou prima uit de voeten kunnen met 10 Mbps. Andros in 'nieuws: Ziggo voert in juli geplande snelheidsverhoging door' Diezelfde mensen hebben nu een veelvoud ;).

Wat zijn dan die ontwikkelingen? De eerste is Docsis 3.1. Het is momenteel al redelijk krap omdat ik nu al 400 Mbit van Ziggo geleverd krijg en met de introductie van Docsis 3.1 zal dit uiteindelijk richting de 10 Gbps full duplex gaan. Ziggo verwacht omstreeks 2025 Docsis 3.1 te hebben uitgerold (en dan vermoedelijk in de 2.5 Gbps per huishouden variant zoals nu in California).

Een andere ontwikkeling zijn de wifi routers die nu al over de 1 Gbps aankunnen. Nu betaal je daar nog 300+ euro voor maar de geschiedenis leert dat dit een kwestie van tijd is voor dit gemeengoed wordt.

Los van deze ontwikkelingen is 1 Gbps al jaren geen overkill meer. Overkill is een term die alleen van toepassing is wanneer er geen applicaties zijn die de volle bandbreedte kan gebruiken. Dat was rond 2011 al niet meer het geval. Misschien nog wel wat eerder (spinpoint F1 deed al 140 MB/s als ik me niet vergis).

[Reactie gewijzigd door sdk1985 op 27 juli 2024 22:29]

Leuk verhaal waterkoker, van 10 of 20 euro.
10gb netwerk reken op 1000 euro of 150 euro.
Alles hang af van de prijs dat geef je zelf ook al aan.

De rest is toekomst en over 6 jaar zal 10gb waarschijnlijk hetzelfde prijsniveau hebben als 1gb nu. Probleem opgelost, als je tenminste als 10gb kabels hebt aangelegd en die niet meer hoeft te vervangen.
Het probleem komt duidelijker naar voren als je meeweegt dat er genoeg manieren zijn om tot 1 gbit/s te belasten en daarmee het hele netwerk belast/verzadigd kan raken. Met 10gbit/s is dat zacht gezegd moeilijk.

Zelf doe ik veel met het netwerk als het gaat om backups en iSCSI; ik houd er niet van als door het (automatisch) maken of terugzettten van een backup onverhoopt iSCSI het krap krijgt, ook voor de normale consument kan dat een voorbeeld zijn (al dan niet met iSCSI, maar bijvoorbeeld Netflix/streaming). Als het mogelijk is sluit ik het per-abuis ontstaan van zo'n situaitie dan ook volledig uit. Bij normale gebruikers kan het des te zwaarder wegen omdat die niet willen dat ze na moeten gaan waar anderen mee bezig zijn om vervolgens af te wegen of ze datgeen wat ze willen doen wel kunnen doen op laste van netwerkcapaciteit; liever hebben we dat "het gewoon werkt (zoals normaal)"
Omdat Cat volstaat, zelfs voor 10GbE en best goedkoop is.
De stap naar 10Gb hebben weinig consumenten gemaakt omdat het verschrikkelijk duur was om al je spul te upgraden hoewel daar nu gelukkig verandering in lijkt te gaan komen.
Ik denk dat mensen maar 1 stap vooruit kijken en denken als ik Cat6/7/8 aanleg ben ik klaar voor de toekomst (10GbE)
Cat 10GbE is zo stroomvretend dat het niet echt praktisch is behalve voor korte stukjes.
Huh? Wat bedoel je met stroomvretend?

5W voor koper (CAT6/7) 2,5W met SFP+

Dit is veel efficienter dan via een koperen gigabit kabel.
De 10GbE kaarten in onze server hebben een heatsink waarmee je 30-50w kan afvoeren lijkt wel. Zijn dubbel 10GbE.
In het algemeen geeft een hogere klokfrequentie in discrete componenten een veel hogere dissipatie bij gelijkblijvende technologie. Dus een veel hoger "stroomgebruik" en dus veel meer warmte om weer af te voeren. Dat is voor CPU's zo maar ook voor ethernet transceivers en alle swichting logica. Voor hogere frequenties gaat dat wel met de derde macht. Reken maar uit, 10GbE heeft een 10 keer zo hoge schakelsnelheid dan 1GbE ...

Dus zie dit niet zo snel voor thuisgebruik doorbreken..

[Reactie gewijzigd door RwinG op 27 juli 2024 22:29]

De meeste consumenten werken volgens mij zelfs niet met ethernetkabels, maar via WiFi. Bijkomend, geen enkel apparaat, zoals bvb digibox, tv, streamer, ps4,... dat ik in huis staan heb heeft een fiberaansluiting.
Heb hele huis iedere kamer met dubbel 1gb netwerkaansluiting, kabel is cat 7 dus kan nog tot 10gb als dat over paar jaar nodig mocht zijn. Voorlopig is 1gb vast snel genoeg voor de meeste toepassingen. Glas klinkt leuk maar denk intern in je huis is 1gb of later 10gb snel genoeg voor de komende 10 jaar.
Alle mobile devices natuurlijk via Wifi, maar alle "vaste apparaten" (consoles, receiver, televisie, switches, mediaspeler) inderdaad allemaal via ethernetkabels. Ook 2 aansluitingen per leefruimte.
Dat heeft er meer mee te maken dat glasvezel voor een cliënt-apparaat vaak geen nut heeft en onderwijl hogere kosten én de eis voor een extra (en duurdere) infrastructuur zou opleveren. Combineer dat met dat het leggen van glasvezel of zelfs het uitkiezen van transceivers niet voor de gemiddelde consument is weggelegd, dan wordt al snel rj45 veel pragmatischer.
glas NIC's zijn nog steeds flink aan de prijs en lastig aan te leggen. en aangezien een deftig cat6 kabeltje 10gbit doet is dat economisch veel beter goed te praten. glas is in huis meer een gimmick dan iets serieus. als je glas in huis moet hebben praat je ook echt niet meer over een consument.
Omdat het niet kosten efficiënt is, naast dat de kabels per meter duurder zijn, is alle overige hardware ook vrij duur om dit te realiseren. Full 10Gbe switches of routers zit je toch al rond de €500 en dat zijn meestal de wat simpele varianten, ook zijn de benodigde adapters niet goedkoop.

Om in een thuis situatie alles met meer dan 1Gbe aan te sluiten lijkt mij overbodig, het enige waar ik wel winst zie is een 10GBe connectie tussen/voor je NAS/Server/Switches ofzo, waarbij 1Gbe toch meer een bottleneck vormt.

[Reactie gewijzigd door Jonathan-458 op 27 juli 2024 22:29]

Naast het feit dat Glasvezel fragieler is, en dus minder handig is als je het thuis door de kleine ruimtes gaat trekken, heb je vooral in strakke bochten met glasvezel signaalverlies. Óók een kenmerk hoe kabels er vaak bijliggen in de huizen. Niet ontzettend handig dus!
Een van de problemen met glas is het monteren van de connectoren. Daar heb je nog specialistisch spul voor nodig. Daarom worden de meeste glaskabels verkocht met de connectoren eraan. Breukjes fixen is ook niet zo makkelijk en die gebeuren al snel.

Ook zijn ethernetkaarten met glas, switches enz veel duurder en heb je meestal SFP modules nodig en die zijn ook niet goedkoop.
Glasvezel is ook moeilijker om zelf te installeren, gevoeliger voor vuil en kwaliteit van connectoren.

Daarnaast is apparatuur met een glasvezel aansluiting ook niet bepaald gemeengoed en dus ook niet goedkoop, TOSLINK daargelaten.
Tjah, als je vandaag naar Cat 6A of Cat 8 kijkt dan zie je dat we toch echt wel aan de limiet van die kabeltechniek beginnen komen. De kabels worden steeds stijver en moeilijker om goed te monteren. Op een dag moet je zeggen dat het niet veel zin meer heeft om nog verder te gaan daar er eenvoudigere en goedkopere alternatieven bestaan om dezelfde of hogere snelheden mee te halen. Denk maar aan fiber.
Ik denk überhaupt niet dat dit over koper gaat ;)

Lang leve DWDM!
Vziw is er nog net een 40GBASE-T en daarna is het al niet meer CATx koper bekabeling, hooguit enkele DAC-achtige kabels maar meestal glas.

Zolang die Mediamarkt nog zelfs 100Mbit spul verkoopt hoef je nergens op te wachten :+

[Reactie gewijzigd door RGAT op 27 juli 2024 22:29]

Er zijn genoeg apparaten te bedenken die geen GbE nodig hebben, dus waarom dan toch die duurdere chip gebruiken?
Maar waarom dan een switch en router verkopen die alleen maar 100Mbit hebben ;)
Dan hoef je dus maar 1 apparaat te hebben waar je 101Mb/s op wilt en je kan het al vervangen voor iets van na de milleniumwisseling :+
100Mbit apparaten werken via dezelfde kabels op dezelfde 1GbE switches als 1GbE apparaten, waarom oude zooi nemen als huidig spul hetzelfde kost?

Edit: zie nu dat ik inderdaad niet switch/router noemde, voor Raspberries, IPcams etc. die toch nooit meer dan 100Mbit/s verstoken maakt het weinig uit inderdaad.

[Reactie gewijzigd door RGAT op 27 juli 2024 22:29]

Oh, nee, switches en routers moeten gewoon volle snelheid bieden. Maar ik doelde meer op iets als een beveiligingscamera ofzo, waarom GbE op zo'n ding hebben als FE voldoende is ;)
Logisch ook, met een gewone PC kan je zoiets niet eens vol krijgen.
dat geld alleen voor 10mbit. voor 100 en hoger zijn alle 4 de aderparen nodig.
Voor 100Mbit half duplex zijn 2 aderparen nog voldoende.
klopt, ik ga echter uit van full duplex.
Voor 10BASE-T en 100BASE-TX zijn, zowel in half-duplex als full duplex, slechts 2 aderparen nodig. Pas vanaf Gigabit (1000BASE-T) heb je 4 aderparen nodig.
100mbps is ook met FD over 2 paren te doen. Heck, sommige routers met 100mbit poorten hebben maar 4 koperpinnetjes in de connector :o
Een coax-kabel heeft maar 1 ader. Echter weten ze daar ook steeds hogere snelheden uit te persen. Zelfde geldt voor DSL. Zie daarom niet in waarom dat met een goede netwerkkabel onmogelijk zou moeten zijn. Wellicht geen 800 Gbit, maar in ieder geval meer dan 10 Gbps. Connector zal eerder roet in het eten gooien.
coax is iets heel anders dan een cat5 kabel. coax werkt met radiosignalen om het even heel simpel te zeggen. ethernetkabel (FTP) werkt met stroompjes. compleet ander principie. als je even inleest hierop zal je er ook achterkomen dat dit niet gaat werken.

[Reactie gewijzigd door flippy op 27 juli 2024 22:29]

Coax, radio en twisted-pair werken allemaal met elektro-magnetische signalen op vergelijkbare frequenties.
Het grote voordeel van coax is dat het spanningsverschil tussen binnenkabel en buitenmantel volledig geïsoleerd binnen de kabel blijft, en niet beïnvloed wordt door de wereld buiten de buitenmantel.

Een Twisted-Pair kabel probeert datzelfde probleem op te lossen door twists in elk kabelpaar, waardoor hopelijk de verstoring vóór de twist gecompenseerd wordt door een omgekeerde verstoring ná de twist. Dat werkt goed voor frequenties met een golf-lengte groter dan de afstand tussen twists. Hoegere frequenties met lagere golflengtes storen veel meer.

Om die reden is coax beter dan twisted-pair op hoge frequenties.
beide zijn dus wezelijk andere technieken.
De technieken om storing te voorkomen verschillen, maar beiden gebruiken dezelfde techniek om het eigenlijke signaal door te geven. Jouw geclaimde verschil van "radio versus stroom" is not even wrong
Het is beide koperdraad, dus zijn er theoretisch voldoende mogelijkheden.
Is coax niet een 75Ω kabel voor hoge frequenties en niet stroom? Kan het fout herinneren hoor.
dat herriner je wel goed hoor. het is een volledig andere wijze van datatransmissie.
Coax heb je op een verschillende impedanties. 50 Ohm is ook gangbaar.

Door een coax kabel loopt een wisselstroompje. Dat is ook waarom de impedantie uitmaakt. Preciezer gezegd, de impedantie is de weerstand van een oneindig lange kabel. Diezelfde impedantie kun je ook bepalen door een kabel op eindige afstand te termineren met een weerstand van dezelfde waarde (dus 50 of 75), en dan te meten met een wisselstroom.

Coax werkt ook op lage frequenties, maar zoals ik in een andere eractie al meldde is het vooral populair voor hoge frqeuenties. Dat komt omdat op hoge frequenties de goedkopere oplossing (Twisted Pair) slecht werkt.
Dank voor de uitleg. Miij geheugen werkt nog.

Volgens mij is 10Gbit wel het einde voor koper. Over zullen we moeten. Maar voor 10Gb zal het nog wel de standaard zijn voor thuis.
Ik denk niet dat GG45 en ARJ45 voor de lol zijn verzonnen.
Het valt mij op dat als consument we steeds meer in de overvloed zitten voor onze dagelijkse bezigheden digitaal. Rappe ssd’s die niet heel veel rapper hoeven te zijn, internetsnelheden waarmee we het meeste met gemak kunnen streamen, en GPU’s zo klein maar toch zo krachtig. Netwerk kabels die nu 400gb/s aankunnen (even los of een consument daarmee gemoeid is) Een interessante beweging en ben benieuwd wat dit voor de toekomst betekent.

[Reactie gewijzigd door Mic2000 op 27 juli 2024 22:29]

Ja tot je bijvoorbeeld een game/update of 4k of hoger HDR content met je zielige xDSL lijntje moet downloaden.

Met mijn huidige, 400Mbps vind ik dit al te lang duren. (+/- 40 min)

Met 1Gbps denk ik echter dat we voorlopig wel even klaar zijn en pas over 5 a 10 jaar een hoger internet snelheid nodig hebben. (vanuit consument gezien)
Kwestie van gewenning. Veel mensen vinden hun huidige internetsnelheid prima.
omdat ze niet beter kennen.
Of het niet nodig hebben. Niet ieder persoon heeft dezelfde eisen als jij. Niet alles weten kan ook heel bevrijdend werken ;)
Daar zal je tot zekere hoogte ook zeker gelijk in hebben, echter verwacht ik toch echt dat we op termijn deze snelheden ook bij de consumenten thuis nodig hebben. ivm die als maar stijgende gebruik en apparaten binnen 1 netwerk.

Ik zelf was heel scepties toen ik van 100Mbps naar 200, 300 en uiteindelijk nu 400mbps ging, echter scheelt dit ons allemaal enorm veel tijd en ook hebben wij momenteel geen QoS meer nodig om te zorgen dat alle apparaten continue genoeg bandbreedte krijgen.

Maar misschien heb ik te weinig geduld, dat kan ook.
Vanuit de consument gezien is meer dan 50/50 al redelijk overkill, je moet niet vergeten dat wij hier echt wel verwend zijn met hoge en stabiele internet verbindingen. Dat jij een update via 400mbit binnen trekt en dat al te lang vind duren zegt al voldoende.
Dat klopt, dat zijn wij zeker.

Echter moeten deze ontwikkelingen plaats vinden om onze toekomstige vraag te kunnen beantwoorden.
steeds meer gaat via het internet straks en de omvang neemt alleen maar toe.

De meeste games zijn tegenwoordig ronde 60GB a 70GB met een 50mbps lijntje duurt dit dus ruim 3 uur voordat je je nieuwe titel kunt spelen. Daarnaast belast je het gehele netwerk dus ook nog eens voor die periode, je kunt dan kiezen voor QoS waardoor het downloaden langer duurt en iedereen nog iets op internet kan doen of de rest ligt zo goed als plat.
Ik denk dat je 40 min niet komt door je bandbreedte, maar door de snelheid van de verzendende server.

400 Mb/s = als je de codering 8/10 weg laat 320 Mb/s = 40 MB/s

40 MB/s x 40 min x 60 sec/min = 96.000 MB = 96 GB.

Sorry, maar ik geloof niet dat een game - download 96 GB groot is.
Gears of war 4 is rond de 120GB, ARK rond de 100GB ex dlc en COD ook rond de 90GB geen idee of dlc daarbij zit.

Snelheid fluctueerd een klein beetje, het is niet constant 400Mbps vandaar de +/-40 min.
Je moet iets verder kijken dan je neus lang is.
Het is fijn als we thuis allemaal 1 Gbps kunnen doen. Of 1 Tbps.

Maar beeld je nu eens in dat je de KPN bent, of Ziggo. Of Proximus of Telenet.
Dat heb je een paar miljoen gebruikers, die allemaal 1 Gbps kunnen doen.
En hoewel ze dat meestal niet allemaal tegelijk doen, op volle snelheid, is de totale hoeveelheid bandbreedte die daadwerkelijk in gebruik is toch wel heel hoog.

En moeten die ISP al die pakketjes kunnen doorsturen naar andere netwerken.
Stel je heb een stad met 1 miljoen klanten. Stel die hebben allemaal 1 Gbps. Stel 1 op de 10 kijkt 's avonds video. Een stream van 10 Mbps. Dat is 100k mensen die 10 Mbps nodig hebben. Dat is 1 Tbps aan data. (Valt eigenlijk wel mee. :)) Maar hoe ga je die 1 Tbps doen ? 10 Glasvezel kabeltjes van 100 Gbps ieder naast elkaar ? Wat als je 10 van die grote steden hebt ? Dan heb je 100 kabeltjes naast elkaar nodig. Wat als mensen van HD@50Hz naar UHD@120Hz gaan ? Dan heb je misschien 50 Mbps per klant nodig. Dan heb je 500 glasvezel kabels nodig. Wat als niet 1 op de 10 tv kijkt, maar opeens 1 op de 3 ? Dan heb je 2000 glasvezel kabels nodig.

Er is altijd te kort aan bandbreedte.
Meer snelheid zal altijd gebruikt worden. Daar is geen twijfel aan.
Ik zei ook als consument ;), niet als bedrijf, want ja dan snap ik 'em ook :).

Ik geef aan dat als consument de specs van hardware nu voorbij de gemiddelde behoefte van de gebruiker gaan en er overkill is. Wat goed is want dat maakt het leveren van diensten en ontwikkelen van programma's / games overal gezien makkelijker :).

PS: Mijn neus is al vrij lang ;)

[Reactie gewijzigd door Mic2000 op 27 juli 2024 22:29]

heel goedkope technologie zorgt wel voor nieuwe toepassingen :)

Denk maar aan de GPS in je telefoon: dan vinden ze Pokemon GO uit.
Of snel internet op je smartphone: een hoop zombies op treinen dat zitten te Netflixen.
Gratis platform voor videos (a.k.a. Youtube, Vimeo, ...): compilaties van dash-cam videos, of wat-dan-nu videotjes van Jan met de pet.

Eerst heb je het niet nodig of zie je er het nut niet van in. Daarna is het standaard. Daarna *moet* je het hebben :)
We kunnen met gemak streamen omdat partijen als Netflix een gigantische trukendoos aan compressie opentrekken. Want hoewel gigabit Ethernet redelijk standaard is ken ik niemand die zulke snelheden naar het internet haalt. Daarnaast zijn deze nieuwe standaarden gericht op ISPs die niet te maken hebben met één machine die graag een snelle verbinding wil hebben. En zoals anderen al aangeven, nieuwe use cases voor dit soort technologie komen later. Het heeft weinig nut om een tof idee uit te gaan werken als je bij voorbaat al weet dat het met de huidige netwerksnelheden niet haalbaar is.
een switch met een 2.5 ( of 5gbit) uplink en een bijpassende NIC in mn NAS zou wel een leuke aanvulling zijn... net iets meer bandbreedte richting de switch :-)
Als je het nodig hebt dan zijn er een hoop switches die link aggregation ondersteunen. Dan kan je met twee of meer 1Gb kabels 1 link met hogere bandbreedte halen.
Nee, dat is niet waar link aggregation voor bedoeld is. Hoewel de meeste dit wel denken https://serverfault.com/q...terfaces-double-the-speed
Met SMB3 Multichannel kan het gelukkig wel (standaard vanaf Windows Server 2012) hoewel je daar niet LACP voor MOET gebruiken, kan echter ook geen kwaad :)
Met 1 verbonden apparaat kan je via LAG maar 1 kabel van de bond gebruiken, en gebruik je dus max 1 Gbit.

Als je met meerdere apparaten simultaan verbindt kan je heb je wel voorbeeld. Dus als je een LAG van 2 kabels hebt, en gebruiker 1 vanaf een SSD data naar de server schrijft, en hij de 1e kabel geheel gebruikt zal al het overige verkeer over de 2e kabel gaan, waardoor de verschillende verbindingen elkaar niet beïnvloeden (tenzij de 2e kabel ook geheel volgetrokken wordt door de overige apparaten).
Dat kunnen de 2 onboard Intels wel.. ;) alleen is het denk ik wel net zo nuttig om een 10GBE PCIE adapter te halen en een switch met een 10GBE uplinkpoort ;)
Met max 3 pc's in huis denk ik dat allemaal direct verbinden ook nog wel een optie is. Althans dat is wat ik heb gedaan. Met 4 stuks zou het wel onpraktisch gaan worden.
HTPC, printer, desktop, PVR, nas/router, accesspoint.

Wordt krap dan :)
Ik heb dan een linuxbox, Windowsbox, en servertje staan, direct aan elkaar met een extra 2ehands 10Gbit kaart. Htpc, printer, Playstation, laptops, allemaal wifi of naar de router.
LACP verhoogt niet de snelheid van je verbinding. En zelfs als je nu denkt 'oh, maar dat er twee aparte 1Gbps streams mogelijk zijn is toch fijn? nooit meer congestion voor de andere verbindingen als ik aan 1Gbps data overpomp naar mijn NAS!', zo simpel is het niet: LACP is statich en deterministisch, wat wil zeggen dat er niet bepaald wordt adhv de beschikbare capaciteit welke link er gebruikt wordt, maar adhv statisch parameters, zoals de AMC adressen van de zender en ontvanger.

Simpel gezegd: al heb je link aggregation aan staan, dan zal je nog zien dat het gebeurt dat 1 van je twee links ongebruikt blijft en al je data over 1 kabel gaat en gebottleneckt wordt door die 1Gbps link.

Link aggregation is pas een effectieve manier om je bandbreedte te verhogen als je problemen hebt met congestion door enkele tientallen verschillende clients. Voor thuisnetwerken is het helaas geen betrouwbare oplossing.

[Reactie gewijzigd door kiang op 27 juli 2024 22:29]

Maar gaan we de standaard MTU dan ook eens ophogen van 1500 bytes naar 9000 bytes? Want het wordt gekkenwerk om zo'n lijn te vullen met zo veel kleine pakketjes.
waarom hebben ze ooit voor 1500 bytes gekozen? :+ en waarom zou je naar 9000 gaan en niet naar ik noem wat 15.000?
Waar de 1500 en 9000 vandaan komen weet ik niet exact. Maar 9000 is een soort van standaard geworden als "Jumbo Frames" en die wordt in de meeste apparatuur inmiddels goed ondersteund.
9218 bytes max voor Jumbo frames.

Waar veel winst mee te behalen is, is de payload op 8192 bytes te zetten. Dat zijn exact twee memory pages.
Wel even goed uitrekenen hoeveel bytes je nodig hebt voor header, envelope, etc.
Ooit eens een labtest gedaan met een paar linux dozen en 8192 bytes payload was optimaal qua doorvoer.
Kleinere frames zijn belangrijker wanneer je real time data wilt versturen. Zeker vroeger met de lange snelheden neemt 1500 bytes een flinke tijd de kabel in beslag (en in die tijd deelde je de kabel ook nog echt, 1 station op kabel kon data versturen en de rest moest stil zijn). Als jouw station nou net dat station is dat 1500 bytes moet wachten en daarna een paar keer een ander station net even eerder is met data versturen heb je al gauw een merkbare vertraging (vandaar dat "vroeger" als je voice data over ethernet wilde versturen het verstandig kon zijn om de max mtu te verlagen. Grote frames zijn efficienter maar verhogen delay (en jitter).

Wat veel interesanter is, is waarom er ook een minimum frame grootte bestaat (64 bytes). Zelfs als je maar 1 byte verstuurd wordt de rest opgevuld tot 64 bytes. Dit is ook geschiedenis en hangt samen met maximum kabellengte, snelheid van de data over de kabel en het feit dat de kabel gedeeld werd en er dus collision detectie nodig was (64 bytes vullen de hele kabel, na 64 bytes vestuurd te hebben is er geen collision meer mogelijk). Zou je 40 bytes versturen dan zou een station een collision kunnen veroorzaken terwijl jij denkt dat je data netjes zonder problemen verstuurd is.
Momenteel is 400Gb/s de hoogste snelheid voor de kabeltechniek.
Dat schijnt ook nog maar net sinds eind vorig jaar te zijn :) . De eerste chips daarvoor komen nu beschikbaar, volgens HWI.
https://nl.hardware.info/...s-van-broadcom-en-marvell
Om aan in grotere bandbreedte behoeftes te voorzien specificeerde het IEEE eind vorig jaar de 802.3bs-standaard, waarvan we nu de eerste producten en chips tegenkomen.
https://en.wikipedia.org/wiki/IEEE_802.3
Mooi stukje geschiedenis.

"802.3cg 2019 (TBD) 10 Mb/s Single Twisted Pair Ethernet" _/-\o_ We gaan terug naar 10Mbit?
Ik dacht zelf even aan last-mile verbindingen (wijkcentrale naar huis) over bestaande infra, maar heb toch maar even gezocht.

http://www.ieee802.org/3/cg/objectives_10SPE_111016.pdf

De objectives spreken over automotive en industrial toepassingen.

Edit: nog even verder gezocht en gevonden: http://www.ieee802.org/3/cg/IEEE_P802_3cg_PAR_071216.pdf
Applications such as those used in automotive and automation industries have begun the transition of legacy networks to Ethernet. This has generated a need for a 10 Mb/s solution which will operate over single balanced twisted-pair cabling. IEEE Std 802.3 does not currently support 10 Mb/s over a single twisted-pair medium, and therefore a reduction in the number of wire pairs and magnetics required for 10 Mb/s twisted-pair Ethernet will provide a basis for an optimized solution in these applications.

[Reactie gewijzigd door HashIT op 27 juli 2024 22:29]

" and Associated Power Delivery " - het lijkt erop dat PoE ook inbegrepen is. Niet vreemd voor IoT toepassingen in de industriële wereld.

Op dit item kan niet meer gereageerd worden.