Realtek toont 10GbE-netwerkkaart met 1,95W-stroomverbruik

Realtek heeft een nieuwe 10GbE-netwerkkaart op Computex getoond: de RTL8127. Het onderdeel heeft volgens de fabrikant een stroomverbruik van 1,95W en maakt gebruik van de PCIe 4.0-interface. Het is niet duidelijk hoeveel de Realtek RTL8127 kost en wanneer het op de markt komt.

In een nieuwsbericht van techwebsite Cnx Software staat te lezen dat de Realtek-netwerkkaart zes Ethernet-snelheden ondersteunt: 10Mbps, 100Mbps, 1000Mbps, 2500Mbps, 5000Mbps en 10Gbps. De RTL8127 beschikt over een zelfdiagnosetool, hardware foutcorrectie en cyclic redundancy check. Realtek zal ook afgeleide varianten van de netwerkadapter op de markt brengen, waaronder de RTL8127AP voor servers, de RTL8127ATF voor glasvezeltoepassingen met een naar verluidt lager stroomverbruik van ongeveer 1W.

Realtek RTL8127 op Computex. Bron: Cnx Software.
Realtek RTL8127 op Computex. Bron: Cnx Software.

Door Jay Stout

Redacteur

24-05-2025 • 12:56

130

Reacties (130)

130
130
63
4
0
52
Wijzig sortering
Hoeveel watt gebruiken de huidige 10 GbE nic’s tegenwoordig dan? (Gemiddeld)

Moet eerlijk zeggen dat ik echt nooit naar stroomverbruik van iets kijk.
Veel meer. Zo’n 2-5 watt is normaal. Het maakt uit als je een 48p switch hebt, die kan dan al snel 2-500 watt nodig hebben terwijl een gbit switch een factor tien minder nodig heeft
Iets meer cijfers
- X520-DA2 (SFP+): Bekend als redelijk efficiënt. Idle rond 3-4W, load kan oplopen tot 5-7W per poort
- X540-T2 (10GBASE-T): Notorisch voor hoger verbruik. Idle rond 7-10W, load tot 15-20W voor een dual-poort kaart
- X550-T2 (10GBASE-T): Verbetering t.o.v. X540, maar nog steeds significant. Idle rond 5-8W, load 10-15W.
- ConnectX-3/ConnectX-4 Lx (SFP+): Staan bekend om hun lage stroomverbruik. Vaak in het bereik van 2-5W per poort onder load (met module). Idle kan rond 1-3W liggen.
- Chipsets zoals de AQC107, AQC113 (Aquantia/Marvell): Idle: 1W - 3W; Load: 3W - 7W.
SFP verbruik moet hier overigens nog wel bij opgeteld worden.


Het probleem van netwerkpoorten zit hem vaak in de conversie naar koper dat gaat gruwelijk inefficiënt en dus krijg je zulke grote verschillen. Zolang je niet naar Ethernet gaat blijft het verbruik dus lager.

Als je dat wel doet (met sfp+ RJ45 module) heb je nog wel degelijk dat hogere energieverbruik bij bijvoorbeeld de X520-DA2. Die staan nu laag omdat het verbruik hem dus vooral in die conversie zit.
Zolang je niet naar Ethernet gaat blijft het verbruik dus lager.
Dit begrijp ik niet helemaal; kan je het uitleggen? Je moet toch altijd naar een interne circuit? Dan is de conversie naar electrische signalen al gemaakt. Om dan terug te gaan naar optische signalen heb je nog +2 conversies. Dan is het verbruik toch hoger dan dat je op koper blijft? De enige reden om terug te gaan naar glas, lijkt mij, om langere afstanden te overbruggen of in situaties met veel electromagnetische straling.

(ik kan me ook nog wel een reactie van een Tweaker herinneren die met Coax ipv UTP werkte, omdat dat een lagere verbruik zou hebben)

[Reactie gewijzigd door Memori op 24 mei 2025 22:20]

De wat meer high-end netwerkkaarten en switches gebruiken SFP/SFP+ en voor het snellere spul QSFP etc.

Dit zijn slots waar je een module in kunt steken, zodat je module de conversie doet van/naar het medium wat je nodig hebt om verder te komen.
Typisch gebruik is zgn. 'optics', oftewel SFP+ modules waar je fiber in kunt steken.
Maar voor korte afstanden (bijv. tussen switches of servers en switches in 't zelfde rack) kun je ook DAC kabels gebruiken. Dat zijn SFP+ modules met een vaste kabel ertussen.
Die zijn een stuk goedkoper dan modules voor glas (fiber).

Er zijn ook SFP/SFP+ modules die naar Ethernet (vaak ook "koper" genoemd, niet te verwarren met "Copper" in de DAC kabels :) ) om kunnen zetten en dan bedoel ik dus de welbekende netwerkkabels met RJ45 connectoren.

Deze laatste soort modules kunnen echter erg warm worden.
De Mikrotik modules die ik heb die van SFP+ naar RJ45 10 Gbps omzetten worden makkelijk 80 graden, wat veel te warm is.
In mijn switches heb ik een aantal van die modules voorzien van een aluminium koellichaam en de snelheid naar 5 Gbps gezet om ze onder de 70 graden C te houden.

Toevallig heb ik laatst vrij goedkope modules via Ali Express gehaald die hetzelfde doen (en goed werken trouwens), maar die zonder terugschroeven van de snelheid en zonder koellichamen in exact dezelfde opstelling netjes rond de 50C blijven.

Nog steeds behoorlijk veel energieverbruik, zeker als je het vergelijkt met de huidige Gbps netwerken.

Via 'glas' is vaak een stuk zuiniger qua energieverbruik en volgens mij zijn DAC kabels het voordeligst. Zowel in aanschaf als ook verbruik.

[Reactie gewijzigd door TD-er op 24 mei 2025 23:01]

Bij ons gebruiken we alleen nog maar DAC-kabels, de laatste servers met 10GE RJ45 NIC's zijn uitgefaseerd; de SFP+ modules hiervoor konden niet naast elkaar, er moest altijd een leeg slot tussen.
Er zijn ook SFP/SFP+ modules die naar Ethernet (vaak ook "koper" genoemd, niet te verwarren met "Copper" in de DAC kabels :) ) om kunnen zetten en dan bedoel ik dus de welbekende netwerkkabels met RJ45 connectoren.
Ethernet over fiber is ook gewoon ethernet. 10GBASE-T is ethernet over koper, en 10GBASE-SR of 10GBASE-LR (en een aantal anderen) is ethernet over fiber.
Natuurlijk enkel bij de lijnen waar ik expliciet SFP+ bij heb gezet; de 10GBASE-T kaarten zijn reeds met RJ45.
Yes agreed. Specifiek de SFP(+) kaarten ja. Maar verbruik van de modules is niet te onderschatten. Die dingen staan er echt om bekend gigantisch heet te worden en veel te verbruiken. Op een 24p switch kan dat rustig 250W schelen (10W per poort). Dus zeker op een dual kaart kan je hier dan onder load al wel 15-20W bij optellen.
Klinkt heel logisch. Goede tip, iets om in de gaten te houden in de toekomst dus!
Heb je Anne dan voor een 24p switch.

Bij home use 5_10 poorten zet het geen zoden aan de dijk.
5 tot 10 poortjes met aan de pc kant 5 tot 10 watt (of zelfs 15 watt extra gebruik per jaar is gewoon een heel leuk bedrag dat je kunt besparen.
5 * 10 = 50 w * 2 uur 100wh, *365 dagen = 36 kwh * 26 cent = 8,5 euro per jaar. Bij 2 uur per dag van al die pc's wat al veel is. Ligt ik totaal niet wakker van en dan moeten ze ook nog eens full 10gb trekken want in idle gebruiken ze ook heel weinig.
Oh ja, hangt er vanaf hoe je telt.

Mijn pc staat gemiddeld wel wat meer dan 2 uur per dag aan. Om eerlijk te zijn, 10gbit zit niet in een low end gaming system voor savonds wat te gamen, dat zijn vaak systemen die voor productie gebruikt worden (ok er zijn uitzonderingen). Maar 12 uur per dag is niet abnormaal hier om aan te staan.

Als je dan leest dat een x540-t2 7-10W idle gebruikt, en 2 poorten heeft, dan hebben we het over 2x7x12=168Wh. Doe daar nog een simpel 4 poort switch bij, die wel altijd aan staat, voor 4x7x24=672Wh, en je zit aan 840Wh per dag. Dat is 306.6kwh per jaar, of €80. En dat is aan de laagste schatting, en nog steeds idle.

Als ik het goed lees doen deze 2W onder load? Ok, nog steeds niet boeiend voor een thuis setup, maar in bedrijven met 10+ pcs en grotere switches kan dit toch wel over een groot bedrag gaan.

Bekijk het een beetje zoals de 40W gloeilamp die ik in mijn garage vervangen heb door een spaarlamp en nu een led lamp. Ik ga die "investering" nooit terug verdienen met die 5min per dag dat de lamp aan is. Maar over heel mijn huis, straat en dorp zijn ledlampen wel een besparing.
Ik zou nu tegenwoordig ook geen nieuwe gloeilampen of spaarlampen meer kopen maar voor ruimtes waar je maar kort bent werd voor led, wel nog steeds gloeilampen aangeraden. Nu met led is het verhaal natuurlijk anders :). Zoals je zegt, die kost haalde je er gewoon niet uit voor ruimtes waar je steeds korte periodes bent.

Voor servers lijkt me dit nog wel een leuke besparing. Weet alleen niet of dergelijk kaarten daar in gebruikt worden? Die staan eigenlijk permanent te draaien dus dat loopt wel op.
Heb een Unifi 48p switch, en zal die zodra de XG serie wat betaalbaarder is wel willen wisselen.
wat heb je daar allemaal aan hangen dan thuis,

ik kom niet verder dan 3 ap, thuis server en nas en een gamepc
Ik ken ook iemand met 4 kabels aangesloten op zo'n enterprise 48p switch met POE en alles :D
Sssshhh. Don’t tell them. Ik kon dat ding gewoon goedkoop krijgen oke?
Shhh... niet doorvertellen dat de rest allemaal voor Raspberry Pi's met PoE hats wordt gebruikt.
2x nas (fallback), 2pc's, receiver, mediaspeler, 2 tv's, mini-server, console.

48 niet nodig inderdaad. Maar het liefst heb ik alles bedraad. Is toch het meest betrouwbaar.
Ik kom ook niet tot nut voor een 48p switch. Maar zit wel tegen de 20 wired apparaten. Sommige apparaten zouden prima Wi-Fi kunnen, maar zijn alsnog wired aangesloten. Als die wires er zijn, dan kost het minder energie voor dat ene apparaat. Ik heb alleen nooit de berekening gedaan van de consumptie van de switch versus de winst van geen Wi-Fi gebruiken.
Denk alleen dat merendeel daarvan geen 10gb nodig heeft zelfs 1gb is vaak al veel veer meerde deel van die apparaten.
Daar heb je helemaal gelijk in. Alleen op het lokale netwerk zou ik nu iets kunnen merken van 10 Gbps. Maar zelfs als ik mijn glasverbinding zou upgraden naar 4 Gbps, dan vraag ik mij af hoe vaak ik echt iets zou merken van de hogere snelheid. Volgens mij hebben al mijn computers 1 Gbps netwerk verbindingen. Alleen Wi-Fi zou dan theoretisch sneller kunnen zijn.
dat is serieus indrukwekkend dan dank voor deze aanvullende info
Ik kijk hooguit naar warmteproductie want dat telt wel op. Wattage is meestal wel een goede indicator.
Vermogen, niet wattage.
En het vermogen is identiek aan de warmteproductie, niet alleen een goede indicator.
1.9W is indrukwekkend en dit kunnen ze enkel bekomen door de kaart zelf efficienter te maken.
Het warmteverlies dat je ondervindt door de netwerkkabels zelf, is iets waar ze niets aan kunnen doen. Gezien ze de specs moeten blijven volgen kunnen ze bvb niet het voltage verhogen of dergelijks.
Dit betekent dat, gezien de erg lage 1.9W, er percentueel steeds meer verlies zit op de kabel zelf, dan in de kaart.
Tenzij je beweert dat er absoluut geen verlies zit op een netwerkkabel zelf, is de warmteproductie dus verdeeld over de kaart en de kabel.
Ik denk dat het voor zich spreekt dat als skillplitter warmteproductie aanhaalt, dit gaat over warmteproductie in een switch, computer of ander type device -dat gekoeld dient te worden. In deze case is het vermogen dus niet identiek aan de af te voeren warmteproductie.
En bij 1.9W denk ik ook dat een relatief groot aandeel van de warmteproductie zit op de kabel; zeker bij de langere runs.
Schijnbaar komt deze chip er in een aantal varianten:
  • De base RTL8127
  • De server-variant RTL8127AP met DASH support
  • De RTL8127AT/ATF varianten voor FTTx
Die laatste varianten, te weten een koper (AT) en een fiber (ATF) variant supporten geen 10/100 maar schijnen daarentegen weer een power consumption te hebben van ~1W wat dus nog zuiniger is dan de 1,95W van de base chip.
Three other variants will also be offered. The RTL8127AP targets servers with DASH 1.2 remote management technology support, the RTL8127ATF for FTTx (Fiber) only, without support for 10/100 Mbps speeds, and a low power consumption of about one Watt, and the RTL8127AT is similar to the former but without fiber support.

The RTL8127ATGF and RTL8127AT support either PCIe Gen 3 x2 or PCIe Gen 4 x1 for better compatibility with older motherboards.

[Reactie gewijzigd door Clueless op 24 mei 2025 15:53]

Denk dat 1st is van 1-gb chip die dieshrink heeft gehad van oudere node naar minder oude node. Wat ook gaat gebeuren met Nvme pic-e 5.0 ssd controllers next gen dieshrink dan zuiniger.
Vermogen en wattage is exact gelijk.
Wattage is strict gezien geen ding, maar heet het vermogen, dat uitgedrukt wordt in Watts of in combinatie met een tijdsindicatie om aan te geven wat het verbruik is over een bepaalde periode, bijvoorbeeld uur.
Het verschil is dat vermogen een grootheid is, en "wattage" een klungelige vertaling van een klungelig woord is wat op de eenheid baseert.

Je spreekt ook niet van het "centrimetrage" in plaats van lichaamsgrootte, het "jaarage" in plaats van leeftijd, het "Kelvinage" in plaats van temperatuur.
Dat zouden nochtans interessante metrieken zijn voor in de annalen.
Wattage is net zo'n onbestaande eenheid als kilometrage, en ohmage.
Maar mag dan een hommage wel? Samentrekking van hoeveel weerstand Homer Simpson opwekt 😜
Kilometrage is volgens mij (ondertussen) wel degelijk een gedefinieerde “grootheid” die daadwerkelijk bestaat. Wordt in de verzekeringswereld gebruikt voor kilometers/jaar. Schatting voor te rijden afstanden en dus hoeveel risico je kunt lopen.

Zie em iig wel in woordenlijsten voorbij komen.
Litrage dan ;)

Amperage en voltage zie je ook wel voorbijkomen, maar ook dat is beiden vout. Stroom en spanning zijn de correcte eenheden.
Haha doe het dan goed ;) . Ampère (A) en Volt (V) zijn de eenheden. Stroom (I) en spanning (U) de grootheden.
Potentiaalverschil (of spanning) is een maat voor de energie, per eenheid lading, die tussen twee punten in een circuit wordt overgedragen . Een potentiaalverschil van 1 volt betekent dat er 1 joule arbeid wordt verricht per coulomb lading.
Stroom en spanning zijn de grootheden.

Normaliter gebruik je voor afstand over tijd de grootheid snelheid, maar dat dekt de lading niet voor wat een verzekeraar wil weten. De wil de gemiddelde afgelegde afstand voor een jaar.


Dat is anders dan mileage @JPK1960. Want dat is totale afstand (over gehele levensduur) of verbruik/mijl.
Kilometrage is wellicht een voorbeeld van de oprukkende 'verengelsing' waaraan onze taal onderhevig is: Mileage.
Yariva Moderator internet & netwerken @ZatarraNL24 mei 2025 14:46
In deze context toevallig wel ja :)
In welke context dan niet?
Vermogen is de grootheid en Watt is de eenheid.
Wattage is een informele verwijzing naar het vermogen van een toestel.
Yariva Moderator internet & netwerken @Prince24 mei 2025 14:59
Het gaat pittig off topic maar het was een dikke vette knipoog naar andere betekenissen voor het woord. Zo is de gemiddelde Nederlander erg vermogend ;)
Ah, zo had ik het nog niet bekeken - maar inderdaad helemaal juist :)
Ik was even in een minder goede bui vanwege PussyCat zijn pedantische opmerking.
Is niks pedant aan. Gebruik van dat soort woorden trekt je hele argument onderuit. Zelfs al klopt het verder wel.
Vermogen en wattage is exact gelijk.
Ik moet hier even wat van zeggen.
Wattage is een woord dat niet klopt.
Vermogen wordt uitgedrukt in Watt.
Net als voltage, wie dat heeft verzonnen ...
Het is spanning en dat wordt uitgedrukt in Volt.
Amperage, nog zo 1.
Het is stroomsterkte en die druk je uit in Apmere.

Of noemen we een prijs ook uit Eurage?
En een hoeveelheid water is Literage?
@_Pussycat_ Vermogen is niet altijd identiek aan warmteproductie. Er kan ook energie gaan naar beweging of doorgegeven worden aan andere apparaten. Maar dat is hier meestal verwaarloosbaar.
Uiteraard. Maar hier niet.
Ligt vooral aan hou oud welke generatie nic je hebt. Veel mensen gebruiken oudere Intel X540 of X550 kaarten. Een X540 verstookt maximaal 17,4W en een X550 11,2W. Soms levert dat vooral bij de X540 problemen op omdat ze bedoeld zijn in server chassis met goed lucht doorstroming. Wat ook belangrijk is: de nieuwere kaarten zijn PCIe3 of 4. Als je een consumenten CPU hebt ben je snel door je lanes heen dan wil je niet een X540 op PCIe2 zeker niet als je een T2 of T4 model hebt want je gaat dan zeer lastig je volle snelheid op alle poorten halen.
Ik heb de uitvoering: Trendnet 10 Gigabit PCIe Network Adapter TEG-10GECTX (v1.0R) (PCIe 3.0 x4) die gebruikt 4.12W als ingebruik en maximaal 6.1W.
~5W per poort idle naar de tien toe in gebruik.

Moet er ook nog bij nemen dat de rest van het netwerk ook stroom verbruikt iets wat bij 1gbit veel lager is.
Glas is ook energie zuiniger.
Juist, leuk om dat te vermelden, maar als je dan niet ook het doorsnee verbeuik van een netwerkkaart vermeldt heeft het weinig informatieve waarde.
Mij interesseert het ook niet zolang de boel maar niet te warm wordt.
Dat is, lijkt me, ook belangrijk. Maar met twee watt zal dat wel meevallen.
Bij mij staat de pc ook makkelijk twaalf uur per dag aan.
Maar het kost niet veel. Immers, de zonnepanelen kunnen het best direct worden benut.

Nu lees ik nog niks over een prijs. Afgezien van dat die niet duidelijk is.
Het lijkt me wel een interessant kaartje.
Nu nog stabiele drivers op Linux/FreeBSD omgevingen en dan zijn we goed op weg!
Deze als een usb adapter zou echt wel leuk zijn.
Voor zelfbouw nas systemen zou zo'n zuinige kaart ook geweldig zijn.

[Reactie gewijzigd door KittySeraphim op 24 mei 2025 13:13]

Er komt ook een USB variant aan, 10 Gbit, de RTL8159. Ze hebben gekozen USB 3.2 Gen 2×2.
oooh, dit moet ik in de gaten houden. Bedankt
dat staat niet tussen de specifiek vermelde applications. Ter info: CPE's zijn volledige toestellen en geen dongles.
Idd, ben al een tijdje over naar 2,5gbps maar van een 10gbps DAS naar Diy NAS is usb /ethernet 10gbps welkom.
Ohhh, eindellijk 10gbit in pci-e x1 format?
Daar ben ik zeer zeker wel voor te porren.

Nu nog wat betaalbare switches en de dekstops en server kunnen allemaal over 10 gbit praten.
Hopen dat windows het ook eens goed gaat doen, want ik kan een 10gbit ping van windows naar de server krijgen.
De AQC113 is ook al een tijdje in 4.0 x1 formaat beschikbaar via een paar aanbieders. Gelukkig is er nu dus wat meer keus :)
Ja pci-e gen 4 x1 kan 4GB/s full duplex doen (of 1,97GB/s half duplex) dus dan is 10Gb/s (~1,25GB/s) goed te doen zelfs met overhead ;)

pci-e gen 5 x1 doet 8GB/s en gen 6 x1 doet 16GB/s ;)
Factor 2 te veel (Wikipedia: PCI Express).
PCIe5 x1 ~ 4GB/s.
Je vergeet "in each direction" erbij te nemen.
Ach zo idd ik ben fout. Sorry ... wou al dat ik niet gereplyed had nadat ik gezien had dat dit al 2 dagen oud was 8)7 8)7 8)7.
Geen probleem, je hebt wat geleerd en je onthoud het half duplex :+ Ik moest het zelf ook goed lezen want staat op de wiki niet echt duidelijk :D
Eens, dit is goed nieuws. Echter ,je zit wel aan pcie 4.0 vast als je de volledige snelheid wil benutten. Ik schat in dat je op pcie 3.0 zo'n 800MB haalt met 10Gb.
Never mind, ik haal weer eens MB en Mb door elkaar :)

[Reactie gewijzigd door Subigo op 24 mei 2025 15:03]

Ik heb een paar vrij zuinige x710 da2 netwerkkaarten (2x SFP+). Die doen elk ca 10 watt idle. Dus ik ben hier wel van onder de indruk.
SFP's moeten het signaal dan ook omzetten van electrisch naar licht, dus da's geen eerlijke vergelijking, zelfs al is het maar idle.
In de basis heb je hier gelijk, maar als de kabel langer wordt dan een meter of 50 gaat die balans omslaan in het voordeel van glas omdat het makkelijker verder draagt.
ik denk dat het verbruik in een endpoint-device en de afstand waarop het zich van de switch bevindt niet vaak parameters zijn die tegelijk in een use-case worden afgewogen als we over deze snelheden spreken ;)
De echte stroomvreters is rj45 ethernet: sfp+ naar sfp+ (dac kabel) verbruik is minder dan 1 watt. Doe je sfp+ naar ethernet en terug dan wordt het al snel 8 watt alleen voor het maken van een ethernet compatible signaal (2 transceivers). Als die 10gbit over ethernet voor minder dan 2 watt kan zoals realtek aangeeft is dat echt heel goed, maar wellicht is dit de waarde van alleen de chip zonder de transceiver.
realtek maakt de chip om elders op te implementeren (ondanks dat ze hem hier op een pcie-kaart laten zien), dus wat er daar voor en achter gebeurt/wordt verbruikt kan je hen niet aanrekenen.
DAC kan maar toch tot <5 meter ?
7 meter. Maar optische/glasvezel kabel is ook een stuk zuiniger dan alles over rj45/ethernet.
De X710 chip wordt gefabriceerd op 28 nm. Ook voor dit soort chips wordt de node steeds kleiner, daar zit een groot deel van de winst in.
Sfp zou in theorie veel zuiniger moeten zijn
Ben benieuwd of 10Gbe toch dan eindelijk naar meer consumer producten komt. Je ziet nu al steeds meer 2.5Gbe en 5Gbe naar de mid-range komen en soms zelfs op de low-end.
2.5G/bit zie ik nog steeds als een plakbandje, had nooit uit mogen komen.
Heel blij mee hier: goedkoop, laag verbruik, en lost perfect de bottleneck op van de HDD´s in de NAS
2,5G is prima als opvulling tot 10G betaalbaar wordt, maar gezien hoe lang 10G al bestaat en hoe lang we al op 1G ziJN blijven hangen als de defacto standaard, is het belachelijk dat het zo lang moet duren voor er eindelijk betaalbare en zuinige 10G chips beschikbaar zijn. Het is pas de afgelopen 2 jaar dat 10G een beetje breder beschikbaar komt op consumentenproducten, maar de prijzen ervan zijn nog altijd hoor dankzij de kosten voor de 10G chipsets, en het stroomverbruik is een veelvoud van hetzelfde product met een 2,5 of 1G aansluiting. Ik ben heel blij met deze ontwikkeling van realtek, maar dit had er al veel eerder moeten (en kunnen) zijn.
Consumenten producten hebben zelfs gigabit niet vaak nodig. De meeste mensen willen snellere WiFi, dus je USB en WiFi zitten “vandaag” tussen de 2 en 20G te lopen.

10G koper zit nu standaard in alle werkstations en budget servers en 25/40G begint langzaam aan in het budgetaanbod te lopen.

Probleem boven 25G is dat koper niet meer mogelijk is (technisch gezien kan je 25G over korte afstanden op CAT6a doen maar niemand verkoopt die NIC).

Ik zie dus niet in waarom of hoe consumenten (waar de Dell bedrijfs PC ligt) binnenkort 10G krijgt behalve dan als add-on (zoals de OptiPlex en Mac Mini). De switch fabrics boven 1/10G koper zijn vandaag allemaal 100G+ (omdat poorten toch kunnen opbreken in 4x25G) maar fiber en de kosten om dit in gebouwen te leggen zijn enorm hoog.

Eventueel wel, maar ik denk dat er over 2.5/5/10 gaat gesprongen worden naar 40/100 over coax of “iets nieuw”. Ik heb die discussies onlangs gehad met Leviton, de uitbaters van gebouwen willen CAT5e niet vervangen met incrementeel CAT6a, de industrie blijkt te wachten vanwege de sprong in de datacenters van 1/10G naar 400/800G dat er iets gelijkaardigs uit de bus komt voor edge.

[Reactie gewijzigd door Guru Evi op 24 mei 2025 17:07]

Zijn er mensen die 10gbit over koper thuis stabiel werkend hebben? Ik lees en hoor vooral verhalen / reacties van mensen die het geprobeerd hebben, maar teleurgesteld vanwege de slechte onstabiele werking hun 10gbit link in fiber uitvoeren (wat dan wel goed werkt).
Ja hoor, zelfs op Cat5E. Heel korte afstand, uiteraard. Uiteraard heb ik daar waar nodig ook glas liggen, maar het kan dus best en ook stabiel. Meeste is MikroTik spul (dus ook de SFP+ modules), maar ik heb ook wel wat chinees spul in gebruik b.v. van OnTi. Meeste is DAC.
Ik heb al een jaar of negen 10Gbit, maar in eerste instantie was dat glas en alleen in het rack. Sinds een jaar of vijf gebruik ik ook in de rest van het appartement 10Gbit basis van koper, om zo de NAS te kunnen ontsluiten op optimale snelheid. Glas is vooral geschikt voor verbindingen die niet zo vaak verstoord worden, want het breekt makkelijker. Koper heeft weer andere problemen, voornamelijk met signaalkwaliteit als je de kabel niet goed krimpt, maar het is zeker een levensvatbare oplossing. De enige problemen die ik heb gehad zijn met een bepaald SuperMicro moederbord met onboard X522 die steeds terugviel naar 1Gbit. Dat was een bekend euvel met dat moederbord dat meerdere mensen hebben gehad. Sinds ik nieuwe switches heb aangeschaft dit jaar is dat probleem als sneeuw voor de zon verdwenen. Vanwege de breekbaarheid van glas i.c.m. de beperkte ruimte in mijn appartement heb ik de glasvezel vervangen door DACs. Ik zou koper dus niet al te snel afschrijven. Maar wat zeker waar is, is dat koper wel meer energie gebruikt. Dus dat kan ook nog een reden zijn om voor glas te kiezen.

[Reactie gewijzigd door ocf81 op 25 mei 2025 01:39]

Ik vraag me altijd af hoe mensen dat thuis doen, 10G. Je hebt dan een goede kabel (Cat6+) nodig, die op de juiste manier loopt en word aangelegd. Geen scherpen bochten, geen knikken, geen verstorende kabels ernaast en volgens mij mag je de kabels ook niet trekken. En je moet natuurlijk de connector krimpen. Bij 10G komt het allemaal wat nauwer dan bij 1G
Ik heb er zelf (nog) geen ervaring mee. Ik lees her en der heel wisselende ervaringen. Ik meen te hebben begrepen dat het crimpen van rj45 connectoren (de manier waarop) en het afmonteren van einddozen ook een heel stuk kritischer komt bij 10gbit. Maar de reactie van @rikster geeft me dan weer hoop :)
Wat bedoel je precies met een scherpe bocht? CAT6A kan prima een relatief scherpe bocht om met een buigradius van 1cm en dan toch een 10GbE link in stand houden. Wat jij beschrijft leest eerder weg als wat van toepassing is op glasvezel.
1cm lijkt me veel te krap, je moet 4x de buitendiameter aanhouden, dan zit je al snel op 2cm of meer. Als je meer buigt, krijgt dat invloed op de twisting, daarmee het signaal.
Bij glasvezel is het probleem anders, als je daar te scherp buigt/knikt, is je kabel gewoon stuk.
Cat 5 en 5e kan 10gbit/s aan, daar is in de ontwikkeling van de standaard rekening mee gehouden. Alleen wordt kwaliteit van de kabels, shielding, kwaliteit van de connectoren dan een erg belangrijk iets.

Het resultaat is dat het niet mogelijk is over een lange afstand (>30 mtr).
Ik heb het al anderhalf jaar draaiend.

Hiervoor heb ik een 19" rackmount 10GBE switch gekocht, en losse 10GBE netwerkkaarten, mijn KPN router heeft een 10GBE poort die direct op de switch gaat. (Ik heb 4/4 synchroon glasvezel)

Transfer rates intern zijn geweldig, de "buitenlijn" word slechts heel zelden volledig benut, want je bent afhankelijke van wat er aan de andere kant hangt.
Netjes, en hiervoor gebruik je "gewoon" cat6e waarop je zelf rj45 connectoren hebt gemonteerd? En dat gaat goed?
Nee, ik heb gewoon kabels op lengte gekocht. 10 meter cat6a is zelfs bij bol.com nog geen 13 euro, dus moet nog wel goedkoper te vinden zijn.
Ik ben benieuwd welke offloadingen hier allemaal inzitten, en of zaken als RDMA en zo ondersteund worden. 10Gbps is niet triviaal om 'in software' te doen. Met name in Windows krijgt cpu thread 0 (ook wel eens OS-thread genoemd) het erg zwaar te verduren boven de 3-5Gbs zonder offloading. Zaken als RSS/vRSS helpen maar beperkt. M.a.w. ik hou dit in de gaten maar ben erg benieuwd hoe dit zich tegen gerenomeerde NICs verhoudt. Dat gezegd hebbende, voor thuisgebruik vind ik juist energieverbruik belangrijk, die ene keer dat je daadwerkelijk zoveel bandbreedte nodig hebt, dan maar wat meer CPU load, als het over de rest van het jaar dan relatief zuinig is.

[Reactie gewijzigd door Rataplan_ op 24 mei 2025 19:20]

Precies dit is de rede dat Realtek in het verleden een slechte reputatie had en nog steeds als budget optie gezien wordt. De drivers valt ook voldoende over te zeggen.

Mijn voorkeur is nog steeds een Intel NIC waar zaken zoals hardware offloading standaard zijn. Realtek alleen na een uitgebreide review waar niet alleen de snelheid getest wordt maar ook dat soort functies getest worden.

[Reactie gewijzigd door Ricko1 op 24 mei 2025 14:26]

Realtek is inderdaad berucht voor het herdefiniëren van de low-end.

In de Realtek driver source kom je dit tegen:
/*
* The RealTek 8139 PCI NIC redefines the meaning of 'low end.' This is
* probably the worst PCI ethernet controller ever made, with the possible
* exception of the FEAST chip made by SMC. The 8139 supports bus-master
* DMA, but it has a terrible interface that nullifies any performance
* gains that bus-master DMA usually offers.
*
* For transmission, the chip offers a series of four TX descriptor
* registers. Each transmit frame must be in a contiguous buffer, aligned
* on a longword (32-bit) boundary. This means we almost always have to
* do mbuf copies in order to transmit a frame, except in the unlikely
* case where a) the packet fits into a single mbuf, and b) the packet
* is 32-bit aligned within the mbuf's data area. The presence of only
* four descriptor registers means that we can never have more than four
* packets queued for transmission at any one time.
*
* Reception is not much better. The driver has to allocate a single large
* buffer area (up to 64K in size) into which the chip will DMA received
* frames. Because we don't know where within this region received packets
* will begin or end, we have no choice but to copy data from the buffer
* area into mbufs in order to pass the packets up to the higher protocol
* levels.
*
* It's impossible given this rotten design to really achieve decent
* performance at 100Mbps, unless you happen to have a 400Mhz PII or
* some equally overmuscled CPU to drive it.
*
* On the bright side, the 8139 does have a built-in PHY, although
* rather than using an MDIO serial interface like most other NICs, the
* PHY registers are directly accessible through the 8139's register
* space. The 8139 supports autonegotiation, as well as a 64-bit multicast
* filter.
*
* The 8129 chip is an older version of the 8139 that uses an external PHY
* chip. The 8129 has a serial MDIO interface for accessing the MII where
* the 8139 lets you directly access the on-board PHY registers. We need
* to select which interface to use depending on the chip type.
*/
https://people.freebsd.org/~wpaul/RealTek/3.0/if_rl.c
Mijn voorkeur is nog steeds een Intel NIC waar zaken zoals hardware offloading standaard zijn. Realtek alleen na een uitgebreide review waar niet alleen de snelheid getest wordt maar ook dat soort functies getest worden.
hoe presteren marvell kaarten op dat gebied
Tegenwoordig zijn alle 10G NIC’s “budget” NICs. De AQ series is al jaren oud, en niets ‘nieuw’ draait exclusief 10G (zowel bij Intel als Marvell zijn het tegenwoordig allemaal 40/100/400).

Ik vind Marvell veelal bij “appliances” dus waar je als klant niet aan het OS komt en voor die dingen zijn ze stabiel, maar Open Source support na verkoop is ver te zoeken. Dus in ‘standaard’ servers zie je NVIDIA, Broadcom en Intel omdat ze Linux ondersteunen.
maar verder wel prima voor prive use dus?

sorry had moeten verduidelijken dat ik vooral vanuit de consumenten kant zat te kijken
Afhankelijk van de kaart. De oudere kaarten:
Geen Windows 11 driver en Linux ondersteuning voor nieuwe kernels is ook vaak bagger. Echter een LTS kernel zou wel degelijk mogelijk moeten zijn. Daarmee dat het meestal aanbevolen wordt een Intel te kopen als je toch geld gaat uitgeven, als je iets gratis op de kop tikt, is het misschien wel handig om te kunnen prutsen met die dingen.

Prestaties zijn goed, 10G is al 10 jaar geen probleem voor een CPU zelfs al kan je niets offloaden, in sommige gevallen is het sneller/beter om de offloading uit te zetten (dat is het geval zelfs met oudere Intel X740 kaarten) omdat de firmware vaak trager en de standaarden niet altijd volgt (dat is meer een probleem als je LACP/VLAN/protocol offloading doet)

[Reactie gewijzigd door Guru Evi op 24 mei 2025 16:49]

dank voor je uitgebreide antwoordt hier kan ik veel mee
RDMA ga je denk ik niet vinden in zo'n budgetkaart.
Misschien een domme vraag. In verband met zuinigheid/energieverbruik van PCIe Netwerkaarten:

Is het nu zo, dat kaarten die 10/100/1000/2500/5000/10000 Mbit ondersteunen, automatisch in idle slaapstand gaan als er niks gebeurt? Of zijn ze continue op een bepaalde stand "actief" doorlopend en 1,95W verbruikend?

En wat als internet slechts 20 mb/s haalt, en de overhead ongebruik wordt, schakelt een Ethernetkaart dan automatisch van 10Gbit naar bijv 2.5 Gbit gedurende te tijd dat er toch niet meer behaald wordt? En als de snelheid weer naar boven vliegt op een andere site, automatisch meeschaalt naar 10Gbit? Een soort automatische schakeling voor de daadwerkelijk benodigde data en de ingestelde snelheid. Of is dit iets wat handmatig werkt en een maal ingesteld, op de constante snelheid en daarmee gepaardgaande "verbruik" doorloopt?
Terugschakelen van 10 naar bv 2.5 gaat niet dynamisch, er is nou eenmaal een link opgebouwd op een bepaalde snelheid. SFP in een switch ondersteunen daarnaast vaak maar één specifieke snelheid.
Maar er zullen vast wat power saving features bedacht zijn. In tegenstelling tot wat in de videokaart en cpu wereld gebeurt, is mijn optiek dat de rest van de componenten juist wèl energie efficiënt gemaakt worden. En daar ben ik overigens ook groot voorstander van. Meer optimaliseren, dan hebben we geen videokaarten die 500+ verstoken nodig.
In mijn opstelling is de kaart continu actief. Moet wel zeggen dat als mijn PC in hybernation gaat, en er uit komt, de kaart niet altijd op lijkt te pakken, tot een hardwarematige reset.
ik hoop dat er ook een goeie ASPM support is, met _nog_ lager IDLE verbruik!

"support modem standby" lijkt me al leuk op de doos.

[Reactie gewijzigd door bjp op 24 mei 2025 14:19]

Op dit item kan niet meer gereageerd worden.