Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Bron: Intel

Intel heeft de PRO/10GbE SR Server Adapter geÔntroduceerd, zo maken we op uit een persbericht. Later dit jaar komt er ook een LR-variant voor gebruik met single-mode- glasvezel. Uniek aan de nieuwe adapter is dat het de eerste is die aangesloten kan worden op standaard multimode-glasvezel, en bovendien voor minder dan 5.000 dollar (4.770 om precies te zijn) van eigenaar wisselt. De multimode-glasvezelaansluiting is overigens een essentiŽle eigenschap om aan te slaan bij de doelgroep. Volgens recent onderzoek van het RHK is immers negentig procent van de bekabeling in grote datacenters met dergelijke aansluitingen uitgerust. De lagere prijsstelling van de Intel PRO/10GbE SR Server Adapter is onder andere mogelijk gemaakt door gebruik te maken van XPAK, een specificatie die omschrijft hoe een tien-gigabitmodule bovenop een print gemonteerd kan worden. Bijkomend voordeel is dat de adapter relatief klein gehouden kon worden, waardoor de servers op hun beurt minder plaats hoeven in te nemen.

Intel PRO/10GbE SR Server AdapterMet behulp van deze nieuwe adapter kunnen afstanden van driehonderd meter overbrugd worden; de LR Server Adapter zal zelfs afstanden tot tien kilometer mogelijk maken. Dit maakt de SR-variant heel geschikt voor serverclusters, NAS en medische visualisaties; toepassingen waar met zeer grote bestanden gewerkt wordt of waar hoge snelheden vereist zijn dus. De LR-adapter daarentegen is vooral geschikt voor het verbinden van regionale datacenters. Tijdens het ontwikkelen is samengewerkt met Cisco om compatibiliteit te garanderen met de meest gebruikte switches. Beide bedrijven werken verder ook samen aan cursussen om IT-managers die met deze technologie willen gaan werken, te ondersteunen.

Moderatie-faq Wijzig weergave

Reacties (51)

10 Gbps = 1.25 GBps

Je hebt natuurlijk nooit 100% efficiŽncy, maximaal 80%, wat neerkomt op 1GB/s. Om dit soort snelheden bij te benen met een harde schijf moet je toch denken aan zo'n zieke setup :P zoals BalusC er een heeft, een stuk of 8 15k Atlassen in RAID 5. Dan heb je nog (maar) 600 MB/s. Dat lijkt me snel genoeg :)

Kan er overigens niet gewerkt worden met zo'n ramdisk? Zo'n HDD die een snelheid heeft van RAM geheugen, maar waar het werk toch op blijft staan als de pc uitgaat? Ik herinner me dat er een pc was voor 6000 euro die gebruik maakte van zo'n soort disk :7
Waarom denken mensen dat er alleen maar vanaf hdd's data wordt verstuurd?

Als je bijv een webpage opent, zijn die vaak gecached of worden ze gegenereerd. Dus uit het geheugen.

Als je in een rekencentrum zit, staat alles in het geheugen.
En over het algemeen is geheugen snel genoeg om die 1GB/s te vullen.

Als je file/applicatie servers gaan nemen dan heb je te maken met hdd operaties. Maar de plekken waar dit soort nics gebruikt gaan worden, zullen wel servers zijn met meerdere raid arrays of datacenters die veel in het geheugen hebben staan.

Dus niet de huis- tuin en keuken servertjes.

Dat mensen thuis vooral bestanden over het netwerk pompen betekend niet dat het overal alleen maar bestanden heen en weer sturen is.
Sommige mensen denken hier uberhaupt niet zoveel over na omdat ze netwerkengineer zijn, geen systeemengineer. Daarom stellen ze er dan vragen over :-)

Ik bijvoorbeeld.
Als je bijv een webpage opent, zijn die vaak gecached of worden ze gegenereerd. Dus uit het geheugen.
Is leuk als je alleen maar te maken heb met theoretische testen waarbij het resultaat niet bewaard moet blijven
Je zegt gecached leuk maar waarvan??? Lucht of denk je dat je ram zelf dingen verzint om te gaan doen. Nee het wordt gecached van je HDD naar je geheugen.

Je hebt het over een reken centra. Ok tuurlijk kan je alle berekeningen direct vanuit het geheugen sturen maar als je die berekening niet opslaat verdwijnt hij als de volgende aan de beurt is.

Ik vraag me toch echt af wat je in real life zou doen zonder HDD's. Ik zeg niet dat je ongelijk heb integendeel je bent 100% correct maar zonder HDD's kom je niet ver in de praktijk en daarom is het belangrijk wat je HDD setup aankan ten opzicht van je netwerkbandbreedte.
Je moet ook rekenen dat een hoop van de berekeningen door die kaart zelf gedaan wordt en niet door de CPU zoals je met Realtek kaartjes gewoon bent
Inderdaad, er zit wel een stukje verschil tussen een home-user-pc interface en een interface voor professioneel gebruik.

Een partij met een grote behoefte aan hoge netwerkperformance koopt alleen spullen die alles in dedicated hardware doen en dat kost uiteraard ook een stukje meer.
ramdisk en eigenlijk voor berekening zullen vooral de dingen zijn waarmee je dit ding gaat vullen.
in datacenters en zeker clusters moeten als die CPU's met elkaar communiseren, dat gebeurt dus via deze netwerkkaart.
De mate van efficiency hangt erg af van je hardware.

Een Cisco krijgt inderdaad geen 10 miljard bitjes per seconde van a naar b, die houdt op ergens tegen de 9.5 miljard bitjes.

Een Juniper pompt er daarentegen ook echt 10 miljard per seconde doorheen.

Wat bedoel je verder met efficiency? Op welk niveau? Binnen het netwerk vul je die 10G helemaal op, dat je daar op applicatieniveau minder van overhoudt heeft niets met netwerkefficiency te maken maar met allerlei tags en headers om dingen uit elkaar te kunnen houden. Dat zou ik ook niet echt een efficiency verlies willen noemen, het zijn namelijk allemaal noodzakelijke bitjes om tot communicatie te komen.
Veel te generaliserend.
Hoezo denkt met direct dat er files over en weer worden gestuurd? Dit soort verbindingen worden toegepast om grote rekencentra met elkaar te verbinden, om zo meer CPU's aan elkaar te koppelen (Bij Wetta Digital hebben ze zoiets gedaan). Disk acces is dan minder belangrijk. Er wordt vooral veel data heen en weer gepompt, en alles blijft gewoon in de geheugens van de clusters die achter zo'n bakje staan.
Heu, ik ben niet zo thuis in de servers maareh.

Trekt je PCI bus dit, en bestaan er harddisks die hier iets mee kunnen of kan dat met een raid array, ofzo?
ooit gehoord van 64 bits PC bussen in servers ??

die kunnen dit hebben :) :)


@Plain Stupid - de kaart zal niet 5000 dollar kosten, denk alleen dat een flinke switch (ivm de benodigde backplane) richting een lekkere 13000 euro ofzo zal lopen.

Als ze al de backplane van de HP 4108 (73 Gbit) weten te verslaan :P

dat weten ze dus
HP ProCurve Routing Switch 9315m (J4874A)
Latency: <7 Ķs (FIFO)
Throughput: 345 mpps (64-byte packets)
Routing/Switching capacity: 480 Gbps
Address table size: 64,000 entries
als ik 133mhz keer 64bit doen krijg ik 8.5gigabit
De server PCI 64 bit heeft 2x de grootte van de 64 bits versie, ik weet alleen niet precies of deze nou ook nog andere specificaties had dan de normale versies. Zal wel even zoeken :)
Gepost door Triple-S - woensdag 5 mei 2004 - 12:08 Score: 1
Thx man.... interessante info, kon het zelf niet zo snel vinden :)
PCI 32bit, 33mhz = 132MB/s
PCI 64bit, 33mhz = 264MB/s
PCI 32bit, 66mhz = 264MB/s
PCI 64bit, 66mhz = 528MB/s

PCI-X 133 = 1 GB/s
PCI-X 266 = 2.1 GB/s
PCI-X 533 = 4.2 GB/s

PCI-X is volledige downwards compatible met PCI

Dan komt PCI Express maar is alleen softwarematig compatible met PCI.
PCI Express is gebaseerd Serial I/O techniek.
1 PCI Express Lane zou 2.5 Gbit(!)/s aankunnen, kun je je voorstellen wat 32 PCI Express Lanes gebundeld kunnen .... :)
Maar dat zijn dan toch sustained transfer rates?

Ik neem aan dat die kaarten ook een buffer hebben waar ze ontvangen data in opslaan. Dan kun je dus veel sneller data ontvangen dan de PCI bus aan kan, tot de buffer vol is.

Maar is dit echt relevant, ik bedoel; in welke omgevingen kom je nu 1 server tegen die 500mb/sec moet afleveren? Daar moet je nog een stevige server voor hebben.
Rekenclusters bijvoorbeeld kunnen behoorlijk dat data heen en weer stampen...
Je hebt ook nog PCI-X 100Mhz
Mooi gedaan, maar 1 klein dingetje:

Een PCI-bus loopt niet op 33 MHz, maar op 33,33333(en verder) MHz

Dan krijg je dus 33,33333 MHz = 33.333.333 Hz * 32 bits = 1.066.666.656 bit/s / 8 = 133.333.332 bytes/s / 1024≤ = ~127,15657 MB/s

Oftewel:

PCI 32bit, 33mhz = ~127,15657 MB/s
PCI 64bit, 33mhz = ~254,31315 MB/s
PCI 32bit, 66mhz = ~254,31315 MB/s
PCI 64bit, 66mhz = ~508,62629 MB/s

Verder:

PCI-X 133 = ~1017,25260 MB/s
PCI-X 266 = ~2034,50520 MB/s
PCI-X 533 = ~4069,01040 MB/s

@oli4100:
10 Gbps = 1.25 GBps
Nee, 10 Gbps = 10.000.000.000 bits / 8 = 1.250.000.000 bytes / 1024≥ = ~1,164 GB/s

Mja, ik neuk mieren..
Maar ach, who's counting? :+
ja en dat bundelen dat kan dus niet met serial i/o lijntjes :-) het hele voordeel van seriŽle ipv parallele dataverbindingen is dat er niet veel datalijnen naast elkaar liggen die elkaar interfereren. juist omdat er bij seriŽle verbindingen geen (minder) interferentie is van andere datalijnen kan de snelheid zo hoog zijn.
als ik 133mhz keer 64bit doen krijg ik 8.5gigabit....

@ Neorej
in bv datacenters worden er ook veel resulataten van berekeningen verstuurd, en natuurlijk data om de berekenen te doen ect. en het grootste deel gebeurt allemaal vanuit het gegeugen.
in een beetje flink kluster systeem krijg je die 10Gb/s wel vol. of zal je iniedergeval teweinig kunnen hebben aan de oude 1Gb/s
8.5 gigabit is misschien niet het maximaal theoretisch haalbare op zo'n lijn, maar ťťn 10Gbit- kaart is nog altijd een stuk handiger dan acht of negen losse 1Gbit-kaarten. PCI-X 2.0 en/of PCI Express x4 (en hoger) zullen in de nabije toekomst wel genoeg bandbreedte kunnen leveren. De interface naar het moederbord lijkt me niet het moeilijkste onderdeel om aan te passen.
Er is ook zoiets als 66 MHz 64 bits :Z (spuit 11)
(edit ok reactie waar deze post een reactie op was is weg-gegemod. nu ziet het er raar uit, want ik praat tegen mezelf ;) )
ja dan komt je uit op de helft daarvan : 4.25gb/s
133 vs 66.

ik gebruikte al de snelste PCI bus waarvan ik weet dat ze bestaan de 64bit 133mhz bus.

spuit11... pfff
edit... te laat
Is niet gewoon PCI he (kijk plaatje)
erg duur maar ik kwam iets tegen voor de 9300 rack switch (jaja de duurste wederom)

HP ProCurve 9300 2-Port 10 GbE Module (J8174A)
Single-slot module provides two ports 10 GbE connectivity

Ports
2 open 10 GbE XENPAK transceiver slots
Duplex: full

dus bij deze is te melden dat de switchmodules verkrijgbaar zijn :)

ook zijn er voor de lege modules, inpluggers verkrijgbaar voor 10 Gbit geintjes
Als ze al de backplane van de HP 4108 (73 Gbit) weten te verslaan
oops.... bij deze meer hierover

HP ProCurve Routing Switch 9315m (J4874A)
Latency: <7 Ķs (FIFO)
Throughput: 345 mpps (64-byte packets)
Routing/Switching capacity: 480 Gbps
Address table size: 64,000 entries


dus alles is verkrijgbaar om een gigantische backbone aan te leggen :) :) :)

edit:
even gek doen prijslijstje

De behuizing $11,610.54
De besturende module $33,881.90
2e Voeding $2,584.91
10 Gbit module onbekend

dus lekkere prijzen bedenkende dat er ook nog 100 mbit modules in komen voor bijv werkstations, gigabit modules en 10 gigabitmodules.

hmmz.... vette $ 60,000 dus.... oeiiiii....!!!
Die 10G module, de xenpack, is niet zo gek duur, die zijn er rond zo'n 3500 euro.

Die dingen zijn universeel, hetzelfde als je met 1G hebt met gebics.
als je 5000 aan een netwerkkaartje kan besteden, kan je idd ook best wel een dikke ramdrive gebruiken.
Bovendien ligt de 'doelgroep' o.a in de clustermarkt. Dwz superclusters zoals die bij virginiatech.. die draait ook op een 10Gbps netwerk. Nu weet ik niet echt veel van clusterd computing af, maar het lijkt me dat de data binnen het ram blijft zegmaar.. dus het wordt van node naar node gegooid zonder vaak op een HD te komen. Die nodes hebben meestal toch wel aardig wat ram en hebben wel meer te doen dan die zooi op de HD te pleuren als ze er toch direct weer mee gaan rekenen.
In zo'n cluster heb je altijd wel een paar raid bakken voor storage, die zou je zo kunnen maken dat ze zo'n datarate nog net wel kunnen verwerken, al zal dat niet perse nodig zijn.

Verder bestaat het netwerkverkeer uit meer dan data die je wil opslaan, zit ook aardig wat ipheaders etc etc bij.. maar dat valt misschien nog wel binnen die 80%
Ik ben benieuwd wanneer de eerste 10 gb/s netwerkswitches tevoorschijn komen :D
Die zijn er allang :-)

In je oude vertrouwde cisco 650x kan je gewoon een blade douwen die 4 10G xenpacks pakt.

En in de extreme black diamond kan je 60 10G ethernet poorten gebruiken.
Denk dat het eerst vooral gebruikt gaat worden voor point 2 point verbindingen, 10gb fiber switch zal wel helemaal nog niet te betalen/beschikbaar zijn.
Een point to point verbinding verloopt meestal van router naar router (omdat je het interface type voor de lange afstand (duur) wilt converteren naar iets wat je lokaal gebruikt (goedkoper)), routerinterfaces zijn een behoorlijk stuk duurder dan switchinterfaces.
Dit is echt mooi wat gaat de techniek toch snel,
nu kunne ze nog meer uit glasvezel halen op de backbone's
Welke Pci bus kan die snelheid nou bijbenen?
Of zie ik daar een PCIexpres aansluiting op die kaart?
http://support.intel.com/.../CS-008397.htm
Can I use the Intel PRO/10GbE LR Server Adapter or Intel PRO GbE SR Server Adapter in a 32-bit slot?
The Intel PRO/10GbE LR Server Adapter and the Intel PRO 10GbE SR adapter will only fit 3.3-volt slots. Few, if any, systems are equipped with 32-bit slots that are 3.3-volt only. Furthermore, a 32-bit 33MHz PCI slot cannot achieve more than 5% of the theoretical bandwidth of a 10-gigabit full duplex connection. We highly recommend using the adapter in a 133MHz PCI-X slot only.
Overigens een nadeel van deze kaarten is dat ze niet backwards compatible zijn (met 1 Gb). Als je het netwerk wilt upgraden naar 10 Gb moet je zowel de netwerkkaarten als switches tegelijk upgraden.
dat mag dan wel zo zijn maar de laatste mobo's die hier op tweakers voorbij gekomen zijn met pci-x erop waren veel korter dan deze slot?

http://www.tweakers.net/nieuws/32129/?highlight=pci

deze bijv. en dit zijn toch wel de mobo's waar dit kaartje voor bedoeld is lijkt me.

ik vraag me trouwens wel af wat voor frames je hiermee gaat versturen. als je te grote frames verstuurd zal dit weer de processor z'n tijd kosten in een cluster zijnde dus ik denk dat de transfer snelheid niet gigantsich hoog is maar het aantal frames dat verstuurd is wel belachelijk groot
Das PCI-Express dis de PCI-X das een heel ander ding

PCI-Express wordt voro de consument
en de PCI-X is voro Server, Workstations ed...
Als je iets af weet van Fiber Optic modules, dan weet je dat die nooit autosensing zijn met hun snelheid, ze zijn altijd maar geschikt voor 1 snelheid.
In geval dat je dat wel wilt, moet je een switch kopen met losse GBIC-poorten, dan ben je veel vrijer wat je met je sloten wil doen.
Ik snap overigens niet helemaal waarom we meer uit de glasvezel in onze backbone kunnen halen als er servers op 10Ge worden aangesloten.

Dit heeft impact op systeemarchitectuur, niet op het netwerk behalve dan dat je 10G poortblades in je switch moet gaan hangen.

Voor de backbone zal dat niet zoveel uitmaken, of je nou 10 systemen op 1G aansluit of 1 op 10G, de benodigde capaciteit blijft hetzelfde.
Ik dacht dat die dingen al een tijdje te koop zijn :?
Want hier worden ze al een tijdje gebruikt.
Verder weet ik dat er vanaf april 2003 al een 10GbE nic in huis (naast gelegen instituut) is en dat een tijdje erna de tweede is binnengekomen.
Ik weet dit een van de eerste productie modellen is geweest op die snelheid, maar ik zou toch minstens verwachten dat het commerciele publiek toch ook al de beschikking moet hebben kunnen krijgen over zulke technieken.
Dat bepaalde hardware gebruikt wordt voordat het te koop is, is toch niet zo vreemd?
Dat heet testen, dacht ik.
Ik wist wel dat het voor de test was destijds, maar dat het meer dan een jaar duurt om het op de markt te krijgen verbaasd me.
Vergeet niet dat voor een testopstelling het eigenlijk niet uitmaakt wat de productiekosten, gebruikersgemak en de afmetingen zijn. Voor massaproductie wel.
Vergeet niet dat voor een testopstelling het eigenlijk niet uitmaakt wat de productiekosten, gebruikersgemak en de afmetingen zijn. Voor massaproductie wel.
Tja, das waar ook ... het komt voor dat onderzoeksteam nog wel eens hardware te leen krijgen voor een experiment/test of gereduceerde kosten. Intel en HP heeft hier bijv. een handje van.
Dat klopt idd, hij staat ook al vrij lang in de Linux 2.6 Kernel geloof ik (en wellicht al eerder.)

Onder:

Device Drivers >
Networking support >
Ethernet (10000 Mbit) >
Intel(R) PRO/10GbE support
Ik kan me niet voorstellen dat die dingen zo ingewikkeld zijn dat ze 5.000 dollar moeten kosten.

Ok het zal wel heel wat onderzoekskosten hebben gekost maar damn....... das een boel geld :9~
Tja, de duurste en snelste dingen moeten logischer wijs meer geld kosten, zeker van een bedrijf als Intel. Het is een soort van garantie dat je het snelste hebt zeker :z
Fibers zijn altijd al duur geweest, nu nog steeds.
Voor een 100MBit (toch al produkten die al heel lang bestaan) Fiberkaart moet je nog altijd boven de 250 euro moet betalen. (sweex en zooi niet meegerekend :P)
Nu alleen nog een datacenter met een paar racks met servers en men is er :-)
heeft dat ding een passieve koeler eropzitten, of lijkt het zo? :?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True