Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 17 reacties
Bron: SBE

SBE, een bedrijf dat vooral bekend staat om zijn leveringen van netwerkcomponenten aan OEM's, kondigt aan dat men binnenkort zal aanvangen met de ontwikkeling van gigabit netwerkadapters die voorzien zijn van een HyperTransport-interface. HyperTransport is een supersnel intern busprotocol, ontwikkeld door AMD, dat concurreert met Intel's Arapahoe (ook wel 3GIO of PCI-Express genoemd) en Infiniband om dé toekomstige busstandaard te worden. Voorlopig echter lijkt Arapahoe de beste kansen te hebben. Het op de markt verschijnen van high-end netwerkoplossingen die gebruik maken van HyperTransport, zoals SBE's toekomstige adapter, zou AMD's standaard een sterkere voet tussen de deur kunnen bieden:

wireless.network HyperTransport technology is designed to transfer data at 6.4 Gigabytes per second and is approximately 48 times faster than PCI, 6 times faster than PCI X and 5 times faster than Infiniband using 4 channels. HyperTransport technology is designed to provide more bandwidth than current interconnect technologies, use low-latency responses, be compatible with legacy PC buses, be extensible to new Systems Network Architecture buses, be compatible with existing and future operating systems and be software compatible with PCI. Its electrical design improves reliability and reduces board design complexity.

"SBE's Gigabit HyperTransport adapter makes us one of the first OEM suppliers to offer such an interface," said Dan Grey, senior vice president of sales and marketing for SBE. "This is our first product in an evolution of post-PCI technology " Grey concluded.
Moderatie-faq Wijzig weergave

Reacties (17)

Op zich is deze ontwikkeling heel interessant, vooral nu de bottleneck van de PCI-bus er niet meer is. Blift de "beperking" van de zendende en ontvangende systemen, zodra er bulk data op een "hele snelle" harddisk opgeslage moet worden, loop je tegen de grenzen daarvan aan. Theoretisch kun je met Gigabit-lan 125 MByte/s oversturen, maar waar "laat" je dat, als de snelste harddisks maar 50 MByte/sec kunnen opslaan. Daar dienen dus ook snellere versies van te komen B-)
Meestal worden er dan raid-arrays gebruikt in raid-0 (striping), dan heb je dus bij 2 schijven 2x50Mb/s.

Natuurlijk is het ook mogelijk om een raid-5 array te gebruiken, alleen dan heb je meer hdd's nodig.
Meestal worden er inderdaad Raid arrays gebruikt, maar geen Raid-0.
Raid-0 betekent namelijk. Alles weg bij 1 hd crash.
Dus een Raid-0 van 5x120GB=600GB is gewoon WEG als er 1 schijf uitvalt.
Zijn snelheid en hoeveelheid zeer belangrijk en veiligheid helemaal niet, dan wordt Raid 0 toegepast.
Zijn veiligheid en hoeveelheid zeer belangrijk en snelheid wat minder, dan wordt Raid-5 gebruikt. 5x120GB=600-120GB (parity)=480GB effectief. Minder snel maar wel veilig.
Zijn snelheid en veiligheid zeer belangrijk en hoeveelheid minder, dan krijgen we Raid-10.
Bijv. 6 schijven. 3x120GB=360GB en dat in Raid-1 (mirror) Dus effectief 360GB beschikbaar, maar wel de veiligheid van een Raid 1 systeem en de snelheid van een Raid 0. Het wordt ook wel Raid 1+ 0 genoemd.
Dat een RAID-5 minder snel is dan een RAID-0 is zeker niet per definitie waar. Als je de extra berekeningen die nodig zijn voor een RAID-5 door een hardware controler laat doen maakt het waarschijnlijk heel weinig uit.
Gaan we nou mierenneuken. Doordat er parity informatie moet worden gemaakt en geschreven zijn en dus ALTIJD extra drive acties nodig en is het dus minder snel dan wanneer die acties niet nodig zijn.

Het is en blijft dus langzamer dan Raid 0, vooral bij write acties.
Maar die 'extra' acties gebeuren op een extra schijf, het schrijven en lezen van de parity-bits gaat parallel met de data-bits. En wat betreft het maken/lezen van pariteitsbitjes, als je denkt dat dat veel tijd kost wordt het tijd je lessen digitale techniek weer op te halen...
Theoretisch kun je met Gigabit-lan 125 MByte/s oversturen, maar waar "laat" je dat
Een lekker groot interngeheugen doet natuurlijk ook wonderen. Hypertransport kan nu al 800Mb/s verplaatsen dus moet makkelijk lukken met 125Mb/s. En je geheugen kan het dan even vast houden totdat je hd klaar is met schrijven.

Wat me trouwens ook leuk lijkt is interngeheugen delen over je netwerk met dit gigabit lan. Het is alvast ruim 2x zo snel als je hd. 8-)
Een lekker groot interngeheugen doet natuurlijk ook wonderen. Hypertransport kan nu al 800Mb/s verplaatsen dus moet makkelijk lukken met 125Mb/s. En je geheugen kan het dan even vast houden totdat je hd klaar is met schrijven.
Je wilt dan dus het intern geheugen als buffer gebruiken. Dan doet de snelheid er niet zo zeer toe, als wel de grootte. Stel dat je daadwerkelijk 125 MB/s binnenkrijgt, terwijl je hdd maar 50 aankan. Dan moet je dus 75 MB/s bufferen, ofwel binnen 14 seconden zit je "lekker groot" intern geheugen van 1 GB vol!
Je hebt dan inmiddels al wel 1750 MB kunnen versturen, maar toch....
Wat me trouwens ook leuk lijkt is interngeheugen delen over je netwerk met dit gigabit lan. Het is alvast ruim 2x zo snel als je hd.
In verband met latencies en medium access control lijkt me dat niet echt een zinvol idee. Maar hopelijk was het ook niet serieus bedoeld 8-)
hhhm er is nix mis mee om overhead te hebben op je verbinding is net als op de snelweg is niet echt nodig om een 200pk auto te hebben maar wel verdomd makkelijk met inhaalen
het zelvde geld voor de computer pcanyware draaid een stuk lekkerder op gigabit netwerk zonder lag dan op 100kbit en als je een lekkere snele schijf in je sever hebt is net of je op je eigen schijf aan het werk bent
en als je 6 schrijven op een scsi/ide raid aan sluit hhmmm dan kan je zelf wel verzinnen of het nut heeft
Fout.
Gigabit ethernet is al interessant als fast ethernet 'te langzaam' is en niet pas al de volledige bandbreedte van gigabit ethernet te gebruiken is.
En die komen er; Serial-ATA.
Die schijnen rond de 4 maal zo snel als gewone schijven te zijn.....

.....heb ik me laten vertellen!
DUH> de verbinding.
niet de schijven dus.
De schijven blijfen opzich hetzelfde S-ata is alleen een vervanger voor de ide com.

Sneller schijven komen er hopelijk doormiddel van solid-state schijven. http://gathering.tweakers.net/forum/list_messages/572021
Data is denk nu al wat positiever zelfs
SATA omvat een connectie van maximaal 150MB/s (op dit moment). Dit is dus nauwelijks sneller dan de ATA133 bus (behoudens dat er maar 1 apparaat aan hangt)
HyperTransport is een supersnel intern busprotocol, ontwikkeld door AMD, dat concurreert met Intel's Arapahoe
Echt niet. HyperTransport is ontwikkeld als interne bus, met eventueel ook de mogelijkheid om er externe apparaten op aan te sluiten. Momenteel wordt HT gebruikt als bus tussen de north- en southbridge van chipsets (nForce en nForce2), processor-interconnect en processor-chipset-interconnect (Hammer familie), in netwerkcomponenten als routers (oa. Cisco) en nu dus als Gb ethernet poort.

Dit lijkt erg op de feature die Intel op hun 7205 chipset heeft, daar zit namelijk ook een "extra" bus op die daar alleen bedoeld is voor een (natuurlijk ook Intel) Gb ethernet poort.

Deze extra toepassing is wel positief voor HT, in plaats van weer een extra bus zoals op de 7205 (in feite is de AGP poort ook zo begonnen, toen was de PCI bus al te klein), is HT een algemene standaard die al door veel bedrijven gebruikt wordt.
[beetje offtopic] Ik vind wel dat Hypertransport verweg de mooiste naam heeft. Infiniband gaat ook nog wel, maar Arapahoe klinkt echt nergens aan. Nouja, PCI-Express/3GIO klinken dan wel weer lekker.
Het zal mij benieuwen of ze nu ook een nieuwe bus (waarmee ik dus een nieuw type slot voor een insteekkaart bedoel :)) gaan definieren. Volgens mij zou het op zich geen gek idee zijn om HyperTransport ook beschikbaar te maken voor uitbreidingskaarten. Vooral high-end hardware zal daar wel van profiteren. 19,2GB/sec naar je videokaartje... :) En het maakt het makkelijker om een procje toe te voegen aan multi-processor systemen. Stel je voor: een Opteron systeem waar je naar keuze een snelle videokaart of een extra processor in schuift. :) Klinkt wel goed :9 Bijkomend voordeel is dat de insteeksloten weer een slagje kleiner kunnen en dus makkelijker te gebruiken zijn.

edit:

Even uitgelegd wat ik met een bus bedoel...
Wil je echt 1gbit gaan werken moet je een zeer snel systeem hebben. Ik denk zelf dat je er pas wat aan hetbt met een SCSI controller in een 64bit pci slot met een Raid5 of 0 array van schijfjes met 15k toeren.

Overigens wordt dit veel belovend, gezien de toch steeds sneller wordende doorvoersnelheden van onderling verkeer danwel de interne data doorvoer.

lawe moah zo zegn: Vroeger was 10mbit super snel met een netwerkje :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True