Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 16 reacties
Bron: C|Net

Nadat Intel al eerder zijn licht had laten schijnen over 3GIO/ Arapahoe - nu beter bekend onder de naam PCI-Express - als nieuwe I/O-standaard, is de kogel defintief door de kerk. Intel heeft zich teruggetrokken van de InfiniBand chipmarkt, volgens dit bericht van C|Net. Ook al had Intel recent nog plannen om met de Plumas Xeon-chipset support te bieden voor InfiniBand, deze plannen zijn nu afgeblazen en support zal voortaan uit de hoek van IBM en Mellanox moeten komen. Verschillende woordvoerders hadden het volgende te melden:

InfiniBand logo "We still wholeheartedly support InfiniBand," said Intel spokeswoman Diane Wilson.

Illuminata analyst Jonathan Eunice said: "It couldn't come at a worse time. InfiniBand is now at a stage where the first products are just arriving, and Intel's decisions have a heavy influence on other technology companies. When they say, 'We're going to do this,' a lot of people follow. It gives a lot of people confidence this is the way to go and invest in. When Intel backs out, the equation flips. Still, the import of the decision is diluted by the fact that Intel wasn't a heavy hitter in InfiniBand products. Intel had backed a lower-speed "1x" version of InfiniBand, but the industry has anointed the "4x" speed, which uses more wires, as the one worth adopting."

Met dank aan wolfmaniak voor de tip.

Moderatie-faq Wijzig weergave

Reacties (16)

Ik kan nergens een motivatie vinden waarom Intel Inifiniband helemaal links laat liggen, terwijl met die bus (eigenlijk is het een I/O channel) het hele platform een grote sprong voorwaarts kan maken.
De huidige PCI beperkingen (buslengte een tiental centimeters, gesharede bandbreedte) zijn mede door Intel opgeheven in Infiniband: bus -> switch -> I/O nodes.
Stel je maar eens voor wat je zelf zou kunnen doen met een bus die naar buiten toe kunt uitvoeren en daarna pas hoeft te verdelen, de huidige insteekkaarten kunnen een nieuwe vorm krijgen in hun eigen cabinet(je), meerdere CPU's kunnen eenvoudig op de bus worden aangesloten enz.
Iemand een idee welke marketing gedachte hier nu weer achter kan zitten?
In het artikel staat al een aanwijzing, Intel had de 1x versie toegepast, terwijl de industrie al klaar was met de 4x versie, die meer draden implementeerde. Dit kan betekenen dat het gewoon geen goedkope bus is.

Daarnaast is PCI weer verder doorontwikkeld, waardoor de directe vervanger van PCI niet nodig is, of er eigenlijk al is.
PCI 64bit/66Mhz is ideaal voor servers, en bied ruim voldoende bandbreedte voor RAID en Gigabit oplossingen.

PCI-X is nu al te vinden op moederborden (die te koop zijn), en bied weer de nieuwe schaalbaarheid, waardoor de noodzaak van een nieuwe standaard verder wegzakt.

Daarnaast is USB2.0 en Firewire dermate snel, dat voor thuis/kantoor gebruik er geen nieuwe bus nodig is, in de server wereld is er altijd al externe SCSI geweest en ook glasvezeltechnieken. Daar is de vraag dus eigenlijk ook al minder.
Waarschijnlijk het aloude "Divide and conquer" principe.
(Sun Tzu: "The Art of War")
3GIO/Arapahoe zijn codenamen voor de PCI Express standaard en ik denk dat het handiger is als er voortaan over PCI Express wordt gepraat, anders loop je de kans dat mensen standaarden door elkaar heen gaan halen of bij god niet meer weten wat hoe heet.

Verder denk ik dat het logisch is dat Intel eruit stapt, anders moeten ze straks 3 (PCI Express, Hypertransport en Infiniband) ondersteunen en dat is wel erg veel van het goede. Daarnaast bieden PCI Express en Hypertransport genoeg snelheid, mogelijkheden en toepassingsgebieden om Infiniband eigelijk overbodig te maken.

Dat het jammer is voor o.a. IBM is natuurlijk waar, maar die zullen nu ook wel inzien dat Infiniband ondanks de veelbelovende specificaties eigelijk overbodig dreigt te worden doordat Hypertransport binnen niet al te lange tijd veel gebruikt gaat worden (Hammer) en PCI Express wat PCI gaat opvolgen.
Ik zie het hele nut van InfiniBand EN PCI-Express eerlijk gezegd niet. Het hele idee van seriele connecties is dat het seriele connecties zijn (DUH). Maar dan wordt juist als sterke kant het feit gepresenteerd dat de kanalen gebundelt kunnen worden???

Gebruik dan gewoon een parallel bus met synchroon klok signaal, ala HT, is echt niet zo moeilijk om de de verschillende draadjes te synchroniseren zelfs met looptijd verschillen ... makkelijker in ieder geval dan een klok halen uit een serieel signaal. Gewoon een connector definieren voor HT en al die nodeloos ingewikkelde seriele crap vergeten.
Serieel vs parallel heeft zeker voordelen.

Waarbij gezegd moet worden dat men bij serieel een betere snellere verbinding maakt met hoge kwaliteit waardoor het het zelfde presteerd of beter dan Parralel maar makkelijk is te implementeren door de geringere pin count en traces op de PCB dan kan je ook makelijker Seriele connecties bundelen in tegen stelling met parallel.

Bijvoorbeeld voor 'n parallel verbinding heb je 200 pin en traces nodig voor seriel bijvoorbeeld maar 50 maar als je meerdere gebruikt heb je maar 200 pin/traces maar wel 4x de performance

zie de methode Rambus 16bit vs DDR 64bit.
Rambus is makelijk en goedkoper in Dual te implementeren dan DUAL DDR.
Qaud channel RDRAM is mogelijk, maar Quad DDR wordt al 'n duur en complexe implementatie.
Rambus gebruikt een synchrone klok en is parallel, dus dat slaat als een tang op een varken :)
Rambus gebruikt een synchrone klok en is parallel, dus dat slaat als een tang op een varken
*pats*
<zeur mode>
Zijn de leestekens op je toetsenbord defect?
</zeur mode>

Dat serieel eenvoudiger te implementeren is snap ik (minder pins, minder verbindingen nodig), maar ik snap niet waarom het sneller zou zijn. Volgens mij kan ik nog steeds via meerdere draadjes meer data versturen dan via één, toch? :?
Lijkt me sterk dat Intel iets gaat doen met AMD's technologie, daarom is het eigenlijk raar. :?
Waarom zou Intel geen AMD technologie gebruiken? AMD gebruikt zeker Intel technologie (x86). Als AMD een adequate bustechnologie neerzet, die goed gesupport is, waarom zou Intel daar geen graantje van mee pikken?

Dat wij gebruikers van de techniek graag Intel v.s. AMD spelen heeft niets te maken met wat de IT wereld doet om winstgevend te blijven. Technologie is technologie en als het iets bijdraagt aan de mogelijkheden zou je gek zijn om het te laten liggen.

Ik ben gek op AMD, maar dit betekent niet dat Intel geen goede techniek in huis heeft. Zelfs de P4 presteert met zijn brute-force-and-no-brain-methode gelijkwaardig aan de Athlon XP (give or take a few). Dus is het technologische standpunt onbelangrijk. Gevoelsmatig... dat is wat anders.

Intel ziet niet veel meer in InfiniBand, dus zal het voor Intel wel niet je van het zijn. Als anderen er wel goede producten mee kunnen maken, laat ze het op de markt gooien. Concurrentie is altijd goed en InfiniBand hoeft geen opvolger van PCI te worden, het mag ook een geheugentechniek zijn of een netwerk technologie. I-Band zal zijn plekje wel vinden.
Hypertransport en RapidIO slaan buiten het PC gebeuren behoorlijk goed aan en dat kan wel eens doorslaggevend zijn omdat dmv een PCB wijziging eenzelfde design op meerdere platforms kan draaien. Een voorbeeld waar dit momenteel al het geval is is de CompaqPCI (industriele bus) standaard en de PCI standaard die primair alleen verschillen met het type connector. Er is momenteel zelfs al een gelijk opgaan van beiden wat betreft snelheid en busbreedte (66MHz 64 bit en beiden worden uiteindelijk 133 MHz en 64bit breed).
Nou, dan maar maar wachten wat AMD's HyperTransport doet! :+
Je haalt een paar dingen door elkaar :)

Jij bedoeld HyperTreading (HTT, wat het mogelijk maakt dat een CPU als twee CPU's gezien wordt en ook zo werkt) en AMD mag dat helemaal niet gebruiken omdat ze er geen licentie op hebben, daarnaast hoeft AMD dat ook niet aangezien ze echt fysiek twee core's binnen een CPU gaan gebruiken.

Daarnaast gaan er geruchten dat AMD pas in 2003 met SSE2 ondersteunende CPU's mag komen, dus dat heeft ook niets met dit artikel te maken.
Maar oke, wel jammer dat Intel hiermee gestopt is.. Gelukkig komen er weer genoeg nieuwe technologieën voor in de plaats..
Die zijn er al, PCI Express en Hypertransport. Dat zal ook de hoofdreden zijn dat Intel met InfiniBand stopt.
Ok, deze post had ik gemist. Dus heb ik dat maar even aangepast :)

[edit] staat onder de verkeerde draad :Z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True