Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 15 reacties
Bron: AMDZone

In een press release, die te lezen is bij AMDZone, kondigt API Networks de eerste PCI-Hypertransport bridge aan. De AP1101 is in samenwerking met AMD ontwikkeld voor maximale compatibiliteit en kan ervoor zorgen dat de HyperTransport bus verbonden kan worden met een PCI bus. Deze chip zal een belangrijke rol spelen in de overstap naar AMD's nieuwe communicatie-standaard omdat er computers mee gebouwd kunnen worden die beide standaarden ondersteunen. Voor de eindgebruiker is dit echter allemaal nog toekomstmuziek; de bridge zal bijna 200 gulden kosten als hij begin volgend jaar in echte toepassingen gebruikt zal worden:

API Networks PCI-HyperTransport bridge (klein)The AP1011 provides the critical function of connecting the HyperTransport bus on microprocessors, network processors and ASICs (Application Specific Integrated Circuits) to a wide variety of PCI devices and peripherals. The chip connects the processors to hundreds of PCI chips for graphics, networking, mass storage, SCSI, among other purposes, and the new device can work with processors featuring HyperTransport in development from such companies as AMD, Broadcom, PMC-Sierra, Nvidia and SandCraft Inc.

"The industry needs to upgrade its I/O interconnect standards to keep up with the growing demands that faster processors and faster I/O devices place on system buses," said Nathan Brookwood, principal analyst at Insight 64. "Conventional parallel buses are reaching their practical performance limits, so a conversion to some form of high-speed serial technology is inevitable. HyperTransport technology offers a promising solution to this problem, and I anticipate that products like API NetWorks’ AP1011 will play a key role in bridging the industry’s transition to these new serial architectures."
API Networks PCI-HyperTransport bridge (schema)
Moderatie-faq Wijzig weergave

Reacties (15)

mischein niet de slimste vraag maar ik wil t toch graag weten, waar gaat dit over en heb je er wat aan als game flip? :)
HyperTransport is een nieuw zeer snelle I/O bus van AMD. Met zo'n PCI bridge kun je een PCI bus koppelen aan de HyperTransport bus. Zie bijv. het schema waarin drie PCI controllers op een LDT bus zijn aangesloten. De LDT bus is zijn beurt weer verbonden met een LDT host wat bijvoorbeeld de northbridge van een chipset kan zijn . De northbridge staat in direct verbinding met het geheugen, de processor, (vaak) een AGP poort en een I/O bus die verbinding maakt met de southbridge (voorbeelden van zo'n bus zijn PCI, LDT en V-Link).

In het bovenstaande voorbeeld maakt LDT het mogelijk om een aantal snelle 64-bit, 66MHz PCI bussen met bijv. de northbridge te verbinden. Bij één PCI64 bus is dat niet zo'n probleem, maar als je meerdere bussen wilt gebruiken voor een nog hogere bandbreedte dan heb je een snellere interconnect nodig (of je moet meerdere PCI bussen aan de northbridge linken maar dat gaat de pincount enorm verhogen en is dus duurder).
Nu is deze uitleg op zich super verhelderend, de vraag blijft wel:
Heb ik dat als gamer wel nodig, ik vind 1 64bit 66Mhz PCI slot erg spannend klinken, maar heb er nog nooit een in een desktop gezien, alleen in servers, betekent dus ook dat de vraag naar dit soort bussen redelijk klein is.

* 786562 TheGhostInc
Het is natuurlijk ook niet voor gamers bedoeld. API Networks was voorheen Alpha Processor Inc., dus dan weet je wel over wat voor een systeempjes we praten.
Misschien gewoon even de bronnen raadplegen?

www.amd.com
www.samsung.com
http://www.alpha-processor.com/

D'r staat genoeg info over dit onderwerp, lees eerst eens en kom dan nog eens terug!
Op de VU, amsterdam is er eind jaren 80 tot halverwege
jaren negentig een OS geschreven die al precies hetzelfde deed. Amoebe, door Tanenbaum en consorten. Deze abstraheerde van de hardware en beschouwde elke harddisk, processor, etc in het systeem als hetzelfde en kon ze ook allemaal gebruiken. Op kernel nivo werden er dan agenten aangemaakt die onderscheid maakten tussen locale hardware en niet locale hardware.

Laat maar weer even zien, dat dit soort initiatieven ook gewoon kunnen worden opgevangen in de OS.
Dat slaat nergens op, de bussen zullen toch ook fysiek verbonden moet worden en er moet iets zijn dat voorkomt dat signalen elkaar beïnvloeden etc.
Ik bedoel, dat je geen hardware oplossing nodig hebt, voor iets wat eigenlijk in de kernel hoort, zie ook de link van deef hierboven.
Ja maar wat heeft dat hier (een fysieke koppeling tussen twee bussen) mee te maken?
Je kunt zeggen wat je wilt met software maar het lukt met software nooit om bandbreedte te vergroten.
Met deze technieken kunt je meerdere snelle gigabit netwerkkaarte gelijker tijde vol laten draaien.
Voorheen was dat niet mogelijk omdat je dan tegen de grenzen van de PCI bus liep en dan kan het OS er niets meer aan doen
Zou dit het eind betekenen van de eeuwig duurende IRQ conflicten? B-)

Ik zie hier wel potentie :9

P
First post? ;)
Nu de echte posting ;). Dit is best wel tof... en die 200nlg worden vanzelf wel weer minder. Gaat om het idee toch?
Het blijft verbazend dat serieel sneller is dan parallel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True