Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: EE Times

Intel maakt er geen geheim van dat het sterke ambitities heeft om computers binnen tien jaar naar de 10GHz te tillen, maar daarvoor zijn niet alleen geavanceerdere processors nodig. Het mag bijvoorbeeld duidelijk zijn dat PC's met dergelijke kracht niet meer genoeg hebben aan een simpele PCI bus, waarvan de beperkingen nu al merkbaar zijn. Daarom is het de bedoeling dat op de langere termijn PCI net als ISA van het toneel verdwijnt. De alternatieven voor PCI die nu op de markt zijn, zoals AMD's HyperTransport, zijn volgens Intel niet solide genoeg om tien jaar lang mee te gaan. Daarom zal Intel op het volgende Developer Forum, komende herfst, een voorlopige specificatie bekend maken van haar eigen nieuwe I/O standaard:

As processor performance continues to increase, Burns said, no technology available today will be able to meet the needs of next-generation systems. Specifically, Burns said, an I/O architecture with legs that will march confidently for the next ten years is needed.

[...] Just as the PCI architecture replaced ISA by addressing the graphics and networking limitations of ISA, so too will a next, third-generation I/O replace PCI, Burns said. "We are pushing to the theoretical limits of copper, and we see a very clear path to a 10-GHz processor," he said. "We as an industry must get busy very quickly," he said. "Our commitment is that by the fall Intel Developer Forum, the preliminary spec will be made available."

Hoe de dit bericht genoemde standaard zich verhoudt tot de andere PCI-opvolger InfiniBand is helaas onduidelijk. Lees het hele verhaal hier bij EE Times.

Moderatie-faq Wijzig weergave

Reacties (38)

Daar gaan we weer... in de tijd dat PCI werd ingevoerd werd ook VESA local bus in de markt gezet. Veel 486's en een paare Pentium moederborden zijn daardoor nu haast onbruikbaar omdat er geen goede hardware voor te vinden is. Bovendien kostte dit grapje een hoop research kosten bij zowel moederbord makers, en andere ontwikkelaars.

Ik zie hetzelfde nu weer gebeuren. AMD bouwt HyperTrasport, Intel werkt aan I/O3 (om het maar even zo te noemen). Ondertussen wordt ook PCI-X flink gepromoot, en zijn er naast de standaard 32 bit versies van PCI ook al 64 vit versies.

Het wordt zo weer echt een STANDAARD zooitje ben ik bang. Ik hoop dat de grote jongens het een beetje eens kunnen worden en wel voordat ze al deze nieuwe snufjes bij ons aan de man gaan proberen te brengen.
er is ook een goed voorbeeld: de overstap van ISA naar PCI is ook heel vloeiend gegaan, langzaam maar zeker verdwijnen die van de moederborden. nog een voorbeeld:
met de AGP steeds meer moederborden ploften AGP op het board, en nu vind je het bijna overal, en de videokaartbakkers maken gewoon steeds minder PCI vids.

\[off-topic]
dus niet zoals bij de euro, proberen in een paar dagen alle euros in zien te voeren.
\[/off-topic]
VLB was nooit bedoeld om lang mee te gaan. VLB is min of meer een directe toegang tot de pinnetjes van de 486 processor, oftewel zeer sterk gelinkt aan de 486. Je kunt ze -- met heel veel moeite -- aan een pentium hangen, maar dat is a) niet snel genoeg en b) kost teveel geld.

De 64 bit PCI versies bestaan trouwens al sinds de eerste PCI specificatie, en 66 MHz PCI bestaat ook al behoorlijk lang.
De alternatieven voor PCI die nu op de markt zijn, zoals AMD's HyperTransport
En ik maar denken dat HyperTransport alleen maar bedoelt was voor de interne chip to chip/memory I/O. Ik heb nog helemaal niemand horen praten over insteekkaarten voor het HyperTransport protocol.

Sorry maar het lijkt me nogal logisch dat het huidige HyperTransport niet geschikt is voor 10 Ghz. Maar daar is het ook helemaal niet voor gemaakt. De technologie zal ongetwijfeld ook op de groei zijn gemaakt. Maar het is nu immers zo dat elk zichzelf resprecterend bedrijf een eigen 'standaard' uitbrengt.

Helaas is meestal de consument daar de dupe van. Denk maar aan de opvolger van de cassette (DAT, DCC, MINIDISK, etc.)
HyperTransport is inderdaad niet gemaakt als opvolger van PCI, maar AMD zag tijdens het ontwerpen in dat de techniek veel flexibeler was dan ze ooit hadden kunnen hopen. In de press release is dan ook duidelijk te lezen dat HyperTransport ook geschikt is als netwerk- en I/O protocol. In feite dus een hele brede techniek die ook als vervanger voor PCI zou kunnen dienen.

VIA heeft al een southbridge (VT8237) in de maak die naast de PCI ook een HyperTransport bus heeft, deze moet eind dit jaar uitkomen... Niets is onmogelijk ;)
We naderen een tijd dat we de pc niet meer sneller maken met snellere processors, maar met MEER processors.... Uiteindelijk ligt er een grens aan de max snelheid die met 1 processor gehaald kan worden...
Niet helemaal waar. Er ligt een grens aan de processosnelheden zoals die op dit moment ontworpen worden maar een snelheidsgrens voor een nieuwe generatie processors is nog niet in zicht. Er wordt al door verschillende bedrijven gewerkt aan quantumprocessoren (die niet meer met bits werken maar zogenaamde q-bits) en bijvoorbeeld optische processoren (o.a. door nasa) die dus beperkt zouden zijn bij de lichtsnelheid. Goed, dat zal allemaal nog wel even duren, maar dat geeft dus alleen maar an dat het einde nog laaaang niet in zicht is :)
Optische processors zijn er nu al! Deze dingen worden soms namelijk al gebruikt op "knooppunten" van glasvezels. Stel je voor dat er op een punt twee glasvezels bij elkaar komen en er ook twee vezels weggaan, moet er een processor beslissen welke data (ip-pakketjes?) er naar de ene vezel gaan en welke naar de andere. Vroeger werd dat door een elektronisch IC gedaan: de informatie uit het licht werd omgezet naar het elektrische domein, er vindt een of andere bewerking plaats, en het wordt als licht weer in de nieuwe vezel gestuurd. Voor de snelheden die je nu in een glasvezel kunt halen, is dat gewoon te langzaam en daarom worden er nu ook optische processors ingezet.
Maar voordat je een optische processor in je PC kan verwachten: het is, euhm, tot op heden nog niemand gelukt om optisch geheugen te maken en da's toch verrekte handig in een desktop-processor. Dus als er iemand rijk wil worden.... :)

Maar over Intel dan: de processormarkt is de laatste jaren nogal voorspelbaar geweest (met roadmaps e.d.), maar ik zou mijn hand niet in het vuur durven steken voor een periode van 10 jaar! Dat is een eeuwigheid in IC-land. Ik zou absoluut niet weten wat er zich in die tijd niet allemaal zou moeten gaan afspelen: ik weet niet of we aan de wet van Moore kunnen blijven voldoen met de huidige processor-technieken, misschien is er inderdaad wel iets als een quantumcomputer voor nodig en misschien wordt een dergelijke doorbraak binnenkort dan ook wel uitgevonden. Ik zou dan als Intel niet met een standaard klaar willen staan die helemaal niet voorziet in die technische ontwikkeling.

Van de andere kant: Intel gaat de specificaties geven; dat kan net zo goed betekenen dat ze 'm de komende 3 jaar niet gaan (of zelfs kunnen gaan) bouwen. In dat geval zie ik het weer anders, want als het alleen om specs gaat, dan gaat het toch alleen om hoe snel dat protocol werkt en met welke signalen; in dat geval is het toch alleen een wiskundig probleem? Een wiskundig probleem dat ze ook tien jaar geleden hadden kunnen oplossen? Als ik alle andere posts lees, zie ik dat bij AMD-processors bijvoorbeeld een protocol gebruikt wordt dat al 20 (!) jaar oud is. Kennelijk kan dat gewoon. Waarom zou je dan je geld investeren en gaan gokken (want dat is het, als je 10 jaar vooruit denkt) op een nieuw idee, terwijl het helemaal nog niet nodig is?
tot op heden nog niemand gelukt om optisch geheugen te maken
Jazekers wel. Zag ik laatst op discovery: duitse onderzoekster van siemens heeft een optisch geheugen uitgevonden dat op de een of andere manier gebruik maakt van hologrammen....
Dat bedoelde ik eigenlijk niet, want met deze manier van data opslaan wordt gebruik gemaakt van een of ander driedimensionale ruimte, die je als het ware optisch uitleest. Het voordeel hierbij is dat je een enorm hoge capaciteit hebt. Maar je moet dat hologram wel even maken, voordat je het kan uitlezen en dat is al niet makkelijk, laat staan dat het snel gaat.

Als je optische processors wil maken voor de desktop wordt er in die processor gebruik gemaakt van licht i.p.v. elektronen om informatie te geleiden. In onze processors van nu maken we bijvoorbeeld gebruik van registers en cache geheugen. In een normale processor kan dit gewoon uitgevoerd worden met een flipflop, een elektronische schakeling om een nul of een n te onthouden. Voor deze schakeling is er gewoon geen optisch alternatief: wat je zou willen hebben is een soort optische schakeling (als dat al kan) die je gewoon kunt setten en resetten. Als dat wordt uitgevonden laat de optische computer niet lang meer op zich wachten...
Naarmate we de grens vd huidige techniek (silicium/bolean logic) naderen, zal het steeds duurder worden om snellere cpu's te maken; de volgende generatie is dan niet meer 2 maal zo snel voor dezelfde prijs. Opeenvolgende generaties laten langer op zich wachten en/of zijn duurder dan de voorgaande.

Als die verdubbeling nu al niet meer op 18 maar op 24 maanden ligt, dan beginnen we die grens denk ik al te naderen.
Op een gegeven moment wordt het dan goedkoper om het met meerdere cpu's te doen ipv sneller, in ieder geval om de periode tot de volgende generatie te overbruggen.

In feite is dit nu al aan de hand; nog maar een paar jaar geleden was dual cpu voor de consument thuis vrij exclusief, nu zijn er steeds meer hobbyisten met dual cpu thuis.
Dan vraag ik mij toch af waarom Intel HyperTransport niet solide genoeg vindt op 10 jaar mee te gaan. Is dit omdat het van AMD is, of heeft het een andere reden <img src="g/s/confused.gif" width="19" height="15" alt=":?">
De ISA bus gaat nu al ruim 20 jaar mee en de pci al ruim 12 jaar
<Off-Topic>
Sorry dat ik het zeg, maar ik denk dat we over 10 jaar wel over de 10ghz zitten..... <img src="g/s/yummie.gif" width="15" height="15" alt=":9">
</Off-Topic>
Die opmerking vind ik niet zo "off topic", tot nu toe is die regel (ieder jaar verdubbeling in MHz) wel gehaald... Ik zou niet weten waarom we dat de komende jaren niet halen, hoewel het einde wel nadert in de wafer techniek... De grens van de lichtgolflengtes zijn bijna bereikt, dus over 10 jaar moet er wel een nieuwe standaard zijn, maar dat loopt wel los (er is genoeg "push" door de processormarkt)

Effe rekenen (aangenomen dat we in 2000 op de 1GHz zaten...

Dan zitten we eind 2000 (ik weet dat het inmiddels begin 2001 is...) op 1*2^10 = 1000 GHz, oftewel 1THz... Lekker!
Ik heb eens een excel sheet gemakt van processoren van 1991 to 2001 en daaruit komen de volgende factoren per jaar.

Proc. snelheid: 1,43
Bus snelheid: 1,25
Hoeveelheid geheugen: 1,59
Afmeting HD: 2,15

Bij de proc. snelheid en vooral de bussnelheid is de laatste 2 jaar een inhaalslag gemaakt om die factor te halen. Aan de HD groei lijkt ook een einde te komen want sinds de matrox 80GB is er geen grotere IDE HD meer verschenen. Maar goed er even vanuitgaande dat dit zo door gaat zou je in 2007 een 11Ghz proc. moeten hebben met 1,4Ghz bus (waarschijnlijk octa pumped ofzo) 6GB geheugen en een 8TB hardisk :)
Daarbij moet je nu wel rekening houden met het feit dat de snelheid iets heel anders is dan de hoeveelheid opslag. Misschien is het daarom interessanter om de accesstijd en het aantal MB/s uit te zetten, in plaats van de grootte van het geheugen en de hardeschijfruimte.

Bedenk ook dat alhoewel de schijf opzich nu rond de 80 GB ff blijft steken, er met 15 raid schijven (15 * 80) 1200 GB aan zut kwijt kan, en dat is best veel. Er zijn zelfs raid controllers die 75 schijven kunnen aansturen (MyLex). Dus de individuele hoeveelheid ruimte per schij is al lang zo belangrijk niet meer :) .
Ik heb de snelheid van de HD idd niet meegenomen en de snelheid van het geheugen ook niet dit omdat ik deze minder interessant vond en hier ook niet zoveel gegevens van had. Ik heb in de hele sheet rekening gehouden met een normale configuratie voor die tijd met 1 proc 1HD en een normale hoeveelheid geheugen voor die tijd. Raid oplossingen etc waren er volgens mij al eerder dan 1991 en zijn pas sinds de laatste 2 jaar betaalbaar voor de gemiddelde computer gebruiker (IDE-RAID). Het enige wat inderdaad nog wel wat kan beteken is dat er steeds hardeschijven op een standaard computer kunnen in 91 meestal 2 tegenwoordig lijkt 8 al steeds meer standaard te worden. Verder zit er in de processor nattuurlijk ook nog meer snelheids verschil dan de Mhz'en (386-100Mhz zou een stuk langzamer zijn dan een P4 100Mhz) als je dit ook nog mee zou nemen zou Moore's law weer beter uitkomen aangezien volgens mijn verhaal een processor ongeveer 3 keer zo snel wordt in 3 jaar en volgens Moore's verhaal 4 keer.

offtopic:
Is er een limiet voor de diepte van de reactie ik had deze eigenlijk onde "Jesse Houwing" willen hebben
De wet voor Moore staat voor verdubbeling van de CPU snelheid (in MHz) eens per 18 maanden, dus per 1,5 jaar. Als we dan jouw sommetje even opnieuw narekenen dan komen we uit op: 1GHz * 2 ^ (10/1,5) = 100GHz (in 2010). Dat klinkt iets realistischer vind ik.
Hebben ze dan nog wel Desktop's?
of gaan we dan over naar kleine computer in 'notitieboekjes'-formaat?
Een processorbakker heeft er alle baat bij lange termijn voorspellingen te doen die erg laag zijn, te eerste kunnen ze tegen die tijd als ze al veel verder zijn zeggen, goh, we hebben het beter gedaan dan verwacht, maar ook brengt zon langzame ontwikkeling minder kosten met zich mee...
Ik weet het wel zeker, het blijft niet bij "wafer", er zijn al experimenten gedaan met chips met 0.02 Micron, op moleculair niveau dus, tussen 2 moleculen een electron, zo kunnen ze makkelijk al 10 ghz halen!
ehm sinds eind 80iger jaren wordt al de vuistregel gebruikt dat elke 18 maand de processorsnelheid wordt verdubbelt. En als je terugrekent zul je zien dat deze formule aardig klopt. nou staat hierboven dat ze over tien jaar bij de 10 Ghz willen zitten. nou volgens mij strookt dit niet helemaal met mn formule!!!!

Heb ik dit nou al die jaren fout gerekent of zijn ze van de formule afgestapt :? 8-) (8>
ja, daar zijn ze vanaf gestapt, dat ligt inmiddels op 2 jaar
Die Wet van Moore (een van de oprichters van Intel) bestaat al sinds begin 70er jaren. Heeft zich sinds die tijd nog steeds weten te bewijzen.
Intel durft ! Ze zijn de eerste in computerland die 10 Jaar vooruit durven te denken ! ( Als ik denk over de autos van over 10 Jaar denk ik ook niet over een Verbeterde Astra mat ...... motor) Ik denk dat ik van de techniek over 10 Jaar nu geen fluit moet begrijpen anders is het niet nieuw.

AMD heeft al vanaf het begin van de Athlon de Alpha EV6 bus die 20Jaar oud is !!! En gebruikt deze nog steeds voor de T-Birds en Durons. Intel heeft legio nieuwe interfaces gehad en ze zouden allemaal de beste zijn .......

AMD heeft voor de Athlon niet voor niets de EV6 bus gebruikt, deze had zich inmiddels ruimschoots bewezen.
Intel gebruikt ook al sinds jaar en dag het GTL(+) protocol, heeft geen donder te maken met insteek kaarten. En dat is nu juist waar dit verhaaltje wel over gaat ;).
Met verhalen van "we wachten wel af en we zien wel" krijg je juist dat het allemaal niet tijdig geregeld is en dat er tege de tijd dat er een beperking bereikt is weer door 4, 5 groepen een ad-hoc oplossing wordt gevonden die een jaar of wat mee kan.
De huidige IO standaard past gewoon niet meer in de computers van nu , en ook niet meer bij de functionaliteits eisen van de gebruikers. Afgezien van het interne gebeuren voor pci / agp bus kun je je bijvoorbeeld afvragen waarom je allemaal stekkertjes in je pc moet douwen. Waarom niet 1 of bijvoorkeur helemaal geen ? io devices zijn raltief makkelijk met bijvoorbeel bluetooth technologie te maken. Weg kabeltjes, weg stekkertjes.
Intel doet wat dit betreft goede zaken. Echt vooruit kijken. Alleen denk ik dat ze wat dat betreft wat meer moeten samenwerken met de kleinere chipbakkers. Dan zouden er ook een zooi minder compatibiliteits problemen zijn. Ik juig deze ontwikkeling alleen maar toe. De arrogantie om AMD een draai om de oren te geven door hun specifieke systeem te noemen vinnik minder, maar is wel weer typisch intelliaans :)
Met verhalen van "we wachten wel af en we zien wel" krijg je juist dat het allemaal niet tijdig geregeld is en dat er tegen de tijd dat er een beperking bereikt is weer door 4, 5 groepen een ad-hoc oplossing wordt gevonden die een jaar of wat mee kan.
Ik weet eigenlijk niet wat ik erger vind: allemaal losse ad-hoc oplossingen en dat uiteindelijk de beste wint (hoewel dat niet altijd zeker is) f Intel die vroeg van tevoren even een specificatie verzint en vervolgens (wellicht) heel veel geld gaat vragen om die specificatie te mogen gebruiken. Ik kan me voorstellen dat Intel die specs niet laat gebruiken door de concurrentie of bedrijven die zich teveel met de concurrentie inlaten. Intel is kennelijk tot deze marketing in staat; ik geloof dat Via nog steeds geen licentie heeft om een chipset voor de Pentium 4 te maken.
Afgezien van het interne gebeuren voor pci / agp bus kun je je bijvoorbeeld afvragen waarom je allemaal stekkertjes in je pc moet douwen. Waarom niet 1 of bijvoorkeur helemaal geen ? io devices zijn raltief makkelijk met bijvoorbeel bluetooth technologie te maken. Weg kabeltjes, weg stekkertjes.
Ik geloof niet dat bluetooth bedoeld is voor dit soort breedbandige communicatie. Voorlopig zou het systeem niet voor veel meer dan 10 Mb/s gebruikt kunnen worden. Het is prachtig voor communicatie tussen echte handheld devices (bijvoorbeeld tussen digitale fotocamera en PC) maar het is nog veel te langzaam om bijvoorbeeld een harde schijf mee aan te sluiten. En het werkt al helemaal niet als er heel veel devices tegelijkertijd worden aangesloten op frequenties die zo heel dicht bij elkaar liggen. Stel je voor dat je een computerruimte op een school of in een bedrijf hebt, ik vraag me af of de kasten al die signalen wel isoleren en of er dan geen twee PC's elkaar gaan staan benvloeden.
Bovendien ben je je kabeltjes dan nog niet kwijt: alle randapparatuur moet immers ook van voeding voorzien worden...
Een Intel-eigen en vooral *gepatenteerde* standaard heeft legio voordelen.
Je kunt er bijvoorbeeld je enige concurrent mee op afstand houden.....
Misschien dat ze nu weer meer kwaliteit gaan brengen door minder snel te ontwikkelen. Liever niet dat geconcureer met amd. Beter langer langzaam dan snel slecht. Intel moet weer terug naar zijn oude niveau.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True