Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 38 reacties
Bron: The Inquirer

The Inquirer heeft een PowerPoint presentatie van Compaq online gezet waarin de Alpha processor roadmap tot het jaar 2012 uiteen wordt gezet. De plannen in deze presentatie geven blijk van een groot vertrouwen in de Alpha architectuur. Volgens Compaq kan deze nog tot het jaar 2025 meegaan. Concrete plannen zijn er al tot 2012, in welk jaar de Alpha EV12 op de markt komt.

Op korte termijn heeft Compaq de release van EV7 en EV8 gepland. In 2002 komt de EV7, een doorontwikkeling van de huidige EV68 processor. De EV7 core telt 100 miljoen transistors, die tesamen 100 Watt verstoken bij een voltage van 1,5v en een kloksnelheid van 1,1 tot 1,3GHz. Dankzij vier geïntegreerde dual-channel Rambus controllers realiseert de EV7 een geheugen bandbreedte van meer dan 10GB/s. De bandbreedte van de 1,75MB grote on-chip L2 cache is 16GB/s.

In 2004 wordt de EV7 opgevolgd door de EV8. Deze processor heeft een nieuwe core die 8 instructies per kloktik kan verwerken. De kloksnelheid begint op 1,4GHz en de L2 cache bandbreedte zal tot 64GB/s toenemen. Met behulp van Symmetric Multi-Threading (SMT) hoopt Compaq de efficiency van de execution units te verbeteren. Al deze innovaties hebben tot gevolg dat de EV8 uit circa 250 miljoen transistors zal bestaan. Klinkt stevig, maar is slechts een lief schattig smurfengetalletje in vergelijking met de EV12 - die krijgt er namelijk zo'n 15 miljard .

Alpha processor roadmap
Moderatie-faq Wijzig weergave

Reacties (38)

Een roadmap van 10 jaar :? De mens heeft bewezen een slecht voorspeller te zijn.
Inderdaad, we houden ons nu al niet meer aan de wet van Moore :*)
ja we lopen achter en zo te zien gaan deze Alphas het ook niet halen, wet van Moore zegt tog dat het aantal MHz verdubbelt per 18 maanden? misschien moet zn wet wel bijgesteld worden naar verdubbeling van cpupower als deze alphas uitkomen ;)
Nee, het was zo dat de kracht van de CPU's elke 18 maanden verdubbelt, en dat doen deze zeker
En laat ik nou gedacht hebben dat het om de hele computer ging (geheugen/processor/video).

En dat afhankelijk van de periode de ontwikkeling van één onderdeel sneller dan de andere gaat.
Was het niet dat het aantal transistors verdubbelt elke 18 maanden? Zo ja, dan klopt het wel redelijk :P
Dit soort voorspellingen doen is sowieso niet zo slim. Want er komt een bepaalde verwachting (let ook op beurs schommelingen) De grap is, dat ze over 10 jaar waarschijnlijk hele andere technieken hebben (laser ??, via stroomnet internet kan ook al) Ik roep maar iets.. Maar een prognoze in deze vorm lijkt me per definitie al onzin, omdat als ze over 10 jaar de huidige techniek nog gebruiken dat het verouderd is
Ik geloof er geen snars van dat je maar 6 GHz uit een 0.03 micron procede kunt halen.

Daar zit de P4 in 2005 ofzo al op.
Ik geloof er geen snars van dat je maar 6 GHz uit een 0.03 micron procede kunt halen.
Hoezo niet? Ooit een G4 CPU gezien? Die zitten ook nog maar op de 733 MHz, maar die zijn wel even snel als een TB 1200MHz. Dit komt doordat de G4 veel kortere pipelines heeft waardoor de kloksnelheid wat achter blijft, maar de performance veel beter is.

Zoiets kan ook met de Alpha zijn.
De nieuwe (7450, nu @733) Mhz G4 heeft juist weer langere pipelines en zal waarschijnlijk ook nog wel een tijdje doorschalen naar 1.2 Ghz (of zo).

De oude G4s (7400 @ 500 en 7410 nu @533) Mhz hadden inderdaad het door jou genoemde probleem.
Dat kan best zijn, maar als Compaq de boel niet had laten versloffen een tijd geleden was de Alpha minimaal net zo snel danwel sneller in MHz'en dan welke x86 chip dan ook.

Vergeet niet dat de Alpha een tijd terug in MHz'en (bijna) 2x zo snel was dan de snelste Pentium terwijl dat op 0.35 micron was, en de Pentium heeft die snelheid nooit gehaald op 0.35 micron!

Dus de Alpha is wel degelijk een chip die in principe hele hoge snelheden moet kunnen halen, gelijk of beter dan x86.
Hmm... Ze willen die EV12 in een 0.03 um procede gaan maken. Dat zal denk ik toch wel het uiterste vergen van machine en materiaal. Gaan dan de lijnen niet interfereren met elkaar en wordt zo'n processor dan niet extra storings gevoelig? Vraag ik me toch af.
Met nieuwe technologiën zoals EUV lithografie (10 nanometer / 0,01 micron) moet 't tegen die tijd kunnen:

http://www.tweakers.net/nieuws/16534
http://www.tweakers.net/nieuws/16310
Ik ben benieuwd wie op de lange termijn (15 jaar) de snelste high-end server chip heeft: Intel of Compaq.

Intel met de nieuwe Itanium die de EPIC instructie set gebruikt en Compaq met de "oude" RISC instructie set.

Ik denk dat Intel het wel gaat reden met de Itanium, misschien niet de eerste 2 jaar doordat het nogal lang duurt om een goede compiler in elkaar te programmeren, maar als die er eenmaal is ben ik zeer benieuwd naar de snelheid. Voor die mensen die niet weten wat EPIC is, ff een korte uitleg:

De Itanium (EPIC) werkt zo dat de compiler aangeeft in welke volgorde de CPU instructies moet uitvoeren, de huidige CPU's (dus ook de Alpha's) doen dat zelf door o.a. branch-prediction. Je kan je wel voorstellen hoe moeilijk het is om een compiler voor de Itanium te bouwen, want als je één dingetje vergeet, komt dat in alle programma's terug wat natuurlijk niet gewenst is. Maar als de compiler eenmaal goed is, krijg je wel een hele grote snelheids verbetering. En dit verklaart meteen waarom de Itanium zo sloom is (<486) met de huidige software, de Itanium moet alles zelf uitzoeken, iets wat die niet goed en snel kan.
RISC is toch geen instructieset maar een manier van instructies verwerken (in hardware en niet in microcode??)
Mischien een beetje off-topic, maar ik wilde dit toch ff neerzetten over RISC....

Stukje uit "Gestructureerde computer architectuur" van Andrew S. Tanenbaum....
RISC is een acronym voor Reduced Instruction Set Computer en is bedoeld als tegenstelling tot CISC-machines, hetgeenstaat voor Complex Instruction Set Computer.
Om een lang verhaal kort te maken: de aanhangers van de RISC-gedachte zeggen dat er een complete vernieuwing nodig is in de manier waarop wij over computer architectuur denken, en dat bijna alle conventionele computers qua architectuur achterhaald zijn. Ze voeren aan dat computers in de loop der jaren veel te ingewikkeld zijn geworden .....

Het doel van elke RISC-machine is gemiddeld één instructie per cyclus uit te voeren. Omdat STORE en LOAD normaal twee cyclussen vergen, kan dit gemiddelde alleen worden bereikt als de compiler of de reorganisator erin slaagt 100 procent van de vertragingscyclussen die op deze instructie volgen (nog afgezien van de vertragingscyclussen die na sprongen komen) op te vullen. Het ligt voor de hand dat hoe minder LOAD- en STORE-instructies er zijn, des te minder verloren gaan als gevolg van het onvermogen van de compiler ze met iets nuttigs te vullen.

Kort gezegd is een RISC-machine in wezen gewoon een computer met een klein aantal verticale micro-instructies. Gebruikersprogramma's worden gecompileerd tot series van deze micro-instructies en dan direct door de hardware uitgevoerd. Het resultaat is dat de eenvoudige dingen die programma's in feite doen, zoals het optellen van twee registers, nu in één micro-instructie kunnen worden gedaan.
Waarbij ik dan nog even wil toevoegen dat het niet om een klein aantal instructies hoeft te gaan. Het verbaasd vaak velen dat bijvoorbeeld een PowerPC (dit is een RISC chip) meer verschillende instrucites heeft dan een Intel Pentium. Deze laatste heeft wel weer veel meer varianten van alle instructies (zijn dus ingewikkelder).

Kortom: het gaat om (Reduced Instruction) Set Computer en niet om Reduced (Instruction Set) Computer. Dus geen klein aantal functies, maar een aantal eenvoudige (niet simpel, maar rechttoe-rechtaan) functies.

De beschrijving hierboven klein aantal vertikale micro-functies uit het boek is op zich wel terecht, maar geen specifieke RISC eigenschap. Ook een CISC chip kan zijn instructies best intern decoderen naar RISC-achtige micro-instructies. Sterker nog, dat doen ze tegenwoordig allemaal.
RISC is niets eigenlijk, niets dan een vaag begrip. Het geeft aan dat de instruktieset van de CPU bestaat uit weinig maar krachtige instrukties. Waar de grens tussen CISC en RISC ligt is vaak nogal vaag... Er is dus niet echt een defenite van 'dit is RISC', RISC is dus EN geen instruktieset EN geen manier van verwerken. RICS is een manier van processorarchitectuur maken, maar zoals gezegd de grens is vaag.
Symmetric Multi-Threading (SMT)
Is het niet Simultaneous Multithreading? Of heeft Compaq iets anders bedacht dat toevallig dezelfde afkorting heeft?
ennuh....
wat kost ie? :9
Dat wil je denk ik niet weten omdat je hier als thuis gebruiker weinig aan hebt.
Mocht je een kleine ton over hebben voor een moederbord en niet veel minder voor een paar processors, dan zou ik zeggen neem een Alpha systeem.
Niet dat je er dan veel aan hebt want het is geen x86 CPU waar nu de meeste software voor hebt.

Laat deze aankopen maar lekker aan bedrijven over met de nodige zware servers. Die kunnen er wel iets mee.
Mocht je een kleine ton over hebben voor een moederbord en niet veel minder voor een paar processors, dan zou ik zeggen neem een Alpha systeem
Valt hard mee, we hebben hier een aantal alpha servers staan, welliswaar niet de zwaarste, maar servers die toch zeker niet onaardig zijn (heel wat sneller dan een 1.2GHz PIII), en die kosten rond de fl. 15.000,-

En we gaan er binnenkort Linux op zetten, en dan komen er opeens heel veel applicaties binnen handbereik!
Ook dat valt wel mee
immers: dan moeten apps gepoort zijn naar Alpha (net als vroeger bij de alpha versie van nt)
en dan zie je opeens dat in elk geval een hoop commercieel spul niet in alpha uitvoering beschikbaar is
bovendien vind ik prijs/prestatie van linux alpha niet opwegen tegen prijs/prestatie van linux/intel
kortom: leuk hobbien op oude machines, maar verder.
tis maar een mening. maar toch
Je gebruikt toch geen commercieel spul onder Linux?? Gewoon source hercompileren en hoppa, werken met die handel. En er zijn genoeg Alpha distributies in de omloop. Niet zo'n probleem lijkt me.
teveel ??? :)
Ga eerst maar es kijken wat je te besteden hebt :P
dat lijkt me een veel beter begin

(ook goedemorgen trouwens)
Kom op nou zeg. Het is heel erg knap wanneer je zinnige voorspellingen kunt doen over een periode van vijf jaar. Voorspellingen over een periode van 10 jaar zijn niet serieus te nemen. Iets zinnigs menen te kunnen zeggen over 2025 is ronduit ridicuul.

Te beschouwen als een slecht getimede (en niet grappige) 1 april grap.
Je kunt toch wel plannen maken 10 jaar vooruit? Het zijn geen voorspellingen, laat staan beloftes.

De thuisgebruiker heeft er inderdaad weinig aan. Ik heb jaren met Alpha's gewerkt en de performance viel eigenlijk tegen. Niet dat de Alpha slecht was of zo, maar wanneer je 32 bits software draait op een 64-bitter schiet je niet zoveel op. Da's ook de reden dat al die benchmarks niet zo hoog zijn (behalve dan de fp, die is gewoon veel beter).
Maar als je een probleem hebt waarbij 64-bits gebruikt kunnen worden, en je bent bereid de applicatie echt te herschrijven, ja, dan vliegt de performance omhoog.
(Zelfde als 16-bits progjes draaien op een 32-bitter eigenlijk).
Er zijn alleen maar weinig programma's die echt 64-bits gebruiken. Wat wetenschappelijk werk en echt grote databases. En een }:O moet kunnen natuurlijk.
Intel heeft vorig jaar geclaimt dat IA-64 nog 25 jaar moet meegaan: http://www.tweakers.net/nieuws/10157?highlight=ia-64 %2Bjaar
Grappig dat hier nog geen opmerkingen over gemaakt zijn.. :
Dankzij vier geïntegreerde dual-channel Rambus controllers realiseert de EV7 een geheugen bandbreedte van meer dan 10GB/s
Schijnbaar is het dus niet alleen Intel en Rambus zelf die vertrouwen hebben in het produkt Rambus.

Het feit dat Compaq het voor hun Alpha's gaat gebruiken zegt ook wel weer wat.

Even afgezien van de *kuch* niet-zo-nette *kuch* bedrijfsvoering (Need I say Lawyers ?) van Rambus, hebben ze dus wel degelijk een product waar toekomst in zit, fenomenale bandbreedte onder andere.

Als ze nu nog even de latencies onder de knie krijgen, (of een work-around voor vinden) zie ik hier wel een flinke groei in marktaandeel voor ze.
De EV7 maakt optimaal gebruik van de mogelijkheden van Rambus, dwz hoge bandbreedte per pin zodat bij een gelijke pincount een veel hogere bandbreedte gehaald kan worden. Door gebruik te maken van meerdere Rambus channels kan het latency probleem ook gecamoufleerd worden.
Ze hebben ieg. een deel van de latencies dan al omzeild.
De Memory controller komt op-chip te zitten. Dat scheelt een stuk vertraging, wanneer het gaat om communicatie naar buiten. Verder denk ik dat Rambus mischien wel verder schaalbaar-der is dan bijvoorbeeld SDRAM-technieken (zelfs QDR- of ODR (octal))
Al vraag ik me af, Femme, hoe je dat in gedachte had, zoveel verschillende Rambus-kanalen. Wanneer je zoveel banen naar nagenoeg één punt leidt, lijkt het mij nog moeilijker, om onderlinge interferentie tegen te gaan en de leidingen even lang te houden. Maar mischien hebben we dan wel serial Rambus of buffered (cached??)- Rambus.
100 WATT is al behoorlijk veel, niet dat, als we naar de energiekosten kijken, iets uitmaakt. maar het geeft dus wel aan dat we over een aantal jaren niet meer deze processors met de conventionele middelen kunnen koelen of doen ze dat nu al niet meer.
ik denk dat ze over een jaar of 10 toch ook wel moeten komen met supergeleiders om het probleem van warmte-ontwikkeling de wereld uit te helpen
even off topic.

5 tot 10 jaar gelden had iedereen het over supergeleiding op kamer temperatuur. Daar hoor je niets meer van. Ik verwacht niet dat over 10 jaar er een doorbraak is.
Ze hebben in Silicon Valley nu al problemen met de stroom voorziening (en ook al in de randstad) door al die computers. Denk je eens in dat er 1 miljoen van die dingen aan staan in een staat.

Verder kunnen de meeste mensen nu de T-birds (met 60 Watt) al niet koel krijgen.
En wat denk je van de stroom-voorziening op de mainboarden (100Watt/1,5Volt = >65 Amp (!!)
Het doen van voorspellingen voor zo'n lange termijn in een industrie die zo snel verandert is zinloos.

Neem bijvoorbeeld de ontwikkeling van quantumcomputers; bestaat alleen nog in theorie, maar er wordt binnen 5 jaar een experimentele versie verwacht. Computing krijgt dan een heel andere dimensie; klassiek lastige problemen (bv. handelsreizigersprobleem voor de liefhebbers) die nu miljoenen jaren zouden kosten (ook met een Alpha :-) ) zijn dan in een vloek en een zucht gedaan.

Quantumcomputers is maar een voorbeeld. De implementatie van licht in chips ipv stroom is een ander voorbeeld. Dit staat ook op stapel voor de komende 5 jaar.

Al dit soort ontwikkelingen maken dat voorspellingen voor de komende 10 jaar weliswaar leuk voor het publiek, maar technisch gezien zinloos zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True