Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Duitse supercomputer bevat AMD Epyc 'Rome'-processors met 64 cores op 2,35GHz

De Hawk-supercomputer van het High-Performance Computing Center van de universiteit van Stuttgart maakt gebruik van AMD Epyc-cpu's met 64 cores op een snelheid van 2,35GHz. Het lijkt te gaan om de Epyc 2-processors die op 7nm worden gemaakt.

Op de SC18-conferentie maakten de Duitse universiteit en HPE details bekend over hun Hawk-supercomputer, schrijft ComputerBase. AMD's Epyc-processors van de eerste generatie hebben maximaal 32 cores. AMD heeft al bekendgemaakt dat de opvolger, met codenaam Rome, tot 64 cores krijgt. Over kloksnelheden heeft de processorfabrikant zich nog niet uitgelaten.

Het is niet zeker of met de snelheid van 2,35GHz de baseclock wordt bedoeld of de maximale turbosnelheid met alle cores actief. Het huidige topmodel uit de AMD Epyc-serie, de Epyc 7601, draait op 2,2GHz en heeft een maximale turbosnelheid van 2,7GHz met alle cores actief.

AMD maakte vorige week de eerste details bekend over de Zen 2-architectuur, die gebruikt wordt voor de nieuwe Epyc-processors. De cpu's bestaan uit een nieuw ontwerp met zogenaamde cpu-chiplets, die gemaakt worden op het 7nm-procedť van TSMC en de cores bevatten. Deze staan in verbinding met een i/o-die die op het 14nm-procedť van GlobalFoundries wordt gemaakt.

Tegenover ComputerBase zegt AMD ook dat berichtgeving over ipc-verbeteringen van 29 procent voor Zen 2 ten opzichte van de eerste Zen-generatie onjuist is. Sommige media schreven dat, aan de hand van een voetnoot in de presentatie van AMD. Volgens AMD ging het om een microbenchmark voor een zeer specifieke workload waarbij een dergelijke verbetering zichtbaar is. Het betekent niet dat de nieuwe architectuur in het algemeen zo'n grote verbetering oplevert als het gaat om instructions per cycle.

AMD-ceo Lisa Su toont Epyc 'Rome'-processor

Door Julian Huijbregts

Nieuwsredacteur

14-11-2018 • 10:36

72 Linkedin Google+

Submitter: BiG_ChilD

Reacties (72)

Wijzig sortering
De manier waarop het artikel, titel en eerste alinea is geschreven hint op een al werkende computer, mijn eerste gedachte was dan ook dat ze een soort van sneak preview gekregen hadden van AMD.

Echter dit zijn plannen voor een te bouwen computer. Desalniettemin wel leuk dat deze al in het orderboek opgeschreven is ;)
Ik denk dat er nog wel meer gaan volgen :) met Zen2 maakt AMD weer een grote stap. Intel heeft dan wel een 48 Core CPU aangekondigd maar dat ding heeft ook een gigantisch verbruik tov de huidige intel CPU's. Deze 64 Core chip op 7nm zou qua verbruik nog wel eens hetzelfde TDP kunnen hebben als de huidige 7601.

Ik denk overigens dat die 2,35GHz een baseclock is. Voor een Turbo clock is het veel te laag. Met Precision boost 2 kan je al veel hoger boosten wellicht gebruik Zen2 nog iets nieuwers dan dat. Dus ik zie het nog wel gebeuren dat de Turbo clock's voor bv 1-2 core loads de 4.5 GHz of hoger aan gaan tikken. 64 Core load zal wel dichter tegen die base clock aan zitten. zeker als je niet meer dan 180-200 watt wil verbruiken.
Gezien de huidige top 100 supercomputers gaat Epyc een goede zet zijn voor super computers. Op plaats 38 is al zon systeem te zien, met een "redelijk" laag stroomverbruik.

https://www.top500.org/system/179593
Yep, volgens Ian Cutress van Anandtech in 2019. Er zijn er wat interessante feitjes vermeld:

The slide describes Hawk as a 640,000 core system using 64-core Rome CPUs. That’s 10000 CPUs, listed at a throughput of 24.06 PetaFLOPs.

That gives 2.4 TeraFLOPS per CPU, which at 16 SP flops/cycle, works out about correct for a 64 core CPU for the 2.35 GHz frequency mentioned in the slide.

[Reactie gewijzigd door garf75 op 14 november 2018 15:00]

Maar ligt het nu aan mij of is het gewoon een paar chips aan elkaar gemaakt en het socket 2x zo groot maken zo ja waarom doet intel het dan niet het is toch ook makkelijker om 32 cores met meerdere chips te behalen
Omdat intel dit als inferieur ziet en liever een monolitisch design maakt.
Natuurlijk is het 'inferieur'. Net zoals een multi-core ontwerp inferieur is vergeleken met een single-core ontwerp. Maar zolang er geen single-core processoren bestaan die op 256 GHz draaien, zullen we het toch met 64 keer 4 GHz moeten doen. En datzelfde geldt voor multi-chip CPUs. Die zijn zoveel goedkoper te maken dan single-chip CPUs, dat je wel gek bent als je probeert al die 64 cores op een enkele chip te stoppen. Dan prijs je jezelf uit de markt. Ik weet zeker dat Intel binnen een paar jaar met een vergelijkbaar multi-chip ontwerp komt.
Een multi-core ontwerp is niet inferieur, zelfs niet als een single core op 256GHz draait, en dat denkt en bedoelt intel ook niet. Er zijn immers genoeg algoritmes die beter werken als je ze parallelliseert, en dat geldt zelfs al voor het draaien van kantoorsoftware. Enkele redenen dat het verspreiden van cores over meerdere dies als inferieur gezien wordt, zijn dat je bij fabricage meer handelingen moet verrichten, dat je meer materiaal nodig hebt, dat elk extra detail ook stuk kan of de handeling kan mislukken, dat extra handelingen geld kosten, dat de bus tussen de cores in theorie minder efficiŽnt zou kunnen zijn. Dat soort redenen zijn tamelijk valide als je de technologie nog niet zo onder de knie hebt maar betekenen niet dat een goed doordachte implementatie in de praktijk ook echt inferieur is. AMD bewijst het tegendeel.
Een multi-core ontwerp is niet inferieur, zelfs niet als een single core op 256GHz draait, en dat denkt en bedoelt intel ook niet.
Ik zeg helemaal niet dat intel dat denkt, of bedoelt. Ik zeg alleen dat het zo is, en als je de keus hebt tussen een 256 GHz processor en 64x een 4GHz processor, met vergelijkbaar stroomverbruik, geheugenbandbreedte, etc. etc., dat (bijna?) iedereen dan de 256 GHz processor zou kiezen. Als jij een nieuwe PC koopt voor persoonlijk gebruik, dan kies je ook eerder voor een quad-core CPU op 3 GHz dan een octa-core op 1.5 GHz. En daarmee schoffel je je eigen argument onderuit.

[quote]
Er zijn immers genoeg algoritmes die beter werken als je ze parallelliseert, en dat geldt zelfs al voor het draaien van kantoorsoftware.
[quote]

Absoluut. Maar er zijn ook voldoende algoritmes die slecht of niet te paralelliseren zijn. En die draaien dan dus sneller op een 256GHz processor. En op een single-core processor is het wťl mogelijk om parallele software te draaien, maar andersom is dat niet zo. Dus kun je beter ťťn snellere processor kiezen, dan twee of meer langzamere.

Daarnaast: bij geparalleliseerde software heb je ook (bijna?) altijd extra overhead voor de communicatie tussen de parallel draaiende delen. Die overhead heb je niet voor niet-parallelle software. In veel gevallen waar software goed parallelliseerbaar is, blijkt toch dat door de communicatieoverhead het rendement van extra processoren afneemt. zodat op een gegeven moment nog meer extra processoren de zaak niet sneller maken, en soms zelfs langzamer. Dat is dus nůg een reden om ook bij goed paralleliseerbare software een voorkeur te hebben voor minder en snellere processoren.
Enkele redenen dat het verspreiden van cores over meerdere dies als inferieur gezien wordt, zijn dat je bij fabricage meer handelingen moet verrichten, dat je meer materiaal nodig hebt, dat elk extra detail ook stuk kan of de handeling kan mislukken, dat extra handelingen geld kosten, dat de bus tussen de cores in theorie minder efficiŽnt zou kunnen zijn. Dat soort redenen zijn tamelijk valide als je de technologie nog niet zo onder de knie hebt maar betekenen niet dat een goed doordachte implementatie in de praktijk ook echt inferieur is. AMD bewijst het tegendeel.
De bus tussen de chips is altijd minder efficiŽnt dan de interne communicatie in een core. En dan heb ik het nog niet eens over het probleem van de synchronisatie van de caches van de verschillende processoren, en het probleem van het gelijktijdig veranderen van dezelfde geheugenlocatie door verschillende processoren. etc.

Natuurlijk is het goed mogelijk om een multi-chip ontwerp behoorlijk efficiŽnt te maken, wat AMD ook bewijst. En natuurlijk is het ook mogelijk om een multi-core ontwerp behoorlijk efficiŽnt te maken, wat zowel AMD als Intel, als ARM, etc. bewijzen, maar dat neemt niet weg dat een single-chip ontwerp indien mogelijk te prefereren is boven een multi-chip ontwerp, en een single-core ontwerp boven een multi-core ontwerp. Alleen zijn we nu op een punt dat niet alleen single-core niet meer mogelijk is in de praktijk, maar ook dat single-chip niet meer economisch rendabel is.
Een 256ghz cpu zal het gewoon beter doen dan 64x 4ghz cpu's. Je hebt altijd overhead met multithreading die je normaal met singlethreaded niet hebt. Zelfs algoritmes die ervoor geschikt zijn zullen niet perfect 100% schalen.
Zeg dat even tegen je grafische kaart ;)
En ook daar is er overhead al zal die vrij klein zijn.
Deze 'overhead' is niet magisch kleiner met een kleiner aantal hoger presterende cores. Sommige taken zijn nu eenmaal inherent parallel, en de overhead waar jij van spreekt is het 'alle codes vertellen wat de deal is'. Als je 500 keer dezelfde berekening moet hebben, met een ander input getal, is dat voor 1 core dus 500 keer wachten op het vorige antwoord. Voor 50 cores is dat 1 keer alle cores instructies geven, en dan zijn de antwoorden er allemaal tegelijk. Dan moet dat instructies geven dus 50 keer trager zijn wil de 'overhead' het minder efficiŽnt maken. En laat dat bij steeds meer taken niet het geval zijn...
Als je parallel gaat werken moet er iets zijn die elke core zijn taak toewijst. Vervolgens als ze klaar zijn moet dat ergens weer worden samengebracht. Kost allemaal extra rekenkracht. Ook al zal dat in sommige gevallen heel weinig zijn.

Natuurlijk zijn er meer zaken waar je performance aan kan verliezen maar dan ga je al gauw technisch het diepe in.

Bron: schrijft zelf dagelijks code.

[Reactie gewijzigd door Barsonax op 16 november 2018 07:44]

Dat is toch wat ik toelichtte? Ik werk (ook?) als programmeur, die overhead is gewoon in een groeiend aantal gevallen niet noemenswaardig (meer).
Ja maar daar ging de discussie niet om. Het ging erover dat 1 256ghz cpu sneller zou zijn dan 64x 4ghz cpu's.

Hoe klein die overhead ook is die enkele 256ghz cpu zal het gewoon beter doen.
Nope. Een taak met dermate complexiteit dat hij meer dan 64 keer trager gaat zou beter verdeeld kunnen worden. En laat dat nou goed mogelijk zijn. Klok maar eens je gpu op 640mHz, gebruik 1 compute unit, en klok hem dan op 100mHz en gebruik 64 compute units. Je kan er donder op zeggen dat 64*100mHz dan sneller is dan 1*640mHz. Hetzelfde is net zo goed te verzinnen met de x86-64-instructieset. Er zijn gewoon taken die slecht, maar ook zeker taken die zeer goed parallel op te lossen zijn, en voor een goed aantal gevallen is de winst dan echt zeker wel meer dan dat.
Ja maar nu ben je krom aan het vergelijken. Met 100x64 kom je op 6400mhz uit ipv 640mhz |:(. Logisch dat die 64 compute units dan sneller zijn.

Feit is gewoon als het mogelijk had geweest om de kloksnelheid te blijven verhogen hadden ze dat gedaan. Echter was dat niet mogelijk dus nu is de oplossing om het werk parallel te doen zodat we door kunnen blijven schalen. Maar het is niet zo dat 2x zoveel cores = 2x zoveel performance. Je zult ergens iets verliezen aan overhead.
Whoeps. Weekend hŤ :D
Klopt, aan de andere kant is het ook niet 2x zoveel cores 2x zoveel overhead. En zeker voor servers is multicore echt wel interessant en ook iets wat al in gebruik was voor de kloksnelheid een plafond begon te raken. Het zal wel in het midden liggen :P
Dan is een multi-processor platform ook inferieur aan een single-processor platform.
Inferieur stelt dat het een mindere oplossing is.
Als er echter geen alternatief is, kun je niet meer zeggen dat het inferieur is, maar moet je zeggen dat het superieur is. Het is namelijk beter.

Theoretisch heb je gelijk, maar in de praktijk kan een multiprocessor omgeving superieur zijn omdat je niet alleen cores telt, maar ook de interface naar je memory, je PCIe etc mee mag/moet tellen.
dus hun nieuwe 48core cpu is volgens hun eigen theorie een inferieur designed cpu?
yup, helemaal correct ;-)
Het grappige is dat Intel dit vroeger ook heeft gedaan en het toen juist AMD was die dit inferieur vond.
Denk aan de Intel Q6600 wat eigenlijk twee E6400's waren.
Dat waren ook gewoon 2 losse CPU's. Dat waren net als de p4d ervoor gewoon dual socket systeem maar dan in 1socket. (ze moesten via de nothbridge met elkaar praten!)

Dat kan je van amd's aanpak echt niet zeggen

En nu doet Intel precies het zelfde. Weer een dual socket systeem in een socket.
Vooralsnog zitten er veel fouten in de infinity fabric (het deel dat de cored verbind) waardoor dit lang niet voor iedere toepassing bruikbaar is. Ga met de huidige infinity fabric maar eens video coderen dat werkt volgens de test op nog geen 5de van de snelheid van een vergelijkbaar intel systeem (die dan wel weer meer kost).
Het is dus niet voor iedere toepassing geschikt op dit moment.

https://www.anandtech.com...u-battle-of-the-decade/12

hier kan je mooi zien dat onder bepaalde omstandigheden de geheugen bandbreedte colledig instort daar waar intel vrij constant verbeterd met meer threads.

https://www.anandtech.com...u-battle-of-the-decade/14

hier kan je zien dat voor compression ze ongeveer even goed zijn als de xeons maar bij 471.omnetpp of 462.libquantum zijn ze dermate veel trager dat de meerprijs van een intel xeon zichzelf al terugverdient puur op aanschaf van aantal cpu's om het nog maar niet over de rest van de componenten te hebben.
En zo zijn er nog wat toepassingen waar intel door waarschijnlijk de infinity fabric rondjes om de AMD chips heen rent. want als je gaat kijken naar prestatie per Mhz is amd superieur ondanks dat ze een 20% hoger stroomverbruik hebben per Mhz maar waarschijnlijk gaat hun 7 nm chips dat probleem oplossen.

Kortom welke setup het beste is hangt compleet af van wat je met je server doet.
Als data server is amd prima voor andere specifieke dingen kan je soms gewoon beter naar intel kijken totdat amd zijn problemen opgelost heeft.
1/5e van de snelheid?

De e enige situatie waarin ik mij dat voor kan stellen is als de intel chip AVX512 code draait, aangezien AMD in ZEN zelfs AVX256 emuleert met 2x AVX128 sequentieel.

Dat is in ZEN2 ook al minder omdat ze dan echt parallel verwerken van AVX256 ondersteunen.

En die eerste test van anand is wel interessant, maar voor de supercomputer praktijk totaal niet relevant. Dat is het directe gevolg van de NUMA architectuur van AMD. Een ieder die software voor een super computer schrijft zal rekening houden met de architectuur en zijn code zo organiseren dat hij de performance bij 8 threads on different dies kan gebruiken.

De grootste performance verschillen in de tweede link zijn cache gerelateerd. Intel profiteert van een enkele grote cache ipv een in totaal grotere maar per core kleinere cache. Voor sommige zaken zal je hier rekening mee kunnen houden bij het programmeren, voor andere zaken zal intels architectuur beter zijn en blijven.

Hoe dan ook, het zijn geen fouten in IF zoals jij zegt, maar valide design keuzes.
Het had iets te maken met vp8/9 codecs waar de amd helemaal niet meer overweg kon. in die bepaalde situatie is het dus beter om voor een intel server te gaan.
Ik ben al 10 jaar niet meer actief bezig met servers maar ik weet dat het in niet iedere situatie optimaal werkt. Dat zullen ze vast oplossen maar als je nu een server nodig heb kan dat dus verkeerd uitpakken. Met een deel zijn ze even snel of sneller met een ander deel zijn ze gewoon flink tragfer en dat moet gefixed worden.
Ga je echter virtual machines per core draaien dan krijg je bij amd natuurlijk meer cores voor je geld als bij intel ondanks dat intel met minder cores vaak even snel of sneller if is dat dan compleet niet relevant.

en design keuzes ? vandaar dat ze hard werken aan een oplossing voor deze tekortkomingen.
De NUMA architectuur is een designkeuze. Voor supercomputers is dat een non issue, alle software die daarop wordt gedraaid is toch custom en kan daar rekening mee houden.

Voor Threadripper in workstations is dat een ander verhaal Windows 10 Home/Pro/Enterprise en voornamelijk Windows applicaties houden hier slecht rekening mee. Daar is die keuze dus niet optimaal. Met de nieuwe layout van Zen 2 wordt de noodzaak voor standaard applicatie bouwers om rekening te houden met de geheugenlayout grotendeels weggenomen.

Hoe dan ook is het geen fout in IF, dat presteert in zowel Zen als Zen2 gewoon zoals het bedoeld is.
In de situatie van VP8/9 is het beter om voor hardwarematige accelerators te gaan, desnoods met FPGA's.

Die IP blokken zijn nota bene beschikbaar voor smartphone SoC's, vaak een factor 100 zuiniger dan CPU's: Dat op professionele schaal met Xeons willen doen is echt zinloze klimaatopwarming.
Nou dat is de handicap van Epyc gen 1 deze gen 2 is doorontwikkeling met extra inter die chipset in de package die de 8 DIE koppelt. Dus de handicap is veranderd. Hoeveel geen idee. Maar gezien verdubbeling van de DIE s ook nodig.

Super computer is niet gericht op video workstation software en gebruik.
Dus dat het daar slecht kan schalen is voor supper computer minder belangrijk gezien werk niet alleen over interne cpu koppelingen moet verdelen maar ook sockets en mobo en systemen clusters.

Op deze schaal is optimalisate van taal sowieso al enorm belangrijk en al decenia mee bezig met multi socket multi mobo en multi 19" racks en dan zooi.
Waar ook duurdere netwerk koppelingen worden gebruikt.

Want socket is nog tragere koppeling zo ook naar andere mobo wat in supercomputers juist decades heel gang baar is en aplicatie voor software ontwikkeling dat probleem al decenia tackeld sinds de eerste mainframes en server clusters.

Daarnaast zal ook intel vroeg of laat en is ook al in de planning om multi DIE te gaan.
Vooral nu hun foundry capaciteit wat tegenvalt en net zo als AMD ook kunnen profiteren van productie rendement.
En in het verleden hebben ze al eens chips in 1 package gekoppeld.
Vooralsnog zitten er veel fouten in de infinity fabric (het deel dat de cored verbind) waardoor dit lang niet voor iedere toepassing bruikbaar is. Ga met de huidige infinity fabric maar eens video coderen dat werkt volgens de test op nog geen 5de van de snelheid van een vergelijkbaar intel systeem (die dan wel weer meer kost).
Ik heb de tests niet in detail bestudeerd, maar als je het hebt over 1/5e van de snelheid, dan is dat zo onwaarschijnlijk veel minder, dat het vťťl waarschijnlijker is dat het probleem elders zit. Niet in Infinity Fabric, maar in de WIndows scheduler bijvoorbeeld...

Er zijn tests waarbij exact dezelfde software onder Linux wel goed schaalt, maar onder Windows niet. Dat moet dan dus (bijna wel) aan Windows liggen. Er was ook een Youtube filmpje van iemand (kan hem nu even niet vinden) die had uitgevonden dat de performance onder Windows flink omhoog ging als de gebenchmarkte software uitgesloten werd van core nummer 0 (zodat die alleen door het OS gebruikt kon worden).
Dat was bij Level1Tech
Ik geloof dat het in dit filmpje was (weet het niet 100% zeker)
Deze, als het goed is (heb hem niet opnieuw bekeken)
Als ik de cijfers zo snel even zie: Bij intel is het kennelijk een bottleneck per processor terwijl je bij AMD een bottleneck per die hebt. Bij een verdeling van de geheugenintensieve processen over de dies, is AMD altijd sneller dan intel. Dat houdt wel in dat je bij AMD cores hebt die niets staan te doen, en dat is natuurlijk zonde. Puur op prijs per bandbreedte zou het best kunnen dat AMD er nog steeds goed afkomt, maar daar moet nog wel wat verbeterd worden.

In processoren een paar generaties vůůr infinity fabric kwam ik ook al eens iets dergelijks tegen. Bij de gewone desktop/thuisgebruik quad cores, deelden steeds 2 cores een aantal resources waardoor hij in het slechtste geval als dual core presteerde. Voor de toepassing nog steeds acceptabel, maar je moest ze niet in een goedkope server willen gebruiken.

[Reactie gewijzigd door mae-t.net op 14 november 2018 12:54]

Omdat chips slim met elkaar laten communiceren en werk laten verdelen lang zo makkelijk is als je nu schetst. AMD heeft voor dit design heel veel onderzoek moeten doen, en hebben daarbij een hele goede optie gevonden. Intels interconnect lijkt iets vergelijkbaars te kunnen, maar nog lang niet zo goed als dat van AMD. Zoals in jet nieuws laatst hebben ze dit ook gebruikt voor hun 48 core cpus die er aan gaan komen.
Maar ligt het nu aan mij of is het gewoon een paar chips aan elkaar gemaakt en het socket 2x zo groot maken
Natuurlijk niet. Je kunt wel zomaar dingen aan elkaar 'plakken', maar dan krijg je nog geen resultaat dat de gewenste performance heeft, of Łberhaupt naar behoren functioneert. Net zoals je ook geen twee jumbo's aan elkaar kunt plakken om een extra groot vliegtuig te krijgen, met extra veel laadvermogen. Of niet eenvoudig 3 raketten aan elkaar plakken om zo een groter gewicht in de ruimte te kunnen schieten (zie Elon Musk's opmerkingen over het ontwerp van de Falcon Heavy).

Ik kan je de technische redenen niet geven, want ik ben geen chip-ontwerper, ťn ik ken de ontwerpen van Intel en AMD niet goed genoeg, maar zoiets is nooit simpel. Hetgeen overigens wel bewezen wordt door het feit dat Intel het nog niet gedaan heeft. Als het makkelijk kon, dan hadden ze het echt wel gedaan. Ze vinden het beslist niet leuk om achter te lopen...
Mooi. We hebben op een nieuw cluster op de Universiteit Utrecht ook 140 EPYC processors, en dat bevalt prima. :)
Gaaf! Uit pure interesse, waar gebruikt de Universiteit deze voor? Voor wetenschappelijk onderzoek zou je liever nog meer rekenkracht hebben, nietwaar?
Dit cluster wordt gebruikt door het departement Aardwetenschappen, en wordt uitsluitend gebruikt voor wetenschappelijk onderzoek. Het draait veel finite elements software om bewegingen in de aarde mee te simuleren. En natuurlijk willen we groter en meer, maar er is niet oneindig geld ;) Er zitten ook flink wat GPUs in om seismologische berekeningen meer uit te voeren.
Dit apparaat gaat dus 5000 nodes krijgen met een peaksnelheid van 24 petaFLOPs volgens een Duits artikel.
640k cores(niet threads), dus 5000 nodes met dual socket geeft 10000 cpu's :9
Als de base clock klopt dan hebben we het hier over een totaal van ruim 2,1 PetaHertz (2.144.000 Ghz) aan Zen calculation performance. (Al zegt dat getal niets, het is wel veel) :)
Hertz kan je niet bij elkaar optellen.

Stel je hebt 100 vrachtwagens die elk 130km/u kunnen, dan heeft je vrachtwagenpark ook niet een snelheid van 130.000km/u.
Dat zeg ik toch zelf al hierboven? Hoe kan het dat je daar overheen leest?
Natuurlijk kun je het wel bij elkaar optellen. Het is dezelfde eenheid. Maar net zoals procyon ook al schrijft: het getal zegt niets, of althans niet wat je misschien zou denken dat het zegt.

Wat het in dit geval zegt, is dat het evenveel berekeningen per seconde kan doen als een 2.1PHz Zen processor zou kunnen doen. Het zegt niets minder, maar ook niets meer. Ihb: het zegt beslist niet dat een willekeurig probleem ook even snel berekend kan worden als dat het op een 2.1PHz procesor berekend zou worden.
Stel, je hebt 100 vrachtwagens die elk 90km/u kunnen. Dan kun je in het optimale geval 100 keer zoveel vervoeren in dezelfde tijd als met 1 vrachtwagen die 90km/u kan.

Maar vergelijkingen zijn verwarrend. Wat ik bedoel: Je kunt clocks wel optellen, alleen dan moet je ze even omrekenen en IPS of FLOPS noemen, zodat duidelijk is wat je bedoelt.

[Reactie gewijzigd door mae-t.net op 14 november 2018 12:31]

Dit is toch geweldig nieuws voor de hele CPU markt! Al jaren zijn vrij wel alle supercomputers op Intel Xeon basis (met Nvidia/FPGA extratjes).
Het feit dat ze voor supercomputers nu weer AMD willen hebben geeft wel aan dat er echt wat goeds aan zit te komen met Zen 2! (En dat AMD dus weer lekker wat extra geld heeft voor R&D!)
Of de aanschafprijs is een stuk lagerm

Maar inderdaad tot om eindelijk AMD te zien
De aanschafprijs is onbelangrijk, het gaat om de TCO (Total Cost of Ownership). Deze supercomputer heeft 10000 CPU's. Bereken maar eens het kostenplaatje over x-aantal jaren van het verbruik, koeling en de licenties.
De aanschafprijs is wel belangrijk, die wordt namelijk aan de TCOO toegevoegd.
Nee, die wordt daar niet aan toegevoegd. De aanschafprijs is een onderdeel van de TCO. De TCO is niet de gebruikskosten, maar de totale kosten, incl. aanschaf, gebruik en uitfasering.
dat is precies wat @NotCYF zegt...
Nee, dat is niet precies wat hij zegt. Een onderdeel vormen van of er aan toevoegen zijn twee wezenlijk verschillende dingen.

Edit: misschien bedoelt hij dit wel, maar hij zegt het niet. :-)

[Reactie gewijzigd door MIB75 op 14 november 2018 14:22]

hmm daar heb je een punt.

Ik las meer ''toegevoegd in de calculatie van de TCO''.

Laten we maar aannemen dat hij het zo bedoelde :D
Dat is dus wat ik bedoelde. Aanschafprijs hoort bij de TCO.
Ja die wordt daar aan toegevoegd maar is praktisch verwaarloosbaar in het totale kostenplaatje.
Heerlijk die concurrentie van AMD, dat is goed voor iedereen die een processor wilt kopen. Ik hoop dat ze ook op de GPU markt ooit weer kunnen concurreren.
Dus verwacht hooguit 10% IPC boost voor bv. cpu-bound games, misschien her en der een performance boost door betere efficiency/memory latency en betere prefetching, en hopelijk een lekkere core clock boost.

Dan zit je nog rond Intel's huidige max performance, wat de weg toch wel vrijmaakt naar een keer een alternatieve upgrade anders dan clubje blauw ;-)

Ik heb het natuurlijk over de consumenten versie die nog niet uit is ;-)

[Reactie gewijzigd door Marctraider op 14 november 2018 15:19]

Wat is dit nou weer voor artikel?

Supercomputer met maar 64 cores?

leuk dat je een artikel plaatst over een supercomputer met amd CPUs erin, maar als je het dan over een super computer hebt, graag wat details over deze supercomputer, like hoeveel cores heeft deze supercomputer en wat is de r/peak die ermee te behalen is!

Nu is het een artikel als in: Pieter post is de postbezorger en komt langs de deur zonder jou pakketje en zeggend tegen je dat, je pakketje nog op het sorteercenter in verweggistan ligt.

oftewel

erg attent dat je informatie deelt maar je hebt er vrij weinig aan.
Even verder kijken dan je neus lang is. Er staat dat de Super Computer gebruik maakt van CPUs, in andere woorden meervoud. Per CPU is er sprake van 64 cores.
Ik lees het volgende: maakt gebruik van AMD Epyc-cpu's

Maar als je informatie wilt toevoegen of vindt dat zaken incorrect zijn beschreven dan kan je je bij de Frontpage moderators vervoegen: Frontpagemoderatie
Wat is dit nou weer voor artikel?
Supercomputer met maar 64 cores?
Supercomputer bevat processorS met 64 cores.

Ergo: meerdere processoren.

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True