Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel introduceert Xeon-processors in Cascade Lake-serie

Intel heeft de Cascade Lake-generatie Xeon-processors aangekondigd. Het topmodel van de nieuwe lijn heeft 48 cores en ondersteuning voor twaalf geheugenkanalen per socket. Ook is er de nieuwe Xeon E-2100-lijn voor instapservers.

De Cascade Lake-processors verschijnen in de eerste helft van 2019 en worden op 14nm gemaakt. De chips zijn bedoeld voor data-intensieve taken zoals high-performance computing, kunstmatige intelligentie en infrastructure-as-a-service. Het gaat om een vooraankondiging voorafgaand aan de Supercomputing 2018-conferentie.

Veel details over de nieuwe modellen geeft Intel dan ook nog niet, behalve dat de meest uitgebreide modellen 48 cores hebben en er ondersteuning voor twaalf ddr4-geheugenkanalen per socket is. Er komen moederborden met twee sockets voor een totaal van 96 cores, blijkt verder uit de presentatie.

Volgens Anandtech gaat het om een multi chip package om tot 48 cores te komen, waarbij Intel zijn Ultra Path Interconnect gebruikt om twee dies te verbinden. Waarom Intel zijn flexibelere en efficiëntere embedded multi-die interconnect bridge, of emib, nog niet gebruikt, is niet bekend.

Intel kondigt tegelijkertijd de Xeon E-2100 aan. Dit zijn processors met tot aan zes cores en twaalf threads, bedoeld voor instapservers. Er is ondersteuning voor tot aan 128GB ddr4 ecc 2666MHz-geheugen en veertig pci-e 3.0-lanes.

Xeon E-model

Kloksnelh.
(GHz)

Boost
(Ghz)
Cores/threads UHD Graphics 630 Cache Pci-e 3.0-lanes Geh. Tdp Socket, LGA Prijs
2186G 3,8 4,7 6/12 Ja 12MB 40 ddr4-2666 95W 1151 $450
2176G 3,7 4,7 6/12 Ja 12MB 40 ddr4-2666 80W 1151 $326
2174G 3,8 4,7 4/8 Ja 8MB 40 ddr4-2666 71W 1151 $328
2146G 3,5 4,5 6/12 Ja 12MB 40 ddr4-2666 80W 1151 $311
2144G 3,6 4,5 4/8 Ja 8MB 40 ddr4-2666 71W 1151 $272
2136 3,3 4,5 6/12 Nee 12MB 40 ddr4-2666 80W 1151 $284
2134 3,5 4,5 4/8 Nee 8MB 40 ddr4-2666 71W 1151 $250
2126G 3,3 4,5 6/6 Ja 12MB 40 ddr4-2666 80W 1151 $255
2124G 3,4 4,5 4/4 Ja 8MB 40 ddr4-2666 71W 1151 $213
2124 3,3 4,3 4/4 Nee 8MB 40 ddr4-2666 71W 1151 $193

Door Olaf van Miltenburg

Nieuwscoördinator

05-11-2018 • 09:38

67 Linkedin Google+

Reacties (67)

Wijzig sortering
Ik vond hun punten op performance gebied wel interessant;
- Linpack up to 1.21x versus Intel Xeon Scalable 8180 processor and 3.4x versus AMD* EPYC* 7601
- Stream Triad up to 1.83x versus Intel Scalable 8180 processor and 1.3x versus AMD EPYC 7601
- AI/Deep Learning Inference up to 17x images-per-second versus Intel Xeon Platinum processor at launch.
Als je een Linpack score haalt met 2x zoveel geheugen bandbreedte (12 channel ipv 6) en bijna 2x zoveel cores (48 vs 28), en deze is slechts 1.21x hoger, dan vind ik dat wel tegenvallen. Linpack schaalt normaal perfect (daarom is het beide zo populair als HPC benchmark, en tevens waardeloos :) ). Perfecte schaling zou zo'n 1.7x geweest zijn, wat betekent dat je maar op 70% zit van het verwachtte performance niveau. Nu loopt een Xeon 8180 op 2.5 GHz op alle cores, dus dat betekent waarschijnlijk dat de clock 70% lager ligt, wat neer zou komen op 1.8 GHz. Waarschijnlijk niet verwonderlijk als je bedenkt hoeveel energie dit zal verstoken op 14nm.

Stream Triad is een hele simpele geheugen streaming benchmark, er worden twee streams gelezen en een resultaat stream geschreven. De ideale 2:1 read/write ratio voor geheugen systemen (en daarom de standaard memory bandwidth benchmark). Dat ze daar 1.83x halen ten opzichte van de Xeon 8180 zou ook te maken kunnen hebben met een veel lagere klok, zeker omdat dit ook perfect zou moeten schalen met de hoeveelheid geheugen bandbreedte en die is van 6 naar 12 kanalen gegaan. 1.3x ten opzichte van de 8 kanalen van EPYC 7601 valt ook een beetje tegen; idealiter had dat 1.5x moeten zijn.

Al met al interessant, zeker ook dat ze toch met een MCM oplossing komen. (staat er letterlijk; The processor incorporates a performance optimized multi-chip package to deliver up to 48 cores per CPU and 12 DDR4 memory channels per socket.). De vraag is natuurlijk hoeveel, en hoe de interconnect latency zal zijn tussen de twee dies. Al vermoed ik dat dit simpelweg twee 24-core Skylake-SP afgeleiden op een package zijn, dat was waarschijnlijk een product wat ze redelijk simpel konden maken van de designs die ze sowieso al hadden, om een antwoord te hebben op de hoge core counts van AMD's EPYCs. Ze ondersteunen in ieder geval 2-socket systemen, dat staat in de kleine lettertjes onder hun nieuwsbericht, dus in feite zouden ze een 4-socket ondersteunend Skylake SP design kunnen hebben genomen en er twee binnen een socket geplakt hebben waarbij de onderlinge UPI links over de package lopen naar de andere die in plaats van tussen de sockets. Precies wat AMD ook heeft gedaan met hun Infinity Fabric.

[edit]: Spelfout

[Reactie gewijzigd door Squee op 5 november 2018 11:58]

Bij Stream is de normale methode om hem parallel te draaien via OpenMP. Er is dan sprake van een enkele array van een bepaalde grootte, waarop meerdere processorkernen werken. Hoewel de array als de compiler een beetje goed geoptimaliseerd is, in gelijke stukken gehakt wordt, zit je wel met de situatie dat het geheugen oorspronkelijk op 1 kern op de bepaalde gealloceerd is en via de cachecoherentiemechanismen in de processor door de overige kernen geraadpleegd wordt. De invloed van de bus tussen de processoren is bij Stream een factor van belang.

Omdat er hier twee Sklylake-dies op een enkele processor geplakt worden is het systeem kwa topologie equivalent aan een 4 sockets. Bij viervoeters is de bus tussen de processoren een grotere factor in de totale prestaties dan bij tweevoeters. Ik denk dat dit de Stream-resultaten verklaart.

Een andere manier van parallelisatie is elke kern zijn eigen stream uit laten voeren, Dit gebeurt bijvoorbeeld in HPCC, waar het "StarStream" genoemd wordt. In een dergelijk geval is Stream oneindig paralleliseerbaar.

Ik heb geen zinnige verklaring voor de bizar lage Linpack-score. Linpack zou perfect moeten schalen. Mogelijk is sprake van een TDP-limiet die de processor afknijpt, maar dan nog vind ik het bizar.
Bij Stream is de normale methode om hem parallel te draaien via OpenMP. Er is dan sprake van een enkele array van een bepaalde grootte, waarop meerdere processorkernen werken. Hoewel de array als de compiler een beetje goed geoptimaliseerd is, in gelijke stukken gehakt wordt, zit je wel met de situatie dat het geheugen oorspronkelijk op 1 kern op de bepaalde gealloceerd is en via de cachecoherentiemechanismen in de processor door de overige kernen geraadpleegd wordt. De invloed van de bus tussen de processoren is bij Stream een factor van belang.
Wanneer een processor fabrikant de Stream benchmark draait dan zorgen ze er wel voor dat die optimaal getuned is voor alle NUMA effecten, en om de maximale geheugenbandbreedte van een systeem te benutten. Door de dataset groot genoeg te maken, kan je deze prima zo alloceren dat de fysieke data mooi verdeeld is over alle geheugen kanalen, de virtuele adressen nog steeds een blok zijn, en elk individuele Stream thread alleen naar het lokale geheugen hoeft voor die core. Waarschijnlijk maken ze ook nog gebruik van large pages om te zorgen dat de gehele dataset binnen de TLBs valt. Een DRAM kanaal volledig benutten is niet zo lastig met een paar cores, dus je moet het verkeer goed verdelen om zo optimaal mogelijk uit de Stream benchmark resultaten te komen.
Omdat er hier twee Sklylake-dies op een enkele processor geplakt worden is het systeem kwa topologie equivalent aan een 4 sockets. Bij viervoeters is de bus tussen de processoren een grotere factor in de totale prestaties dan bij tweevoeters. Ik denk dat dit de Stream-resultaten verklaart.
Dat is zeker een goed punt, vanuit een NUMA perspectief vergelijken ze een 2-node met een 4-node systeem, dus dat ze geen perfecte schaling krijgen is niet geheel onlogisch. Daarbij ook nog in gedachte houdend dat een 2-socket AMD EPYC 7601 systeem een 8-node is qua topologie. Ondanks dat alle data lokaal is heb je afhankelijk van je cache coherence protocol alsnog verkeer tussen de NUMA nodes om zeker te zijn dat er niemand anders een kopie van de data heeft (vaak via een gedistribueerde directory). Daar zal je de latency van 4 nodes wel voelen ten opzichte van 2 nodes, wat (plus het kloksnelheid verschil), de 1.83x schaling zou verklaren.
Ik heb geen zinnige verklaring voor de bizar lage Linpack-score. Linpack zou perfect moeten schalen. Mogelijk is sprake van een TDP-limiet die de processor afknijpt, maar dan nog vind ik het bizar.
Ik kan nog wel even mijn berekening uittypen, maar het lijkt mij inderdaad een TDP limiet. Als we er van uit gaan dat alles prima schaalt bij Linpack dan;

Stel voor het gemakt dat de huidige 2.5 GHz 28-core Xeon Platinum 8180 een score haalt van "100". Dan zou je verwachten dat een vergelijkbare 24-core dan een score van 100 * 24/28 = 85.7 zou halen. Dat keer de twee dies in Cascade Lake zou een score van 171.4 opleveren. Maar, Intel laat zien dat er slechts een 1.21x verbetering is, dus een score van 121. Dus, deze nieuwe processor loopt op slechts 121 / 171.4 = 70.6% van de snelheid van de Skylake SP. 70.6% van 2.5 GHz komt neer op ongeveer 1.8 GHz. Vanwege de hoge TDP in een enkele socket, vind ik dat geen vreemde schatting.
nog een mooie vond ik
LINPACK: AMD EPYC 7601: Supermicro AS-2023US-TR4 with 2 AMD EPYC 7601 (2.2GHz, 32 core) processors, SMT OFF
Niets raar aan? Bij Linpack werkt SMT contraproductief, dus uitschakelen of niet gebruiken is de methode om de processor zo gunstig mogelijk te testen.
bij intel misschien, bij AMD epyc ligt dat blijkbaar iets anders.

High Performance Linpack Benchmark on AMD EPYC™ Processors
http://www.crc.nd.edu/~ri...0on%20AMD%20EPYC%20v2.pdf
However, leaving SMT enabled may indirectly allow slightly higher performance
(1% - 2%) since the OS can utilize the SMT siblings as needed without pre-empting the HPL threads.

[Reactie gewijzigd door Countess op 5 november 2018 12:23]

Moet je wel even volledig citeren, zinnetje ervoor is erg belangrijk:
"The Zen microarchitecture of the EPYC processor implements one SIMD unit per physical
core. Since HPL is SIMD limited, when SMT is enabled using a second HPL thread per core will not directly
improve HPL performance. However, leaving SMT enabled may indirectly allow slightly higher performance ...
De crux zit hem in "may". Ik draai HPL regelmatig en heb dan ook ruimte ervaring met Epyc en HPL. Ik heb dan ook situaties gezien waar SMT een voordeel had. Daarentegen heb ik de beste resultaten behaald zonder SMT. De crux zit hem in de lineaire-algebrabibliotheek. Indien die de FPU-eenheden voldoende weet te vullen, dan is de overhead van extra communicatie altijd hoger dan wat je met SMT kunt winnen. De beste resultaten bereik ik met OpenBLAS en bij OpenBLAS zie ik geen voordeel van SMT.

Hoe dan ook hebben we het over minieme verschillen, waarbij je echt niet kunt zeggen dat Intel iets onredelijks heeft gebenchmarkt door deze keus. Eigenlijk doen ze aan antreclame: Tegen de tijd dat Cascade Lake op de markt komt moeten ze het niet tegen Naples maar tegen Rome opnemen. En Rome verdubbelt de SIMD FPU-kracht per kern en verdubbeld ook nog eens het aantal kernen. 3,4 maal de score van Epyc nu betekent dus eigenlijk dat ze zeggen dat ze volgend jaar geen schijn van kans maken tegen AMD.
En Rome verdubbelt de SIMD FPU-kracht per kern
Zag ik daar een NDA sneuvelen? Zo niet, tell me more! (zoja ook, nu is ie toch al kapot :+)
Dat is natuurlijk maar de vraag, "May indirectly allow" betekent niet direct dat het ook (altijd) zo is.

In een andere PDF van dezelfde bron staat:
AMD recommends disabling SMT in the UEFI Firmware for this benchmark, setting the determinism slider to
Power Determinism mode, enabling manual cTDP override and setting the cTDP to 200 watts. Different
platform vendors may use different nomenclature for these settings.
Ik zie helaas geen recente tests van AMD zelf met Linpack, alleen oudere opteron tests dus daar kan ik de settings die ze nu voor Epyc zelf gebruiken helaas niet uithalen. Wel testen ze daar Intel zonder HT/SMT
Ach en nog eens 16 cores minder... Dat is ook nog eens grappig bedoelt van Intel.
Dat is niet de eerste keer de afgelopen 4 weken.
Ik zou Intel's eigen benchmarks niet voor waar aannemen en wachten op onafhankelijke benchmarks.
De Linpack is sowieso niks waard, zoals je zelf al zei. We kwamen op een clustertje qua performance fors (ongeveer 20%) boven het theoretisch maximum uit. We hebben nooit uit kunnen vogelen waardoor dat nou kwam, maar het was wel reproduceerbaar.
Intel heeft ook wat meer overhead op multicore dan AMD en dat schaalt natuurlijk ook lekker mee.
Maar hoe willen ze 12 channel DDR geheugen integreren op socket LGA3647? Er zijn bij lange na niet genoeg pinnen om dat voor elkaar te krijgen
Maar hoe willen ze 12 channel DDR geheugen integreren op socket LGA3647? Er zijn bij lange na niet genoeg pinnen om dat voor elkaar te krijgen
Nee dat gaat wel interessant worden; ik vroeg me af of ze soms in de specificatie van LGA3647 wellicht rekening zouden hebben gehouden met een dergelijk monster, maar het ziet er uit van niet. Als ik kijk naar de specificatie van signalen van een Skylake SP (socket LGA3647), dan zie je dat een enkel DDR geheugen kanaal ongeveer 160 pinnen in beslag neemt (Appendix A, op pagina 89 beginnen de signalen voor 'DDR0', het eerste kanaal). Voor de 6 extra kanalen heb je het dan al over bijna 1000 extra pinnen, en dat is dan nog alle power delivery buiten beschouwing gelaten. Er zijn wel een paar signalen gemarkeerd als 'gereserveerd', maar zeker niet voldoende.

Er zal dus voor deze processor een nieuwe socket moeten komen. Het zou mogelijk kunnen dat ze naar een speciaal cartridge design gaan, zoals de Itanium had. Natuurlijk met wel veel en veel meer signaal pinnen dan dit voorbeeld, maar met een vergelijkbaar idee; met de signaal pinnen en de power delivery gescheiden.

[Reactie gewijzigd door Squee op 5 november 2018 18:54]

@Olaf Vorige maand:
@Olaf Intel is weer gemeen aan het marketen, en jij bent erin getrapt ;).

Als je naar Intel Ark kijkt zie je dat de nieuwe processoren gewoon over dezelfde (48 min 4 voor de chipset = ) 44 PCIe lanes beschikt. Wat Intel nu in hun marketing doet, is het aantal PCIe lanes van de processor (44) en chipset (24) bij elkaar optellen en het noteren als 'Platform PCIe lanes'. En dan krijg je inderdaad 68 lanes terwijl er niks veranderd is tegenover de vorige generatie.
Deze maand:
I/O: PCI Express 3.0 – Up to 40 lanes (CPU + Chipset)
Wederom Intel Ark
Max # of PCI Express Lanes: 16
Iets met een ezel en een steen |:(.

Wederom dus niks veranderd ten opzichte van vorige generatie, gewoon 16 lanes direct uit de CPU en 24 lanes vanuit de chipset, die met elkaar verbonden staan met 4 lanes. Tevens exact hetzelfde als Coffee Lake desktop, dit is gewoon dezelfde chip maar dan voor de servermarkt.

Het wordt tijd dat we alles wat Intel (en elk ander bedrijf voor mijn part) met een flinke dosis scepsis gaan bekijken, zoals journalisme hoort te werken. Je hoeft geen Charlie te worden maar een iets kritischere blik is bij op zijn minst deze categorie bedrijven echt wel nodig.
Jup, er mag wel wat meer mening en marktanalyse op tweakers dan alleen het bericht, gemiste kans! Alleen door de comment sectie hier is het goed om toch te lezen, je kan zomaar een goede inval van een andere lezer oppikken.

[Reactie gewijzigd door Flaat op 5 november 2018 22:02]

Precies dit.

Mijn ervaring van jaren lang nieuwsberichten op Tweakers lezen heeft me geleerd dat je meer te weten komt in de comments dan in de artikels zelf.
Ik zie de artikels zelf dan ook meer als een soort van inleiding en de comments als de daadwerkelijke inhoud. :+

Je kan zeggen wat je wilt over Tweakers.. maar zelfs met gebrekkige moderatie (-1 voor alles wat 'offensief' is) zijn de commentsecties hier bij artikelen nog steeds duizenden malen beter dan een willekeurige comment sectie op een youtube video of welk ander platform dan ook dat ik ooit gezien heb. Durf zelfs te stellen dat Reddit er niet eens tegen op kan kwa nieuwswaardigheid/informatie.

[Reactie gewijzigd door Ayporos op 5 november 2018 19:05]

Een Xeon-E heeft geen 40 PCI-E lanes. Het is de serverversie van de Kaby Lake die op de desktop gebruikt wordt en Kaby Lake heeft 16 lanes, ook in de Xeon-E.
En als ik dan weer bij team rood kijk, is dit te lezen/vinden op hun pagina:

“AMD EPYC has enabled HPE to pack more performance into an efficient server design, removing the need for a second processor and reducing TCO for our customers. The HPE ProLiant DL325 Gen10 allows customers to achieve dual-processor performance in a versatile single-socket server,” said Justin Hotard, vice president and general manager, Volume Global Business Unit, HPE. “By providing up to 32 processor cores, 2 terabytes of memory and more fully utilizing 128 PCIe lanes of I/O, we have set the bar for single processor virtualization performance, and with HPE OneView, customers can optimize their applications and dramatically speed deployment of new virtual machines.”

Gehele stuk is hier te vinden/lezen. = amd.com
Ja, maar dat is dan weer geen eerlijke vergelijking, omdat de Xeon E niet gepositioneerd is tegen Epyc, de Xeon E is voor servers met weinig kernen / veel kloksnelheid. Een vergelijking met Ryzen is eerlijker, als bestaat daar geen serverversie aan.

Inhoudelijk, heeft de Zeppelin-die die AMD gebruikt 32 communicatielanes. Deze lanes kunnen geconfigureerd worden als infinity fabric, PCI-E, ethernet of SATA. Bij 4 dies zoals in de Epyc kom je dus inderdaad op 128 PCI-E-lanes, maar dat is een bovengrens. Je wilt waarschijnlijk wel enkele lanes voor andere doeleinden gebruiken.

Bij de Ryzen geldt in beginsel hetzelfde, doch om alle functies te kunnen leveren die een moederbord verwacht, is het noodzakelijk een chipset te plaatsen, die 8 lanes nodig heeft. Daardoor blijven er bij Ryzen 24 lanes over. In vergelijking met de Xeon E zijn dus anderhalf zoveel lanes aanwezig.
"Een vergelijking met Ryzen is eerlijker"
Wellicht is dit dan iets eerlijker = wccftech.com, en interessant om eens door te hebben gelezen te hebben, hier is ook een roadmap in meegenomen, welke enigszins een idee geeft van wat de plannen zijn voor 2018 tot en met 2020, als de deze geruchten ook enigszins blijken te kloppen.

"AMD Next-Gen 7nm Zen 2 CPUs Rumored To Feature 10-15% IPC Increase, Up To 16 Cores on AM4, 32 Cores on TR4 and 64 Cores on SP3. It will be interesting to see how everything pans out for Zen 2 but one thing is for sure, AMD is on a roll with their disruptive Ryzen, Threadripper and EPYC releases so expect Zen 2 to deliver the level of excitement as the first Zen processors. AMD is also saying that they are going to bring higher core count than ever before, more disruptive bandwidth and all of this will be available on existing sockets."

Maar zoals altijd, en dus ook hiermee, eerst zien, dan geloven.
Als ik in de pdf kijk dan moet ik je gelijk geven 16 van de cpu en de rest van de chip.

Bron: https://newsroom.intel.co...-processor-press-deck.pdf
Zit nu even op een klein Java congresje in Antwerpen maar hier komt natuurlijk een vervolg op....
Hmmmz ... erg bijzonder..
Performance results are based on testing or projections as of 6/2017 to 10/3/2018 (Stream Triad), 7/31/2018 to 10/3/2018 (LINPACK) and 7/11/2017 to 10/7/2018 (DL Inference) and may not reflect all publicly available security updates.
LINPACK: AMD EPYC 7601:  Supermicro AS-2023US-TR4 with 2 AMD EPYC 7601 (2.2GHz, 32 core) processors, *SMT OFF* , Turbo ON,  BIOS ver 1.1a, 4/26/2018, microcode: 0x8001227,  16x32GB DDR4-2666, 1 SSD,  Ubuntu 18.04.1 LTS (4.17.0-041700-generic Retpoline), High-Performance Linpack v2.2, compiled with Intel(R) Parallel Studio XE 2018 for Linux, Intel MPI version 18.0.0.128, AMD BLIS ver 0.4.0, Benchmark Config: Nb=232, N=168960, P=4, Q=4, Score = 1095GFs, tested by Intel as of July 31, 2018. compared to 1-node, 2-socket 48-core Cascade Lake Advanced Performance processor *projections* by Intel as of 10/3/2018.
Goh, we zetten SMT uit op AMD, gebruiken oude Opteron libs voor Epyc en gebruiken slecht 8 van de 16 beschikbare geheugen kanalen.. Ja verrek, kijk Cascade lake nu eens sneller zijn.

SMT uit houd in 64 threads voor AMD (ipv 128 mogelijk); AMD BLIS 0.4.0 is oud: 0.95.0 was al uit in 2017 en de huidige versie is 1.2. Hiernaast zie ik geen gebruik van libFlame. Geheugen channels is een aanname omdat ze 16*32GB gebruiken voor AMD.
8)7
Waarom zoveel modellen met minimale verschillen. Slaat echt nergens meer op met de chip makers. Willen hun portfolio vergroten maar als het op deze manier gedaan wordt. Kan je beter wachten .
Willen hun portfolio vergroten
Misschien dat dat ook meespeelt, maar de verscheidenheid aan producten komt vooral door de manier waarop chips gemaakt worden. Het zou goed kunnen dat er slechts één ontwerp geproduceerd wordt voor al deze producten. Nadat je een wafer vol chips gemaakt hebt worden ze namelijk één voor één getest om te kijken of elke chip ook inderdaad correct werkt. Sommige fouten (in onderdelen die simpelweg nodig zijn voor een correcte werking van de gehele chip) betekenen dat de chip rechtstreeks de prullenbak in gaat. Maar een heel groot deel van de fouten zijn nog wel recht te breien. Heeft één van de cores een defect ergens in de cache (caches nemen een groot deel van de chip in beslag, dus een flink deel van de fouten zal een stuk cache beschadigen), dan schakel je twee cores *) uit en verkoop je de chip alsnog, maar dan als quadcore. De verschillen in maximale kloksnelheid worden veroorzaakt doordat je niet de vraag stelt "is deze chip gelukt? ja/nee", maar "hoe goed is deze chip gelukt?". Door hele kleine afwijkingen tijdens de fabricage kunnen sommige exemplaren net wat harder lopen dan andere.

Als je meer informatie zoekt over dit onderwerp, zoek dan "product binning". Een groot deel van de chips die je probeert te maken lukt niet perfect; dankzij binning kunnen heel veel chips die "goed genoeg" gelukt zijn alsnog verkocht worden.

*) Waarom twee in plaats van één? Ehm..., omdat vijf een raar getal is!? Waarschijnlijk zal er wel een betere reden zijn, maar die zou ik niet weten. Enkele mogelijkheden die in mij opkomen (maar welke hiervan in de praktijk ook echt spelen kan ik je niet vertellen). Door meteen twee cores uit te schakelen maak je zowel chips met één, als met twee defecte cores alsnog verkoopbaar, zonder het aantal verschillende producten nog verder te laten stijgen. Mogelijk zijn cores op de een of andere manier per twee gegroepeerd en is er geen andere mogelijkheid dan ze per twee uit te schakelen. Chips met fouten zullen vaak toch al niet de beste zijn; door het uitschakelen van twee cores kun je van de vijf cores die op zich correct functioneren degene die het minst goed gelukt is (in de praktijk waarschijnlijk: die het hoogste verbruik heeft, of het minst hoog wil klokken) óók uitschakelen, zodat de resterende vier beter kunnen presteren.
Het verschil zit hem in de prijs en verbruik. En dat zijn 2 dingen waar je echt wel rekening mee houd als xxx aantal servers gaat inkopen. Inkopen van servers zijn eenmalige kosten, het verbruik is iets wat maandelijks terug komt. Als je niet zoveel prestaties nodig hebt, kan een server met 10w minder TDP een aardig verschil maken op je maandelijkse kosten.

Je wilt geen keuze hebben uit 3 CPU's, want dan kan je teveel of te weinig rekenkracht inkopen met als resultaat en hoger of lager verbruik dan gewenst.
Daar komt nog bij dat chipmakers de verschillen in kwaliteit moeten kunnen verkopen, een chip van slechter kwaliteit gaat in een lager product (minder cores, lagere klok etc.)
Ik heb net een i3-8100 gekocht voor mijn zelfbouw server, maar die 2126G ziet er wel erg strak uit met 6 cores en 12mb cache.

Intel heeft wel weer lekker een overkill aan cpus uitgebracht zeg. Je kunt tenminste wel aan het typenummer herleiden hoeveel cores een cpu heeft, maar om er nou zoveel uit te brengen met een minimaal verschil in kloksnelheid is wat overdreven.

Toch mis ik nog wel een echte instapper in de categorie 100 tot 150 euro, leuk voor simpele thuiswerkers. Maar daar zal wellicht ook niet voldoende vraag naar zijn.

[Reactie gewijzigd door yorroy op 5 november 2018 09:49]

Waarom dan geen ryzen halen? Ik zie geen voordeel van een instap xeon tegen een ryzen naast pcie lanes. Ryzen ondersteund ook ECC.
Ik zou eigenlijk niet direct willen zeggen dat Ryzen ECC support, althans niet officieel. AMD rept er voor zover ik weet met geen woord over in de specificaties, het is niet gevalideerd voor zover ik kan zien (Terwijl Threadripper en Epyc wel officiële ECC support hebben).

Je kan het uiteraard wel werkend krijgen met een mobo dat ook ECC support, maar of het dan 100% correct werkt is en bug vrij is, is maar de vraag.
Alle AMD's sinds het (of zo goed als) AM-socket-platform is uitgebracht hebben gewerkt met ECC geheugen maar is idd niet specifiek gevalideerd voor dat geheugen (veel gewoon geheugen ook niet trouwens).
Maar Lisa Su,Robert Hallock en James Prior (resp ceo, technical marketing en product manager) hebben bevestigd dat ECC geheugen gewoon werkt.

Verder zijn er wel degelijk AM4 moederborden die duidelijk ondersteuning aangeven voor ECC geheugen.

Verder is er een verschil tussen validatie en ondersteund. Gevalideerd betekent dat het door het (bij AMD alleszins) wilt in dit geval zeggen dat het door het server / workstation validation process is gegaan en daar dient de Ryzen niet voor. Ze adverteren het idd niet, maar hebben dat in het verleden ook nooit gedaan op de consumer-platformen.

[Reactie gewijzigd door white modder op 5 november 2018 11:01]

Alle AMD's sinds het (of zo goed als) AM-socket-platform is uitgebracht hebben gewerkt met ECC geheugen maar is idd niet specifiek gevalideerd voor dat geheugen (veel gewoon geheugen ook niet trouwens).
Maar Lisa Su,Robert Hallock en James Prior (resp ceo, technical marketing en product manager) hebben bevestigd dat ECC geheugen gewoon werkt.
Ja, maar je hebt natuurlijk "werkt" (1), en je hebt "werkt" (2) ;) . Dat je een Ryzen kan laten draaien met ECC reepjes, dan laat dat zien dat het geheugen "werkt" (1). Maar werken ook alle ECC functies voor monitoring/detectie/correctie? Wellicht "werkt" (2) dat niet, en krijgt je OS bijvoorbeeld niet de juiste notificaties bij ECC problemen. Wat ik bedoel te zeggen, is dat het best kan zijn dat een Ryzen met ECC geheugen kan werken in non-ECC modus. Dan heb je dus bar weinig voordeel aan je ECC geheugen, want het kost je meer dan gewone reepjes.

Dat is volgens mij precies wat @Dennism bedoelde met dat het niet officieel gesupport wordt.

[Reactie gewijzigd door Squee op 5 november 2018 13:15]

Verder zijn er wel degelijk AM4 moederborden die duidelijk ondersteuning aangeven voor ECC geheugen.
vb: https://www.asrock.com/mb...0Pro4/index.us.asp#Memory

de ondersteuning ligt bij de moederbordfabrikant. Bij wijze van onderscheiding t.o.v. anderen.

Verder is bij testen gebleken dat de hardware error correcting pefect werkt, en dat het ook gededecteerd / doorgegeven wordt aan het os (windows 10 en linux )maar dat het systeem niet gehalt werd bij een harde error (multi-bit errors) (wat het wel zou moeten doen). Single bit errors worden er trouwens perfect uitgehaald. het zijn de multi bit-bit errors waar het systeem niet reageert zoals verwacht. Er wordt iets of wat gediscussieerd of dit een aanpassing zou vergen in de micro code van AMD - Ryzen of eerder de chipset. (aangezien het wss windows 10 is dat niet ziet dat het geheugen ECC enabled is, zoals je zelf al zei)

[Reactie gewijzigd door white modder op 5 november 2018 14:04]

AMD laat het aan de moederbordfabrikant. De Zeppelin-die die in de Ryzen zit is dezelfde als in de Epyc-processor en AMD doet niets om te verhinderen dat de ECC-functies daarin op een Ryzen ingeschakeld worden. Of dat gebeurt en met welke functionaliteit is de verantwoordelijkheid van het BIOS en moederbordfabrikanten kunnen zich op dit punt differentiëren.
Voor nu had ik voor een Intel gekozen vanwege het lagere idle verbruik.
Heb nog wel gekeken naar een Ryzen 3 maar die was qua prijs gelijk aan een i3 dus zag de meerwaarde nog niet echt.

Het is ook maar een homeserver, dus heb niet zulke hoge eisen.
Het heeft wel een dikke laag ironie: Intel zet EPYC chips weg als "aan elkaar gelijmde chips" en als ze vervolgens niet meer op core count kunnen concurreren gaan ze zelf ook chips aan elkaar plakken.

Het zou wel lachen zijn als AMD volgende week met een 64core EPYC komt die de helft verbruikt van dit monster
Jup, dit wordt weer een mooie periode, de 64 core Epyc wordt denk ik een veel betere chips zowel in prijs als in support en verkrijgbaarheid. Deze Skylake AP gaat nog minstens een half jaar duren voordat de eerste moederborden (gaat zeker een nieuw socket nodig hebben) annouced zijn, denk misschien wel een jaar tot echte verkrijgbaarheid. De Epyc 64 core dropped gewoon in bestaande borden, dat word dus een echte launch in plaats van de paper launch waar deze Cascade lake AP chips toe behoren.

De "gewone" cascade lake chips en hun prijsstelling tegenover Skylake scalable en Epyc lijkt me veel interessanter.
AMD heeft morgen een investeerders conferentie waar ze schijnbaar 7nm enterprise CPU/GPU gaan aankondigen. Deze timing lijkt mij totaal geen toeval en lijkt mij (weer) een manier om af te leiden van AMD.

Bron: https://www.techspot.com/...-major-event-tuesday.html en https://www.tomshardware....-horizon-event,38012.html

[Reactie gewijzigd door jobplane op 5 november 2018 11:25]

EYPC2 gaat waarschijnlijk wel 64 cores krijgen. Dus Intel moest wel iets doen.
Ik weet niet wanneer deze 48 core Xeon's te krijgen zijn maar mag hopen dat dat redelijk snel is want AMD gaat begin volgend jaar roet in het eten gooien met EYPC2.
De voorganger (skylake) met 28 cores had een monster die size van 698mm en TDP van 225Watt.
Deze heeft daar twee van, is nog steeds op 14nm gemaakt en zal dus 2x 698mm zijn en dus mimimaal 350 watt verbruiken. Dit wordt een beetje onhoudbaar. Zeker als je het vergelijkt met AMD's plannen om 64 cores te produceren op 7nm.

[Reactie gewijzigd door procyon op 5 november 2018 13:01]

Bijna correct, Skylake gaat tot maximaal 28 cores :)
Ik denk dat het iets gunstiger kan uitvallen, omdat de Xeon 8160 met zijn 24 kernen een TDP van 150W heeft. Dan zit je in het slechtste geval op 300W. Ik denk dat Intel de processor nog iets verder zal afknijpen op kloksnelheid. Hoe dan ook, dit soort servers produceert meer hitte dan de gemiddelde serverruimte kan koelen en je zit dus te kijken naar direct gekoelde systemen.

Ik zou graag zien dat processoren minder i.p.v. meer gaan gebruiken, maar de realiteit is dat Intel hier enkel de eerste is. De overige fabrikanten gaan ook deze kant uit. De reden is dat de Wet van Moore hapert, maar er wel vraag is naar meer rekenkracht. In een situatie zonder Moore betekent meer kernen op de processor meer verbruik.
Dit is volgens mij precies wat er gebeurd is. Ik verwacht dat ze een afgeleide versie van de Xeon Platinum 8160 hebben gemaakt, en dan de frequentie wat naar beneden moeten knijpen om het onder de 300W TDP in een enkele socket te krijgen. Dat komt ook precies overeen met de Linpack score waar ik het over had, wat lijkt te suggereren op een 1.8 GHZ clock; Squee in 'nieuws: Intel introduceert Xeon-processors in Cascade Lake-serie'

Omdat de Xeon Platinum 8160 dies al 8 sockets ondersteunen is het redelijk triviaal voor Intel om er twee op een socket te monteren met lokale UPI links. Er zullen wel wat kleine veranderingen zijn in de core; waarschijnlijk introduceert Intel meer instructies in de AVX unit voor Machine Learning toepassingen (De geruchten gaan dat ze Bfloat ondersteuning hebben ingebouwd). Ze voegen onder andere de Vector Neural Network Instructions (VNNI) toe, die op 8-bits int en 16-bits int waarden efficienter verwerken, die belangrijk zijn voor berekeningen aan neurale netwerken. Dit zou de grote sprong in performance voor "Inference" toepassingen verklaren die ze tonen ten opzichte van Skylake. Dit soort extra features en transistor budget kost natuurlijk ook weer wat power, wat alleen maar zal bijdragen aan de wat lagere klok.

Cascade Lake heeft ook veel uitgebreidere hardware bescherming voor Spectre/Meltdown, kondigde Intel deze zomer bij HotChips aan.

[edit]: Iets verduidelijkt.
[edit2]: Correctie na het vinden van meer informatie, het is niet Bfloat maar de int8/int16 VNNI instructies die ML sneller maken op Cascade Lake. Correctie in italics...

[Reactie gewijzigd door Squee op 5 november 2018 20:21]

2186G is feitelijk een 8700k?. Een 6 core met hypertreading is in de 9 serie niet meer leverbaar, terwijl dit voor veel doeleinden (gaming) juist een zeer interessante processor was?.

Xeon's zijn alleen niet overclockbaar volgens mij?.
En xeons hebben meer pcie lanes en ECC support.
Het aantal PCI-E lanes is gelijk voor zover we het over de Xeon-E hebben. ECC is het voornaamste verschil. Daarnaast zijn er soms verschillen in aantal kernen/hyperthreading voor een bepaald prijspunt, een Xeon kan soms aantrekkelijker dan een i5 zijn. Sommige Xeons hebben een betere GPU dan de desktopprocessoren.
Die boostclock is dat single core of op alle cores?

Dit haal ik niet uit het artikel en zou wel een aanvulling zijn imho. Heel vaak zie je de hoogste boost snelheid worden aangegeven. Maar als dit op een enkele core is is het naar mijn mening misleidend.

eventueel een idee om 2 boost snelheden aan te geven?

single core/alle cores. dat geeft toch een iets beter beeld naar mijn mening.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True