Door Willem de Moor

Redacteur

De tweede generatie Threadripper

2990WX en 2950X met 16 en 32 cores

Conclusie: een upgrade en een niche

We beginnen maar met de olifant in de kamer: de 2990WX. De resultaten in onze standaardbenchmarks voor processors laten niet echt denderende prestaties zien. Sterker: de 2990WX is met zijn 32 cores vaak minder snel dan de 2950X met 16 cores. In de gamebenchmarks is dat helemaal schrijnend; daar blijven de prestaties ver achter. Nu is gaming natuurlijk het allerlaatste waarvoor je de 2990WX zou gebruiken, maar het is wel opvallend en misschien wel indicatief voor een groter probleem. We kunnen de mindere prestaties deels verklaren door tragere intercore-latencies en de lagere kloksnelheid speelt ook mee. Dat verklaart echter niet waarom we zo'n prestatiehit zien bij sommige benchmarks.

De enige verklaring die overblijft, zou het aantal cores en threads zijn. Zouden Windows en de meeste programma's daar niet mee overweg kunnen? De resultaten in games met Game- of Legacy-modus ingeschakeld wijzen daarop, en het is tekenend dat Far Cry 5 niet eens wil draaien op de 2990WX. Ook in de extra benchmarks met Resolve en Premiere zien we verbetering als we smt uitschakelen of het aantal ingeschakelde fysieke cores reduceren. Dus rijst de vraag: wat moet je als eindgebruiker met zoveel threads? Er zijn wel degelijk scenario's te vinden waarin de 2990WX tot zijn recht komt. De resultaten met 3d-renderingsoftware als Pov-ray, Corona en Blender laten zien wat het soort workloads is waarvoor de 2990WX is bedoeld. We zeggen het niet graag, maar voor de gewone desktop lijkt de 2990WX met 32 cores toch echt overkill.

Het gras is wat groener bij de X-serie: de 2950X scoort over de hele linie beter dan zijn voorganger, de 1950X, en is ook nog eens lager geprijsd dan diens introductieprijs. Intels iets duurdere i9-7900X wordt in veel benchmarks verslagen en zelfs de veel duurdere i9-7980XE wordt regelmatig aardig bijgehouden.

Daarmee is de 2950X een uitstekende upgrade voor het X399-platform, zeker als je een eerste generatie Threadripper met minder cores hebt. Als je al een 1950X hebt, is je winst natuurlijk beperkt, maar nog wel meetbaar. Als instapper in het X399-platform is de 2950X een uitstekende processor, met zijn lagere prijs dan de 1950X bij introductie en het volwassen moederbordecosysteem. AMD houdt de socket en moederborden backwards compatible met de eerste generatie, zodat je een ruime keus hebt in borden.

Lees meer

Reacties (205)

Wijzig sortering
Wel compressie, geen extractie-bechmarks? In de eerste heeft de 2990WX moeite wegens de geheugenkanalen Windows 10 scheduler*, in de tweede veegt hij met alles en iedereen de vloer aan. Gewoon een kritiekpuntje, maar gezien de algehele toon van de review wel interessant.

Verder, meer games getest dan workstation-benchmarks, op een W(orkstation)X cpu? 8)7
We kunnen de mindere prestaties deels verklaren door tragere intercore-latencies en de lagere kloksnelheid speelt ook mee. Dat verklaart echter niet waarom we zo'n prestatiehit zien bij sommige benchmarks.
Bij de game-tests met de 2990WX in 1/2 legacy mode, zie je dezelfde prestaties als de 2950X. Om dan te kleuren dat "er een onderliggend probleem is" met de 2990WX, en de prestaties als "Niet denderend" te bestempelen door de review heavily op gameperformance te beoordelen en dan ook nog eens beoordelend op gebruik in de verkeerde modus operandi?

Voor games moet hij in Legacy mode, voor workstation-werk in full-force. Het is dan ook een Workstation GPU, dus om die nou af te schrijven om game-performance :/

Ik weet het niet hoor.

*Edit; Win10 vs Linux scaling legt de 7-zip compression issue vooral bij Windows 10 neer, onder Linux schaalt dezelfde workload wel. De omissie van decompression op T.net blijft me verbazen.

[Reactie gewijzigd door Boxman op 14 augustus 2018 00:39]

Ja ik vind de game benchmarks ook wat dubieus en de conclusies die eraan verbonden worden zijn nog vreemder. Het is overduidelijk dat bij TR de helft of meer van die cores staat te niksen maar wel 'een load' krijgt waardoor ze niet idle gaan, en dus de overall kloksnelheden dalen = lagere single thread = lagere FPS. Hetzelfde gedrag als wat je ziet op zo'n beetje elke multi core CPU rtegenwoordig :?

Maar wat echt alles slaat, is dat je je benchmark suite vernieuwt en vervolgens met zo'n 50% Ubisoft games komt aanzetten. Op drie engines dat wel, maar dat zijn 3 in-house engines. Met andere woorden, dit is vooral een bench suite 'Hoe draait Ubisoft content' ipv 'hoe draaien games'. CryEngine? Lumberyard? UE4? Unity? Hallo? Enige vorm van common sense?! Ik zie 't niet. Zelfs GTA V zegt bar weinig over hoe games draaien, want ook dat is in-house en dus een schaars voorkomende engine. Wat zit hier voor gedachte achter? Ik ben echt benieuwd.

Daarbij is inmiddels duidelijk geworden dat een game waar Denuvo in zit, zeer waarschijnlijk (en aantoonbaar bij elke 'call home' actie van Denuvo) tot prestatieverlies leidt en die is lastig te reproduceren of te controleren. Dus AC:O? Zeer slechte keuze, ik zou 'm er maar weer snel uit slopen.

Gelukkig hebben we TW3 nog... oh wacht. Die engine is ook in-house en buiten TW3 nog nergens te bekennen... Al met al heb je nu dus een rits games getest op engines die je in een handvol titels nog *misschien* ooit eens gaat tegenkomen. En de engines waarop de hoogste aantallen games lopen en waar de grootste groei in zit (qua developers en verkopen/titels op die engines), die test je dus gewoon niet.

En het begon zo goed met de inleidende stukjes. Wat is dat toch de laatste jaren met steevast de plank keihard misslaan? Zo moeilijk is dit allemaal toch niet? Maar ik ben vast veel te streng en ach, wat maakt die game performance ook uit voor een workstation-CPU... 8)7

[Reactie gewijzigd door Vayra op 13 augustus 2018 17:45]

Eigenlijk spijtig om te zeggen dat je gelijk hebt.
Kingdom come deliverance zou een goede zijn. Cryengine en zeer zwaar op de CPU.
Als je ook kijkt naar dit plaatje, dan is het verschil in decompressie erg goed te zien:

https://tpucdn.com/review...0X/images/7zip_unpack.png
Dat niet alleen hoe kan het zo zijn dat die amd 32 cores nog het onderspit delft wat snelheid betrefd.
Het is inderdaad een processor voor server workflow en minder geschikt om te gamen.Zo zie je maar weer hoe goed intel het voor mekaar heeft.En dat ze gelijk opkomen (intel versus amd) is niet bij alle testen zo, over het algemeen is intel weer net ietjes sneller en dat ook nog met minder cores.
Het word een flinke hap voor amd om de snelste processor neer te zetten.Op deze benchmark heb ik dus gewacht.Misschien komt intel met iets nieuws uit of ze laten het zo zoals het is.Ik weet trouwens ook niet wat op de roadmap staat bij intel en amd.
Waarom reageert de redactie niet op het commentaar dat dit een bizar slechte review zou zijn? Snappen jullie het commentaar niet en gaan jullie er daarom niet op in of zijn jullie het er gewoon niet mee eens? What's up?

Daarnaast is dit nagenoeg dezelfde review als HWI ook gepubliceerd heeft. Maak samen gewoon eens een fatsoenlijke review. Het is sowieso BS dat jullie tegenwoordig dezelfde benchmark resultaten gebruiken. Waarom überhaupt dan zelf nog testen, wacht anders gewoon even wat de andere sites eruit krijgen en schrijf dan je review...

Wie zijn idee was het om hier überhaupt game benchmarks mee te gaan draaien? Als jullie al game benchmarks draaien, laat met deze CPU dan i.i.g. ook streaming meedraaien... En waar zijn virtualisatie benchmarks? Hoe zit het met meerdere programma's naast elkaar draaien? Ergo wat is het effect van op de achtergrond streamen, decoden, encoden, downloaden, etc. Terwijl je bijvoorbeeld ook aan het gamen bent. Let wel, we willen dan graag de resultaten van alle simultaan gelopen benchmarks/programma's terug zien, niet alleen het game aspect.

Op een knop drukken en daar een score uit krijgen is geen review... Diepgang en analyse van complexe workloads was met deze processor op zijn plaats geweest. Daar zal iemand zich even stevig in moeten verdiepen aleer een fatsoenlijke review over een dergelijk niche product te schrijven.

Het enige goede aan deze review is dat jullie hebben ingezien dat het om een niche product gaat, maar vervolgens flikkeren jullie er 'dertien in een dozijn' benchmarks tegenaan. Pure verpaupering van Tweakers.

[Reactie gewijzigd door madmaxnl op 15 augustus 2018 23:28]

Heel simpel. Er is vandaag een nieuwe firmware uitgebracht van Intel die de security problemen moet oplossen. In de voorwaarden van die firmware staat dat je niet mag benchmarken ermee. Mocht tweakers daar dus geen benchmark op loslaten, weten we eigenlijk wel hoe laat het is. Intel MOET winnen.
bij de Phoronix test veegt de 2990WX de vloer met alles en iedereen aan... op linux.

https://www.phoronix.com/...em=amd-linux-2990wx&num=1
Ook bij Techpowerup weten ze hun conclusie beter te formuleren. Dat je 24+ cores processors ( zowel AMD als Intel ) niet voor gaming moet aanschaffen weet toch iedereen ? Het sterkste punt van deze AMD CPU is prijs/waarde verhouding, samen met multi core performance / energie efficiëntie : ( en dat maakt hem inderdaad alleen aantrekkelijk voor mensen die er de juiste software voor gebruiken...

https://www.techpowerup.c...hreadripper_2950X/20.html

"Despite lower IPC, armed with 6 more cores and 12 more threads, the 2950X ends up 20 percent faster in multi-threaded video encoding, and about 25 percent faster at encryption. The differences are even more stark with rendering workloads such as Blender; we see the 2950X crunch our test workload in just 154 seconds, compared to 227 seconds of the Core i9-7900X. The extra cores translate into 45 percent higher scores in Cinebench R15 nT. "

"Idle power consumption of the Threadripper platform is a bit higher than comparable consumer platforms, by about 15 W, which isn't that much of a difference and justified by the higher core count and more complex platform. In single-threaded workloads, TR 2950X is the least energy efficient CPU in our test group, which isn't surprising, because Threadripper wasn't built for single-threaded applications. When we move on to multi-threaded, we see impressive results. With a total system power consumption of around 250 W, Threadripper 2950X is power-hungry, no doubt, but what makes the difference is how quickly jobs get finished, which helps with power efficiency, since higher power draw over a short time can still be more efficient than low power draw over a much longer duration. When looking at that metric, then Threadripper 2950X is around 30% more power efficient than Intel's 7900X."
Ik heb niet eens het idee dat dit aan Linux / Windows ligt. De hele test suite van Phoronix lijkt een stuk meer toegespitst op software die goed schaalt op cores. De Tweakers test suite heeft dit een stuk minder en heeft een boel applicaties zo te zien relatief slecht schalen per extra cores wanneer ze boven een bepaald aantal cores komen. Op de Pagina over multicore scaling na. Ik verwacht dat als Tweakers alleen Applicaties getest zou hebben die relatief goed schalen met meer cores dat de resultaten onder windows erg geleken zouden hebben op die van Phoronix.

Maar zelfs bij Phoronix zie je regelmatig dat de schaling van veel applicaties niet altijd even goed is bij veel meer cores. De 2990WX wint gelukkig wel alle benchmarks, maar niet altijd met de eigenlijk te verwachten percentages als de scaling "goed" geweest zou zijn.
Ik heb niet eens het idee dat dit aan Linux / Windows ligt.
Ik ben het niet oneens dat phoronix een meer multithreaded focussed benchmark heeft uitgevoerd, maar als het exact zelfde programma (7-zip) zo drastisch verschillend presteert met alleen een ander OS, dan is er volgens mij ook eem probleem met het OS.
Lijkt me inderdaad een Windows probleem dit, gezien de resultaten van de benchmarks op Linux. De performance-per-dollar is ook mooi :)
Microsoft zijn scheduler kiest bij het verdelen van threads inderdaad vaak voor een lege core, waardoor vooral bij CPUs met veel cores het erop lijkt dat het L1 en L2 cache erg vaak opnieuw moet worden opgebouwd.

Zou een schone taak voor Microsoft liggen, om hier eens naar te kijken. threads iets meer een core voorkeur geven. Zodat 20 threads op een 32 core cpu ( ik vergeet SMT voor het gemak even ) netjes 20 cores op 100% geven, en niet zoals beschreven op pagina 6, alle cores op 60%
Een lopende thread kan niet van core wisselen, dus dat is ook niet wat er gebeurt in windows.
Wat wel gebeurt is dat als een executable een nieuwe thread start een thread als runnable markeert, deze langs de scheduler gaat en op de "beste" core gezet wordt, onafhankelijk van andere of vorige threads.
Als de applicatie niet voor multithreading is uitgerust, betekent dat dat de applicatie wacht alvorens een nieuwe thread te starten de cpu weer aan het werk te kunnen zetten. De totale cpu time zal dus nooit boven de 100% gaan (1 core volledig gebruikt).
Het is een misconceptie dat het minder goed zou zijn (bijv) 2 cores op 50% te gebruiken dan 1 op 100% en 1 op 0%. Die is geboren uit de grafiek van "cpu-gebruik" die in werkelijkheid "cpu-tijd" weer geeft. Het resultaat is exact hetzelfde. De berekeningen gebeuren even snel.
"Maar", hoor ik je zeggen, "als de exe van core wisselt, moet de data ook mee". Dat klopt. En dat is exact het soort factoren waar de scheduler ook rekening mee houdt: de fysieke architectuur en de locatie van de data in ram en L1/2/3 caches. Dat is deel van de NUMA ondersteuning.
En waarom is het dan een goed idee om één single threaded applicatie over meerdere cores te verdelen? Dat is vnl een kwestie van energiemanagement, maar ook om rekening te houden met affiniteiten van andere processen. Er is zo op elke core een maximum aan vrije cpu-time beschikbaar.

Trust me: dat is een taak waaraan Microsoft al bijzonder veel belang hecht. Vandaar ook de complexe scheduler. Die werkt inherent anders dan bv de linux variant, maar er is voor allen wat te zeggen. Bewijs daarvan is sowieso dat niet specifiek geoptimaliseerde applicaties op beide OS'en nagenoeg even snel zijn, met in sommige scenario's een voordeeltje voor de één, en dan weer voor de ander.
https://docs.microsoft.co...out-processes-and-threads

edit: foute bewoordingen rechtgezet

[Reactie gewijzigd door the_stickie op 14 augustus 2018 19:54]

Een lopende thread kan dat inderdaad niet. Helemaal mee eens.
Echter loopt (running) een thread nooit continu. Elke keer wanneer een thread IO doet, of iets aan het systeem vraagt (waiting), of wanneer zijn time-slice van 20ms afgelopen is, gaat de controle terug naar het OS.

Zodra het OS zijn ding heeft gedaan ( muis, network, andere threads), word de thread op een processor weer ingeladen om verder te gaan, mits die ondertussen weer up runnable staat, anders word die overgeslagen. Best kans dat tegen de tijd dat de thread weer mag/kan draaien, er al iets anders bezig is op de core/processor waarop hij eerdere draaide.
Zelfs wanneer de "Thread Ideal Processor" gezet is, word niet gegarandeerd dat de thread op dezelfde processor verder kan draaien. hierdoor krijg je dus idd vervuilde cache.

Wat verder ook mee speelt, is dat de ThreadRipper een Numa achritectuur binnen één CPU is, waar voorheen dat voorbehouden was aan multiprocessor systemen.
klopt.
De scheduler geeft slechts een quantum (tijd) per keer. Als er daarna threads zijn met gelijke of hogere prioriteit, moet de thread terug in wacht. als die weer aan de beurt is, is er sowieso een context switch.

De intercore latency nadelen van Threadripper zijn inderdaad inherent aan alle NUMA architecturen. De scheduler kan alleen z'n best doen om die performance hits te vermijden. Zowel Windows als Linux doen dit, zij het met andere methodieken.
Sorry, maar er klopt weinig van je verhaal. Lopende threads wisselen regelmatig van core. Daar komt juist het verschijnsel vandaan dat 1 thread over meerdere cores verdeeld wordt. En een applicatie die niet voor multi-threading is toegerust heeft juist maar 1 thread.

Verder is de scheduler van Windows notoir slecht. Deze was in eerste instantie geschreven door DEC (of was het nou VMS?) en Microsoft is er lang vanaf gebleven. Pas in Windows 7 en in Windows 10 zijn er een paar verbeteringen toegevoegd, zoals het besef dat een hyperthreaded core bezet kan zijn door een andere thread. NUMA aware? Not even close.

Alle cores belasten is nog steeds een garantie voor een minder tot niet-responsief systeem, daar heeft Linux geen last van.

[Reactie gewijzigd door xorpd op 14 augustus 2018 11:02]

Lees even de link, en val niet voor details ;)
Een thread die gescheduled wordt voor een core, krijgt die voor een quantum (soort tijdslimiet). Als de thread dan niet gereed is, moet ie wachten, en kan het inderdaad zijn dat die daarna op een ander core verder gaat. Dat maakt niet uit, aangezien er sowieso een context switch moest gebeuren. het is het gebruik van de quantums dat multitasken mogelijk maakt.
Je zou kunnen zeggen dat het proces slechts één thread heeft, maar vanuit het standpunt van de cpu/scheduler klopt dat niet. Een cpu thread is dan ook niet hetzelfde als een softwarethread.
Verder is de scheduler van Windows notoir slecht. Deze was in eerste instantie geschreven door DEC (of was het nou VMS?) en Microsoft is er lang vanaf gebleven. Pas in Windows 7 en in Windows 10 zijn er een paar verbeteringen toegevoegd, zoals het besef dat een hyperthreaded core bezet kan zijn door een andere thread. NUMA aware? Not even close.
https://docs.microsoft.co...p/procthread/numa-support 8)7
Dat de scheduler (nu) slecht is, wil ik je zien onderbouwen....
Alle cores belasten is nog steeds een garantie voor een minder tot niet-responsief systeem, daar heeft Linux geen last van.
De scheduler hoort er net voor te zorgen dat een systeem responsief blijft. Bij een sterk belast multicoresysteem, zal de scheduler nog steeds schedulen ;)
Doe je multicore eens volledig belasten. Cpu-bound, memory-bound en io-bound. Vooral die laatste vindt de Windows scheduler niet leuk. Ik zal binnenkort eens een test doen, hetzelfde cpu-bound programma (dataset past volledig in cache) op Linux en Windows (linux subsystem), zodat het enige verschil de scheduler is.
Er zijn inderdaad zat scenarios waarin de één beter is dan de ander.... daar gaat het me helemaal niet om ;) Wel ben ik het er niet mee eens dat de scheduler "notoir slecht" is, of zoals Fiander_work het als een todo omschrijft om "eens naar te kijken", alsof cpu performantie voor Microsoft onbelangrijk is 8)7
Wat betreft io bound applicaties, krijgen die op Windows een relatief hogere prioriteit, dat heeft zo zijn effecten.
En wat ook zo zijn effecten heeft op dit soort benchmarks is de editie en/of toegepaste tuning. Desktop Windows legt de focus op end user experience/foreground applications en niét op zo snel mogelijk rondjes lopen :) Oa scheduler wordt daar op getuned.

Als je énkel de scheduler wil testen, moet je niet enkel de raw performance van één applicatie meten, maar ook de responsivness van andere applicaties, het aantal context switches, cache misses,... uiteindelijk moet de scheduler juist vooral een multitasking systeem mogelijk maken. Mijn (niet onderbouwd) gevoel zegt me dat Windows in raw performance wel eens iets vaker het loodje kan leggen vanwege het aantal processen dat op dezelfde prio blijft draaien, terwijl in Linux een cpu-intensieve applicatie automagisch een hogere prioriteit meekrijgt.
De raw performance van een applicatie wordt juist beïnvloed door de context switches, core switches, cache misses, tlb flushes etc. En het komt misschien als een verrassing, maar het zijn nou niet bepaald de grootste lichten bij Microsoft. Er werken meer psychologen dan programmeurs bij Microsoft is een bekende grap. Ik geef toe, het is sinds Windows 7 wel beter geworden (heb die dan ook gekocht, Windows 10 ook) maar het is nog steeds een Alfa Romeo: mooi aan de buitenkant.

Waarom gebruik ik het dan? De desktop experience is stukken beter dan op Linux. En als ik een Windows programma schrijf draait het overal. En het linux subsytem is vet cool.

Als je programmeur bent kun je het ook zelf checken, er zwerft ergens een torrent rond met de source van Windows 2000.
Met 1803 is er wel wat verbeterd. Ik draai al een tijd 2x xeon 16 - cores met HT, en voor 1803 was het helemaal soms drama, veel over alle cores verdeelde loads en weinig maximale turbo. Dat is nu beter.

En als je al frequent werkt met zo veel & relatief trage cores dan had je deze resultaten ook wel beetje kunnen voorspellen; voor de meeste apps zijn het té veel cores en daarbij draaien ze standaard ook nog rond 3ghz in allcore load?

Het is jammer @willemdemoor dat alleen cinebench op allcore 4ghz gedraaid is, ik had graag ook wat andere benches gezien op allcore 4+ ghz? Ik denk dat als je het stroomverbruik accepteerd en alles op 4ghz+ draait de 32 core véél meer potentie heeft. (Daarom heeft intel ook high TDP xeon's met hoge allcore turbo in het assorti zitten.) Ik zie trouwens de meeste reviews bij de OC test niet verder komen dan Cinebench :)

En eigenlijk zou ook onderhand softwarematig je makkelijker apps moeten kunnen limiteren in cores. Ik had meteen al kunnen vertellen dat 16+ cores voor adobe apps geen zin heeft.. Het zou ideaal zijn als de apps die je aanwijst standaard op de 2 die's blijven met directe geheugentoegang, bijv.

[Reactie gewijzigd door maratropa op 13 augustus 2018 16:34]

Ik zou het grotendeels zoeken in de benchmark suites, niet het OS. Tussen Linux en Windows zit zeker wat verschil, echter als je kijkt naar pagina 9, waar Tweakers de software test die goed gebruik kan maken van veel cores zie je duidelijk dat ook onder Windows goede prestaties worden behaald. Ik zie bijvoorbeeld met enige regelmaat Windows systemen met meer / evenveel cores en die draaien ook als een tierelier.

En ik verwacht dat zou je de software die Tweakers test op pagina 6 en 7 kunenn testen onder Linux dat je dan ook grotendeels belabberde schaling zou zien.

Het beste zou eigenlijk zijn om dezelfde software te testen onder Linux en Windows, helaas is dat in veel gevallen niet mogelijk.

[Reactie gewijzigd door Dennism op 13 augustus 2018 15:49]

Het beste zou eigenlijk zijn om dezelfde software te testen onder Linux en Windows, helaas is dat in veel gevallen niet mogelijk.
Dezelfde software testen is ook niet het hele verhaal. Zowel op Windows als Linux kan er op applicatieniveau veel geoptimaliseerd worden, dus als je de max van de hardware wil testen, is het ook wel fair gelijkaardige, maar specifieke applicaties te testen.
Minder geoptimaliseerde software wordt sowieso ook een test van de tussenliggende lagen, zoals de scheduler. Dat biedt zeker ook interessante informatie over de toepasbaarheid van bijv een cpu, maar biedt minder inzicht in de maximale performantie van deze nieuwe hardware.
Het zou inderdaad interessant zijn als Tweakers ook wat benchmarks afging op Linux.

Overigens laat dit misschien zien hoeveel software geschreven is voor Intel en misschien (nog) niet is geoptimaliseerd voor AMD?
Nu is Linux leuk, maar is een hele kleine niche markt en dat is niet het publiek waar Tweakers.net momenteel voor schrijft. En dat geeft exact weer wat hier al wordt aangegeven, de 32-core AMD chip is een extreem niche product. En dat is een €1850 processor sowieso al, of dit nu voor een 18 core Intel geld of een 32 core AMD. Een klant gaat toch kijken naar de performance voor zijn/haar specifieke doel en dat kan afhankelijk van applicatie en OS drastisch verschillen.

@DutchKevv Ik weet niet in wat voor niche jij je werk doet, maar in het MKB wordt bijna geen Linux op de werkplek gebruikt en bij de Enterprise/overheid maar sporadisch. Het is een niche product wat in de meeste gevallen alleen wordt ingezet als het niet anders kan, zoals bv. hele specifieke software die alleen (goed) draait onder Linux.

@sokolum01 Linux op de werkplek/thuisgebruik is bijzonder niche, zeker ook bij tweakers en helemaal bij het doorsnee huidige Tweakers.net publiek.

[Reactie gewijzigd door Cergorach op 13 augustus 2018 15:52]

Conclusie: een upgrade en een niche
Test dan ook niche producten... kug.... zo niche is Linux ook weer niet. Toch zeker niet onder de Tweakers?
Ik zou het toch aardig niche noemen, het zou mij enigszins verbazen als Linux zelfs op een site als Tweakers.net op de desktop door meer dan 10% van de gebruikers gebruikt zou worden als "daily driver" OS en dan zijn Tweakers al een niche op zich.

Wat zou het algehele wereldwijde Linux gebruik zijn op de desktop, 1%, misschien 2? Zoiets zou ik eigenlijk verwachten.

[Reactie gewijzigd door Dennism op 13 augustus 2018 16:06]

Wellicht, maar wie gaat er 32 cores in een desktop stoppen? Behalve de wow factor meestal niet zinnig. Op grote machines is het linux wat de klok slaat: de licentie voor Windows server bij 32 cores is significant. Windows 10 pro kan wel maar die kan niet het maximaal aan threadripper geheugen adresseren (max 256Gb voor Windows 10, max 1TB voor threadripper).
Zelf zit ik te koekeleren naar een machine als deze om mijn VMs op te draaien (Qemu/KVM) dus de windows benchmarks voor de host zijn iet interresant, de virtualisatie performance daarentegen wel (en daar zie ik al helemaal geen benchmarks voor bij Tweakers).

Mijn conclusie: de testen van andere sites afwachten die wel relevante benchmarks draaien ;-)
Tja, toch is dit een desktop / workstation CPU en geen server CPU, VMware certificeert en support bijvoorbeeld geen Threadrippers, maar ook OEMs als Dell / HPE maken geen server systemen met dit soort cpu's. Voor de hobby mogelijk wel interessant uiteraard. Virtualisatie zou ik inderdaad wel goed opletten. Bijvoorbeeld VMware heeft wat latency issues en issues met de geheugenbrandbreedte van de VM's bij Epyc, waarbij deze issues schijnbaar groter worden naar mate het aantal cores toenemen. Gezien het feit dat deze 32 core cpu juist op dat gebied "gecastreerd" is tegenover zijn grotere Epyc broertje is dat wel iets om goed uit te zoeken want ik kan me eigenlijk niet voorstellen dat een KVM/Qemu daar geen last van zal hebben als vSphere het wel heeft.


Ik vraag me zelf ook enigszins af wat het nut is van 32 cores in een workstation op specifieke, goed schalende. workloads na. De "pats" factor is natuurlijk groot, maar als ik de meeste reviews bekijk ben je beter af met een 16 core 2950X dan met de 32 core 2990WX tenzij je echt zeer niche workloads draait (zeer goed schalend met cores, maar juist vrij licht qua geheugen gebruik).

[Reactie gewijzigd door Dennism op 13 augustus 2018 17:25]

Klinkt logisch die latency issues: per ccx een memory controller. Als je pech hebt dan zet'ie je vm met 4 cores op 4 ccx'en. Mijn ervaring is ook dat je bij veel cores in 1 vm op moet passen: beter splits je de load over meer vm's. En inderdaad een instap epyc zou logischer zijn dan tr2.
Dat is voor Epyc inderdaad zo ja, deze CPU heeft 4 active dies, waarvan maar 2 dies de beide memory kanalen actief hebben. De cores op de 2 andere dies moeten dus altijd voor memory access over een andere die heen. Het issue met Epyc echter lijkt zo te zijn dat je juist je VM's niet op 1 CCX of Die wil hebben omdat hij dan alleen de geheugen bandbreedte van die die gebruikt, waardoor de VM "gelocked" wordt op uit mijn hoofd 32GB/sec. Maar moet eerlijk zeggen dat ik het zelf nog niet getest heb en ook maar even vluchtig doorgelezen heb, het zou dus anders in elkaar kunnen steken.
Gelukkig gebruik ik geen VMware maar KVM. Maar virtualisatiebenches zijn spaarzaam. Anandtech heeft het verhaal achter de geheugen controller wel beter voor elkaar en in plaats van roepen dat de performance vann de 32 core raar is zoals tweakers er een logischer verhaal over gedeelde geheugencontrollers en numa problematiek van maakt.
Het nut van zo een cpu is er eigenlijk niet, met de eerste treadripper was het al moeilijk een toepassing te vinden die gebruik maakte van 32 threads .
Maar de technologie moet er eerst zijn voor we software krijgen die er gebruik van maakt . Games bijvoorbeeld willen nu 6 core cpus hebben voor heen 4 cores. Als de tech er is dan komt de software er wel achteraan.
Cpu snelheden in GHz veranderen noulijks meer , maar cores hebben we er steeds meer van het wordt tijd dat software talen herschreven worden om gebruik te maken van meer cores dus parallel processing , zo als dat ook al jaren gebeurt bij GPUs.
Windows 10 Pro and Enterprise x64 the max is 512GB
Threadripper 2 : Today, the platform supports ECC memory and up to 256GB of capacity. However, it can accommodate up to 2TB as memory density increases.

dat je licentie voor windows server significant is , is toch ook logisch?
als jij een profesional bent, neem je gewoon "beter/duurder" materiaal dan een hobbyist, want jouw tools brengen je geld op ( verhogen productiviteit)! net zelfde discussie waarom sommige cad pakketen +20/30/50K kosten .
moet zeggen, 12k voor de 32-core datacenter versie is wel een hoop centjes, maar zet dit tegenover :linux welke "gratis" is aanschaf, maar de linux-expert @ 2000€ per dag om je pakket vanaf 0 te configureren, modules opzetten, onderhouden, dichttimmeren en patchen van tijd tot tijd.

stel dat je deze software 5jaar lang wilt gebruiken, kan je 1 dag per jaar iemand laten komen aan die dagprijs. ... om het maar even in een ander daglicht te plaatsen :)
Linux mannen kosten geen 2k per dag, die gaan voor dezelfde tarieven als goede Windows beheerders (als je meer betaald wordt het tijd om eens over te stappen van leverancier).
En linux gratis is ook lachen ik ken weinig serieuze bedrijven die niet op SLES of RHEL draaien en die kosten toch echt geld...
Ken er genoeg die CentOS nemen met eigen slimme mensen in dienst
moet toegven, de 2k is wat aan de hoge kant maar maakte het makkelijk voor mijn voorbeeld:-)
maar om het even in real life cijfers te plaatsen :
als je al een degelijke it-er wilt hebben zit je al rap 100€ per uur,

.nl cijfers zelfstandigen it : 8% factureert meer dan 160€/u met uitschieters tot 190€/u
.uk cijfer : kijk je naar +10jaar ervaring zit overgrote meerderheid (+60 %) tarief 150€ tot 200€/ per uur

tis maar hoe goed je jezelf kan verkopen ,
wat de zot er voor wilt geven , welke de beschikbaarheid is van concurentie ....

in een nichemarkt heb je zo van die astronomische bedragen,
zo niche is Linux ook weer niet. Toch zeker niet onder de Tweakers?
Maar tweakers zijn dan wel weer een niche onder de computergebruikers en helemaal verwaarloosbaar in aantal onder de totale wereldbevolking. :)
Voor de workstations lijkt JUIST Linux mij het belangrijkste platform...

@Cergorach Ik zit in de 'niche' programmeren, wil er best cijfers voor opzoeken als het echt nodig is, maar volgens mij is het redelijk algemeen bekend dat verreweg de meeste servers / workstations op Linux draaien en niet Windows of Apple zoals hieronder ook beweerd word.

[Reactie gewijzigd door DutchKevv op 13 augustus 2018 16:04]

Ik denk dat dit heel erg van de business afhangt. Wetenschappelijk verwacht ik aardig wat Linux gebruik, maar als ik kijk naar de Workstations die wij inrichten voor onze relaties is denk ik 85%-90% Windows en ook nog een redelijk deel Apple.

@DutchKevv gezien je Edit: Servers is inderdaad een ander verhaal, daar is Linux verwacht ik zeker het grootst. Vrijwel het hele Internet draait op Linux. Workstations zou ik graag wat cijfers van zien als je ze hebt, want als ik kijk naar onze doorsnede aan klanten, die denk ik best representatief te noemen is, zie ik echt maar weinig Linux systemen in relatie tot het aantal Windows systemen. Bij programmeurs zie ik dan inderdaad wel relatief vaak Linux (maar ook zeer veel Apple), maar bij CAD/CAM werkstations dan eigenlijk weer helemaal niet bijvoorbeeld.

[Reactie gewijzigd door Dennism op 13 augustus 2018 16:48]

Ik denk dat voor het soort toepassingen dat baat heeft bij een CPU met 32/64 cores/threads, Linux absoluut de overhand heeft. Dat het overgrote deel van de workstations in bedrijven Windows draait is geen nieuws, echter denk ik dat die in 9 van de 10 gevallen weinig tot geen baat hebben bij een ThreadRipper 2.

Waar je dit soort CPU's voor wil gebruiken is HPC werk, simulaties en dergelijke. Het zou me niks verbazen als dat voor >75% Linux werk is. Op het werk hier draait letterlijk 100% van dit soort dingen op Linux, terwijl de rest van het bedrijf (ook de zwaardere workstations) allemaal Windows zijn (daar draait dan voornamelijk CAD/CAM spul op, CI servers, dat soort dingen).

Ik vind dat je een CPU als een TR2 in de context moet benchmarken waar ie voor gemaakt is. Een benchmark hoe een TR2 het doet in Rise of the Tomb Raider is echt volkomen nutteloos.

[Reactie gewijzigd door johnbetonschaar op 13 augustus 2018 16:26]

Dat ben ik verder volledig met je eens. Deze cpu's ga je relatief veel in Linux systemen zien ten opzichte van Windows systemen.
Ik zit in de 'niche' programmeren, wil er best cijfers voor opzoeken als het echt nodig is
The 2018 Stack Overflow developer survey provides no detail about particular versions of Windows. The desktop operating system share among those identifying as Professional Developers was:

Windows: 49.4%
MacOS: 27.4%
Linux: 23.0%
BSD/Unix: 0.2%


Opgezocht voor je :P
Zelfs Apple staat nog nipt boven Linux.
hangt er vanaf waar je kijkt denk ik. Als ik even bij mij op kantoor kijk is het 50% linux, 50% mac, 0% windows. Onze productieomgeving is volledig Linux. (ik beweer trouwens nergens dat wij representatief zijn voor de hele industrie).
Nu is Linux leuk, maar is een hele kleine niche markt en dat is niet het publiek waar Tweakers.net momenteel voor schrijft.
Waarom is Linux een niche-markt? Een niche markt is een afgebakende markt.

Linux is als OS voor een desktopcomputer een volwaardig alternatief voor Windows. Goedkoper, transparant en biedt bij een standaard installatie een stuk meer functionaliteit dan een Windows computer. Ongetwijfeld zijn er programma's die wel op Windows en niet op Linux draaien, het omgekeerde komt natuurlijk minder voor. Maar het is geen afgebakende markt. Linux is een OS voor de desktop.

Linux heeft een klein marktaandeel, dat is waar, misschien bedoel je dat. Maar dat heeft AMD ook op de laptopmarkt. Toch worden nieuwe AMD (ryzen) laptops door Tweakers getest, nooit hoor je de reden dat het niet hoeft omdat het een niche markt zou zijn. .

Dat is het ook niet, met een laptop kan je evenveel AMD Inside of Intel. Analoog Wiindows en Linux, het is geen afgebakende markt. Dus geen niche.

De threadripper is op workstations gericht, dat kan een niche markt zijn, maar hij wordt hier getest als desktopprocessor.

Volgens mij haal je niche en marktaandeel.door elkaar..

Volgens Developer Survey Results 2016 van Stackoverflow gebruikt 21% van de developers Linux.
https://insights.stackove...-desktop-operating-system

[Reactie gewijzigd door Jan121 op 15 augustus 2018 09:34]

Linux is wel degelijk een afgebakende markt en dus niche. Dat heeft niet direct iets te maken met het OS zelf, maar met de beschikbare software en complexiteit. Developers is een hele kleine groep gebruikers, dat adoptie daar zo hoog is, is in veel gevallen ook niet verwonderlijk. Maar dat betekend dat adoptie buiten de developers groep nog veel lager is dan dat die 1-2% aangeeft.

Zelf ben ik geen 'developer' maar draai wel een Linux VMetje en in een ander W10 VMetje Cygwin, Linux heeft zo zijn uses (zelfs als je primair Windows ondersteund). Ik ben echter de enige die dat doet (zakelijk) als ik kijk naar een afdeling van ~20 man die een enkele duizenden seats ondersteunen (verdeeld over een paar honderd MKB). Als ik dat vergelijk met ervaring over de afgelopen 20 jaar is dat geen uitzondering, zelfs bij grote hoge scholen (IT) kwam ik slechts 2 Linux bakken tegen (bij docenten). Nu zal een development club niet mijn diensten nodig hebben, dus zal ik daar niet snel over de vloer komen.

Linux is zeker 'the right tool' voor verschillende jobs, die zijn echter schaars in onze maatschappij.
Ja, je zou ondersteuning voor Linux als een aparte markt kunnen zien. En wellicht ook de advertentiemarkt, dat bedoelt Tweakers wellicht. Maar de markt technologie is toch groter dan Windows?

Hier wordt workstation-hardware getest voor een desktop gebruiker. Die hardware is platform onafhankelijk, en op de desktop markt hebben Linux en Windows allebei een marktaandeel. Dat is dus dezelfde markt.

Daar is dus keus, die keuze wordt door Tweakers a priori gemaakt (hoezo onafhankelijk), zonder dat het in hun missie-statement staat, terwijl men zegt geïnteresseerd te zijn in elk detail en wil helpen om de gebruiker een betere keus te laten maken.

Als men in elk detail geïnteresseerd is maar blijkbaar een veel beter presterend Linux onder multicore dan WIndows - al zou een alternatieve test meer inzicht geven -, het vermelden daarvan al wil afdoen als nutteloos tijdverdrijf, dan is dat toch heel vreemd, en zorgelijk..

Alsof je een medicijn dat beter werkt tegen kanker, niet in overweging wil nemen omdat het niet door de grootste farmaceut wordt gemaakt, niet in alle winkels/apotheken ligt, en bijna door niemand wordt gebruikt. Wat is dat voor kritische kijk?
Linux is zeker 'the right tool' voor verschillende jobs, die zijn echter schaars in onze maatschappij.
Stel iemand heeft 500 euro. Kan daarvoor een leuke laptop kopen uit de pircewatch. Dan is het geld op. Heeft stroom en internet. Dan heeft ie de keus tussen Windows 10 Home en Ubuntu 18.04 installeren.

Wat kan de gebruiker meer/minder/anders op de machine met Windows dan met Ubuntu?

Wat zou goedkoper moeten zijn, hardware met een betaalde software licentie of hardware met een vrije software licentie?

Wat is hier een afgebakende markt aan?
Ik heb tot nu toe alleen de conclusie gelezen, inclusief een stukje twijfel over of windows 32/64 c/t wel aankan, en vroeg me meteen af waarom er dan niet op linux gebenched is, al is het maar om dat vermoeden te testen

Mooi resultaat voor AMD!
Wauw, dat is inderdaad wel even wat anders.
Intel word compleet gekleineerd in Linux.
Ja, ik ga hem aankopen voor mijn volgende Linux build. Kijkend naar het aantal PCI lanes, uitstekende eigenschappen voor IOMMU en de laatste Linux kernels, dan is dit voor mij een no brainer. Helemaal als jou Linux workstation gebruikt wordt voor een hoop sandbox workload en VMs.

Voor kernel compiles wordt het lachen.

Sorry windows gamers, this one is not for you.

Mijn 2 centen.
Dramatisch slechte review met dramatisch slechte conclusie. Waar zijn de HPC benchmarks, raytracing, databases etc etc.? Blijkbaar is er geen know-how in huis bij t.net om deze processors daadwerkelijk goed onder de loep te nemen. Ik hou het maar bij Phoronix.

Edit: voor degene die geïteresseerd is in een 1 op 1 vergelijking tussen Linux en Windows met dezelfde benchmarktools:
https://www.phoronix.com/...990wx-linux-windows&num=1
Ga niets verklappen, interessant genoeg

[Reactie gewijzigd door garf75 op 13 augustus 2018 23:51]

De threadripper is geen server CPU dus de door jou genoemde benchmarks zijn niet heel zinvol.
Niemand gaat bijvoorbeeld een database server draaien op een threadripper.
Serieus, niemand gaat database servers draaaien? Wat dacht je van webdevs? Je eigen local environment lijkt me buitengewoon handig om zaken te testen.
Daar heb je echt geen peperdure threadripper voor nodig.
Dit lijkt me een niche processor voor iemand die op grote schaal beeldverwerking doet of zoiets.
Peperduur? Vergeleken met de Intel i9 een koopje.
Dat is ook geen processor voor een database servers. Intel biedt daar veel geschiktere en goedkopere Xeons voor aan.
Hoeze geschikter: database heeft veel iops nodig en veel GHz als de queries meer zijn dan een indexscan. Welke Xeon is goedkoper en gaat harder en vooral: waarom.
Niemand gaat bijvoorbeeld een database server draaien op een threadripper.
Dat is vooral omdat de professionele grootschalige server sector eerst reeds gedane investeringen wil terugverdienen. Maar als threadripper een betere prijs/prestatie verhouding oplevert zal daar wellicht wel het toekomstige upgrade pad worden aangepast.
Nee want de threadripper is naast duur ook nog eens niet zuinig genoeg voor een serverfunctie.
Threadripper 2990WX is niet geschikt voor games dus kan het ook niet competen met CPU's die wel gemaakt zijn om te gamen.

Alles hangt af van de workload:
https://img.purch.com/03-...lbmRlci1SZW5kZXJpbmcucG5n

https://imagescdn.tweakto...z-thrashes-intel-hedt.jpg

https://www.tomshardware....950x,review-34472-11.html

https://cdn.wccftech.com/...per-2000-Series-New_1.jpg
En zoals dit laatste aangeeft; Machine Learning, Rendering, ...
Beetje jammer dat er wat perspectief mist inzage de opbouw van de nodes en de achilleshiel van deze multi-coremonsters , de latencies.
https://nl.hardware.info/...test-inter-core-latencies
Persoonlijk vindt ik het vreemd dat de performance van deze cpu's zo erg wisselt met diverse multithreaded applicaties. Eigenlijk was dit ook allemaal niet zo vreemd gezien de structuur van ryzen/epyc maar blijft gevalletje 4 modules op 1 pcb plakken mij vooral aanstaan als goed idee op papier maar in de praktijk niet altijd even handig.
Die zijn ook zeker interessant maar zonder referentie waardes van bijvoorbeeld de tegenhanger (7980XE) zegt het nogal weinig ;)
Inter-core latencies van 200ns+ zijn toch best wel flink en zoals daar aangegeven kan een klus al 5x langer duren voordat deze verwerkt is puur door de interconnectivity/interconnect-latencies.
Ik heb de latencies even op 7980XE en 7900X getest en grafiekje erbij gezet.
De conclusie dat als je een gamer bent de CPU maar links moeten laten liggen vind ik een beetje vreemd. Ik game ook wel, niet competitief, en dan presteert hij prima. Bij 1920 x 1080 doet hij niet onder voor andere CPUs. plus je kan er ook zware applicaties op draaien mocht je willen.
Zal maar net aan je game liggen en de settings.
1080p is ook wel een beetje uit de oude doos als game resolutie en zou ik een opmerkelijke combinatie vinden met deze cpu :P (iets met wel 2k aan een cpu uitgeven maar wel vasthouden aan schermen van 10-15 jaar geleden qua resolutie)
Zat andere games vooral met multiplayer componenten waar deze cpu gewoon niet de snelheid voor heeft en je met dikke dips moet leven, ik snap dat die conclusie wel m.b.t. gamers.
meer dan 90% van de gamers op steam gebruikt 1080p, dus uit de oude doos, dat is wel heel voorbarig.
2k en 4k, dat gaat zeker nog wel enkele jaren duren voordat die 1080p inhalen..
(de winst is heel klein dus maar weinig mensen staan in de rij om hierin te investeren, dus over t algemeen zullen mensen pas een 2k/4k scherm voor hun pc kopen als het oude scherm stuk gaat.)

Op dit moment is 1080p de beste game resolutie om te gebruiken(best geoptimaliseerd en getest).

Ik heb zelf een aantal weken geleden nog de overweging moeten maken omdat een scherm defect ging.
Gekozen voor 1080p, ik vond het het extra geld en de extra performance hit het niet waard, ik heb liever hogere framerates dan een paar pixels meer die je tijdens het intensieve gamen eigenlijk toch niet ziet ;)
Ik heb geen 4K scherm en game op de HDTV. :)
Maar als je maar 1080p hebt moet je ook geen PC van een paar duizend bouwen natuurlijk. Verkeerde bezuiniging :+
Werk op de gewone monitor en game via een Steam Link, die is maar 1920 x 1080. Werkt prima.
De conclusie dat als je een gamer bent de CPU maar links moeten laten liggen vind ik een beetje vreemd. Ik game ook wel, niet competitief, en dan presteert hij prima. Bij 1920 x 1080 doet hij niet onder voor andere CPUs.
Zijn er dan niet goedkopere CPU's waarmee dezelfde prestaties worden behaald?
Uiteraard. Ryzen is dan de logische keuze. 8 cores / 16 threads is voro alle moderne games voldoende, en een héél stuk goedkoper.
Sterker nog, voor de meeste games die nu populair zijn is zelfs dat overkill. Op mijn 1800X systeem staan de meeste cores gewoon op idle tijdens het gamen. Ik verwacht dat nieuwere engines de cores tzt wel gaan gebruiken, maar zolang de block buster titels console ports zijn, zal het nog wel even duren.
Ik game ook wel, niet competitief,
Wellicht val je dan niet onder de definitie "gamer". Voor iemand (een "gamer") waarbij games de prioriteit hebben, en de rest ondergeschikt is, kun je deze CPU's inderdaad links laten liggen.
Mwoah bedoel meer dat ik redelijk wat game, maar geen multiplayer games speel. Dat betekend niet dat ik niet om FPS geef.
De Threadrippers zijn gewoon geen cpu voor een gamer, prijs / prestatie staat totaal niet in verhouding met de CPU die een kwart van de prijs kosten een ook nog eens een veel goedkoper mobo nodig hebben De conclusie dat gamer niets heeft aan deze cpu's is dan mijn inziens perfect te verdedigen.

Het is echter wel een leuke CPU wanneer je heel de dag zware workloads aan het draaien bent en s'avonds nog een spelletje wil spelen dan kan dat weer prefect. .
Denk dat je beter kan zeggen dat als Gamen je doel is, en verder bijster weinig deze CPU zwaar overkill is. Voor minder geld haal je dezelfde of zelfs betere prestaties.
Bij 1920 x 1080 doet hij niet onder voor andere CPUs. plus je kan er ook zware applicaties op draaien mocht je willen.
Nu draai je gaming en workload om. Je zin moet zijn: plus er kan ook op gegamed worden mocht je dat willen.
Het is niet de latencies die zorgt voor de probelem van de 2990WX, maar de memory bandwidth. Dit komt omdat de helft van de cores geen directe toegang heeft tot memory en dit via de infinity fabric moet
Dat is dus juist een latency probleem. Bandwidth van fabric is toereikend maar juist doordat die delays zo ruim zijn/ram afhankelijk zijn qua snelheid ;)
Nee het is niet echt de delay, de 2990wx heeft een stuk minder bandwidth
Je moet de Hardware Unboxed review zien, daar is het "probleem" van de bandwidth duidelijk
Volgens mij is het heel simpel: AMD zit aan zijn maximaal te presteren, terwijl Intel al jarenlang zonder concurrentie zijn tick-tock ritme volgde, tot op recent in ieder geval. Ik vermoed (en anderen met mij) dat Intel dan ook al enkele generaties aan CPU's heeft klaarliggen die gewoon nog niet worden uitgebracht omdat er simpelweg geen concurrentie is.

Dat is tactisch wel slim natuurlijk: Als AMD een geniaal CPU-konijn uit de hoge hoed tovert kan Intel op dit moment altijd terugslaan met een superieure generatie. De nieuwe generatie Intels zitten er ook alweer aan te komen. Waar AMD nu mogelijk een licht voordeel geniet zal de volgende cycle van Intel ze weer keihard verslaan.

Ik juich de concurrentie toe, de komende jaren gaan erg interessant worden :D Want als AMD zo doorgaat zal je zien dat ze op een gegeven moment Intel kunnen inhalen en gaan inhalen. Dat gun ik ze van harte. Dit zijn mooie tijden voor ons :7
De nieuwe generatie Intels zitten er ook alweer aan te komen. Waar AMD nu mogelijk een licht voordeel geniet zal de volgende cycle van Intel ze weer keihard verslaan.
Intel loopt momenteel keihard tegen een muur aan met de invoering van 10nm, terwijl het 7nm proces van TSMC/Samsung vrij goed lijkt te lopen. Ik zou er absoluut niet van opkijken als AMD de komende twee jaar puur op basis daarvan het gat met Intel nog wat verder weet op te rekken.

Intel is al jaren lang aan het pappen en nathouden met hun 14nm proces, en je ziet dat met de hoge clocks en hex-cores van de -lake chips de rek er ook wel uit is, allemaal heethoofden die i7s
Het zijn geruchten en hoe groot de problemen werkelijk zijn is afwachten.
Zou voor AMD mooi zijn om eens duidelijk voor te kunnen lopen.
Kunnen kapitaal vergaren om stuk gezonder te worden als bedrijf.
Ik denk dat je je best eens beter informeert. Intel volgt al een tijdje zijn tick-tock principe niet meer aangezien er al een tijdje problemen zijn met de 10 nm productie. Coffee Lake zou bijvoorbeeld volgens het tick-tock principe een nieuwe architectuur op 10 nm moeten zijn. In werkelijkheid is het een optimalisation van de Skylake architectuur en nog altijd op 14 nm gebakken.
Pas in 2020 kunnen een nieuwe architectuur verwachten (Ice Lake) op een kleiner productieprocedé (10 nm), terwijl AMD nu al aan 12 nm zit en in 2019 Zen 2 uitkomt.
Alhoewel je wel gelijk hebt, vergeten een hoop mensen hier op tweakers (en de rest van de tech wereld heb ik het idee ) een heel belangrijk iets:

De 'nm' is verre weg van een standaard, en helemaal sinds de invoering van '3d' transistors is de 'nm' meer een indicatie.

Voorbeeld: het '14nm process' van TSMC is hun 'oude' 20nm process met '3d finfet' erbij. Dus een technische correctere naam zou zijn '20nm finfet' i.p.v. '14nm'.

Dus de les is: Het aantal 'nm' wat door een fab wordt opgegeven is NIET direct te vergelijken met het 'nm' van een andere fab! Ze noemen het ook vaker 'nanomarketing' i.p.v nanometer tegenwoordig :).

De grote vraag is dus hoe in hoe verre Intel mee doet aan dit 'nanomarketing' verhaal, en dat weet ik gewoon eerlijk gezegd niet. Het kan dus zijn dat Intel's 10nm ook een 'echte' 10nm is en daarmee de andere fabs juist ver voor is als ze het voor elkaar krijgen.

Het kan ook zijn dat Intel vrolijk mee doet met de nanomarketing en dat ze dus inderdaad een groot deel van de voorsprong kwijt zijn of zelfs achter raken, maar zoals gezegd weet ik dat gewoon niet.

Maar neem de '14nm' en de '7nm' van TSMC en GlobalFoundries met een grote korrel zout!

Ergens toen de eerste GPU's kwamen op het 14nm / 16nm process had ik er een artikeltje over gelezen wat de titel had (ongeveer) 'Why nanometers do not matter anymore in process names'. Ik kan het nu niet zo 123 vinden, maar dit artikel bevat soortgelijke info:

https://semiaccurate.com/...ess-isnt-even-close-name/

Nogmaals, ik claim helemaal niet dat Intel nog ruim voor ligt of juist achter raakt... het valt me alleen op hoeveel mensen de 'nm' van fabs gewoon met elkaar aan het vergelijken zijn en dat is vanaf het 3d-transistor tijdperk een beetje appels met peren...

edit:
https://www.semiwiki.com/...-standard-node-trend.html
Nog een leuk artikel van SemiWiki, waar ze het hebben over hoe een onofficiële 'standaard node indicatie' er uit zou moeten zien en wat de huidige fabs dan maken (in relatie met hoe ze het noemen :)).

Komt er op neer dat Intel altijd het betere proces lijkt te hebben. Zelfs zo ver dat als Intel hun 10nm nu _goed_ de deur uit krijgt, dat dat proces vergelijkbaar is met het 7nm process wat de rest uit gaat brengen. To be honest, 'de rest' is dan een fractie beter (echt en fractie) maar goed de '7nm' is ook nog niet ready for primetime, net zoals de 10nm van Intel.

Oftewel, Intel lijkt niet achter te lopen _op dit moment_ maar wel z'n voorsprong kwijt te zijn. Als op dit moment Intel z'n 10nm uitpoept in consumer-producten en TSMC hun 7nm, dan is dat gewoon netjes vergelijkbaar.... maar dan is Intel niet meer de beste :).

[Reactie gewijzigd door dipje2 op 13 augustus 2018 16:15]

Ik kan alleen maar beamen wat je zegt, maar mijn punt is dat Intel al sinds 2015 blijft hangen op het zelfde productieprocédé (14 nm), terwijl de transistorgrootte bij AMD wel telkens kleiner worden. Dat je de verschillende productieprocedés tussen Intel, TSMC en GloFo inderdaad niet klakkeloos kan vergelijken, illustreert deze afbeelding zeer goed.
Intel zit niet op hetzelfde productieprocédé. Weliswaar is de node grootte ruwweg hetzelfde gebleven, en kan dezelfde 14nm apparatuur gebruikt worden, maar ze hebben de transistoren wel iets getweakt in de tussentijd. Dat doet de concurrentie overigens ook.
Intel verwacht zelf wel problemen en hoopt AMD beneden de 20% marktaandeel op de servermarkt te houden: https://www.tgdaily.com/s...s-ceo-trying-to-get-fired
Oftewel, Intel lijkt niet achter te lopen _op dit moment_ maar wel z'n voorsprong kwijt te zijn.
En dat is waarschijnlijk meer een symptoom van het feit dat de halfgeleider industrie steeds meer tegen de limiet van de huidige technologie aan loopt (maw: dat de wet van Moore aan kracht verliest), dan dat het een teken is dat Intel steken laat vallen.
De relevantie van intel 14nm =/= GF 14nm is niet zo dramatisch als
13nm intel vs 32nm GF wat AMD keihard getroffen heeft.
En daarmee is niet Zen de reden dat AMD terug is maar eerder dat GF bij is met intel.
En je kan nm niet direc met mekaar vergelijken maar in dit geval is het meer =/= maar ook ==

En daarmee what effer intel en AMD doet nm speeld kleinere rol waarbij andere facturen grotere rol krijgen zoals IPC Klok en TDP en aantal cores.

Wat houd dit in Buldozer zat lang op Prehistorische nood waar gigantische TDP handicap en transistor density handicap . Wat betekend dat.
Halve hoeveelheid FPU endaarbij zowat alles magertjes uitgevoerd. Zoals Intel icore op 32 ook magertjes is dan eerste en tweede gen op 13 of 14nm.

Dat houd ook in geen zen dan high density buldozer gen op 14nm.
Dat zou een totaal andere beest zijn dan Piledriver 32nm vs Ryzen op 14nm.

Jouw pleidooi dat nm matters , houd al helemaal in dat grootste invloed is op chip op 13nm vs 32nm.
En invloed van 14nm vs 14nm veel subtieler en dan spelen andere factoren grotere rol.

Als je kijkt naar alle bulldozer gen zie ook IPC verbeteringen onderling
14nm buldozer kan wel everedig aantal FPU hebben en flinke IPC boost omdat met hogere transistor density en budget veel meer kan. Fat cores. Met 20 stages ook na wat refreshes heel goed klokbaar met iets mindere IPC.
Het verschil met Zen zou iets lagere IPC maar beter klokbaar kunnen zijn. Bij flinke buldozer overhaul zou SMT ook mogelijk zijn.
Door meer iNtel te volgen maakt de huidige gen wel beter vergelijkbaar met Zen .
Intel heeft hier de aankomende jaren nog geen antwoord op. En dan komt AMD volgend jaar al met 48cores.

Dat keihard terugslaan van Intel gebeurd misschien in 2021.
Intel startte de MHz-race, AMD de CPU core race. We gaan het zien hoe alles ontpopt. Dat Intel de komende jaren hier nog geen antwoord op heeft vind ik wat vreemd om te zeggen; zoals de benchmark laat zien, is de Threadripper niet altijd de snelste en heeft een Intel CPU vaak toch wel de prestatiekroon.
Dat hoeft wat mij betreft niet per core gelijk te zijn. Het moge in elk geval duidelijk zijn, dat de Ryzen CPU familie duidelijk gestoeld is op schaalbaarheid van cores, maar niet zozeer ook op prestaties per core.
Maar je leest ook dat de load soms maar 60% is op een cpu en dat Tweakers niet weet waarom ie zo laag scoort bij sommige benchmarks.

Bij andere reviews zie je dat de 2990 overal bovenaan staat.

Gezien AMD volgend jaar een 48 core cpu uitbrengt en Intel pas in 2021 meer dan 28cores gaat uitbrengen denk ik dat Intel heel weinig in te brengen heeft op in ieder geval de servermarkt. De consumentenmarkt moeten we inderdaad nog zien.
Bij andere reviews zie je dat de 2990 overal bovenaan staat.
Dat zegt nog niets natuurlijk. Voor hetzelfde geld sorteren zij van laag naar hoog, ipv hoog naar laag wat Tweakers doet. ;)
Intel kan wel chips uitbrengen met zoveel cores maar niet voor dat geld, voor thread ripper 32 core plaatst AMD 4 x 8 core cpu's op 1 sock en verbind deze met elkaar terwijl Intel gewoon een 32 core cpu bakt.
Keihard AMD verslaan zie ik de komende jaren ook niet gebeuren.
Met ringbus had intel het zelfde kunnen doen als AMD maar Intel heeft gekozen voor mesh inter connect, een proces kan dan van alle cores gebruik maken zonder met vertraging te zitten zoals je bij AMD tegen komt omdat intel dit al zag bij hun ringbus en dus mesh ontwikkelde.
Voor de toekomst is de manier van intel sneller maar nu nog niet en kan AMD er van profiteren, ik ben ben benieuwd of AMD met zen ook naar 16 core kan en in de toekomst nog hoger, dan hebben ze echt een goede zet gedaan.
Jammer van de 2990WX, ik zou ook denken dat windows en de meeste applicaties ook nog niet heel erg goed geoptimaliseerd zijn voor 32 cores en dat er met bios en driverupdates ook nog wel het een en het ander te verbeteren is. Hoe dan ook kunnen de goedkopere processoren Intel nog wel wat vuur aan de schenen leggen, dus dat is mooi voor de concurrentiestrijd.
Lang niet alle applicaties zijn goed te schalen met meer cores. Je ziet vooral vaak dat wetenschappelijke applicaties en andere pure "numbercrunshers" net als render applicaties goed schalen, zie je ook in de Tweakers review onder Windows. Ik verwacht eigenlijk niet dat Windows het probleem is, ik zie zeer regelmatig Windows systemen met een stuk meer cores.

Andere applicaties schalen weer een stuk slechter, dat kan aan optimalisatie liggen. Maar ook aan het feit dat lang niet alle soorten applicaties goed te optimaliseren zijn om parallel data te verwerken. Zie ook bijvoorbeeld: https://en.wikipedia.org/wiki/Amdahl%27s_law
Gaat het misschien ook niet om gewoon zo veel mogelijk tegelijk te laten draaien op deze cpu's of te gebruiken als server met virtual machines? Het runnen van 1 of een kleine hoeveelheid applicaties is misschien niet direct de gebruiktstoepassing maar bijvoorbeeld tegelijk gamen en video encoding + een aantal andere processen op de achtergrond lijkt me dan toch een stuk handiger met een threadripper.
Zeker, de meeste "creators" hebben niet maar 1 applicatie open. Als ik aan het videobewerken ben dan staat photoshop, Premiere en meestal ook aftereffects open. Het zelfde met dtp werk, dan staat photoshop, indesign en illustrator open en komen er enorme bestanden langs. Het verschil tussen mijn 8th gen i7 quadcore laptop en mijn 1900x desktop valt met een enkele applicatie amper te merken, maar als alles open staat is het verschil enorm.
Tsja, maar voor een server zou je dan eerder een server-cpu pakken. Je kunt je virtualisatie-cluster zelf bouwen, maar mijn voorkeur heeft zoiets niet. Deze 2990WX is weliswaar een beest, maar wel een beest met beperkt nut.
De Threadripper is natuurlijk geen server CPU, daar heeft AMD Epyc weer voor. Zo staat Threadripper niet eens op de HCL van bijvoorbeeld VMware, op support hoef je dus niet te rekenen. Dat maakt het direct als een beetje een "hobby bob" oplossing voor dat soort gebruik. Epyc staat uiteraard wel de HCL.

Veel processen draaien is het uiteraard wel een nuttige cpu voor, maar zelfs voor gaming en streaming lijkt het overkill te zijn tenzij je een Pro bent. Een Ryzen 2700X systeem doet dat bijvoorbeeld ook prima, tegen een veel vriendelijkere prijs. Als je er echter je geld mee moet verdienen en naast het streamen zoveel mogelijk bijvoorbeeld youtube content moet renderen en editten kan een Threadripper weer wel een zeer nuttige investering zijn.
De hcl van VMware is zowiezo erg beperkt en alleen een ding als je VMware gebruikt. De broadcom server 10gbit adapter in de Dell r720 staan er ook niet op. En reken maar dat dat server spul is. De VMware hcl is vooral een lijst van technologie van 3 jaar geleden.
Dat laatste is zeker niet waar, vaak genoeg staat nieuwe server hardware binnen een paar maand na release op de HCL. Ik weet trouwens niet welke NIC je bedoeld (volgens mij certificeerd VMware geen losse NIC's), maar bijvoorbeeld de Broadcom B57810 is in diverse Dell R720 modellen gecertificeerd voor VMWare. Verder is de Dell R720 natuurlijk in IT termen "zo oud als de weg naar Rome" Even snel uit mijn hoofd uit 2013, dat zou kunnen betekenen dat deze hardware niet meer voor de laatste versie's gecertificeerd zal worden.
Dit was in 2013. Daarna zijn we weg gegaan van vmware en containers gaan doen met lxc/proxmox en een enkele vm :) De schalingsproblemen die we hadden met VMware (meet cores toewijzen aan je vm en het wordt trager) hadden we geen zin meer in. Ook het inpatchen van die broadcom controller en dan je support verliezen was geen punt in her voordeel van VMware.
@willemdemoor Vraag aan de auteur van dit stuk, waarom is er gekozen voor langzamer geheugen bij de Intel kant? Zo kan je wel een vertekend beeld krijgen. Zeker omdat je weet dat AMD honger heeft naar sneller geheugen.
Omdat we alle processors altijd testen op de snelst officieel ondersteunde geheugensnelheid testen. Bij TR1 is dat 2667MT/s, Skylake-X is ook 2667MT/s, TR2 is 2933MT/s.
Ik heb heel even gekeken naar de Asus Prime X399-A moederbord en daar is 3 dagen geleden dus doodleuk een bios update voor uitgebracht voor TR2 support. Dus dat betekend waarschijnlijk ook dat je grote problemen gaat krijgen als je nu een Asus X399-A processor gaat kopen i.c.m. een TR2 CPU. De kans dat je deze PC opgestart krijgt is dus nihil totdat je een BIOS update uitvoert. Dat betekend dus dat je eerst een TR1 CPU nodig hebt om de bios update uit te voeren voordat die TR2 CPU dus werkt.

Ik vind dat tweakers heel erg verwarrend is met "backwards compatible" Er wordt nu in de review gesuggereerd dat je simpelweg een X399 mobo koopt en dat deze TR2 meteen gaat werken. Dat is dus hoogstwaarschijnlijk "niet" het geval. Dus kijk uit met het aanschaffen van een TR moederbord. Zorg ervoor dat dit een recentelijk uitgebracht model is waar TR2 support al ingebakken zit.

[Reactie gewijzigd door rigbuilder op 13 augustus 2018 18:00]

Kan je bij moederborden in die prijsklasse niet updaten zonder cpu? Dus gewoon een USB stick met bios er in en gaan?
En precies welke CPU denk je dat dan de USB driver laadt, de firmware van USB ophaalt, en naar de flash chip van het BIOS schrijft? Dat is niet heel veel kilobytes aan code, maar je hebt er een echte processor voor nodig.
Er zijn moederborden die het kunnen, ook in de consumentenrange, dus technisch gezien kan het zeker.
Dat is zeker niet waar, er zijn genoeg moederborden op de markt die een Bios kunnen flashen zonder geïnstalleerde CPU. Ze lijken echter wel allemaal uit de Asus stal te komen, misschien dat die een patent op die technologie hebben of iets in die richting.
Ik heb wel vaker BIOS updates gezien voor nieuwe CPU's maar nog nooit gehoord dat moederborden volledig niet werken met de nieuwere CPU's. Nieuwe CPU's hebben soms nieuwe features en/of settings maar als het pin compatibel is dan werkt het eigenlijk altijd wel?
Komt wel vaker voor.

Weet niet bij welke series allemaal, maar Intel heeft ook wel series gehad waarbij mensen een oudere processor kopen of lenen om een bios update te doen voor dat ze de nieuwe cpu erin kunnen doen.

Er hebben regelmatig praktisch nieuwe cpu's te koop gestaan. gebruikt voor die update

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee